JPH03259303A - 学習制御装置 - Google Patents

学習制御装置

Info

Publication number
JPH03259303A
JPH03259303A JP5668690A JP5668690A JPH03259303A JP H03259303 A JPH03259303 A JP H03259303A JP 5668690 A JP5668690 A JP 5668690A JP 5668690 A JP5668690 A JP 5668690A JP H03259303 A JPH03259303 A JP H03259303A
Authority
JP
Japan
Prior art keywords
control system
learning
output
signal
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5668690A
Other languages
English (en)
Other versions
JP2851901B2 (ja
Inventor
Minoru Fujita
稔 藤田
Akira Dobashi
土橋 亮
Hitoshi Saito
斎藤 均
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Hitachi Keiyo Engineering Co Ltd
Original Assignee
Hitachi Ltd
Hitachi Keiyo Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Hitachi Keiyo Engineering Co Ltd filed Critical Hitachi Ltd
Priority to JP2056686A priority Critical patent/JP2851901B2/ja
Publication of JPH03259303A publication Critical patent/JPH03259303A/ja
Application granted granted Critical
Publication of JP2851901B2 publication Critical patent/JP2851901B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、予め設定された応答特性のもとで入力指令に
対して所定の出力結果を与えるようにした制御系に係り
、特にロボットの制御に好適な学習制御装置に関する。
〔従来の技術〕
従来、PID(比例・積分・微分)制御則を用いた制御
システムの各ゲインの調整を、ニューラルネットワーク
という学習装置を用いて自動的に行なわせようとする場
合、 第6回日本ロボット学会学術講演会論文集(昭63−1
0)、第143頁〜第144頁に記載のように、ニュー
ラルネットワークの学習に用いる教師信号は、予め人間
が実験的、あるいは解析的に準備したものを用いていた
しかしながら、ロボットのマニピュレータにおける位置
と力のハイブリッド制御は、制御システム全体のフィー
ドバックのループ内に制御対象物の動特性が含まれるた
め、制御対象物の動特性を知らなければ安定な制御がで
きない。また、固定PIDゲインによる制御では、その
適応性が限られてしまうため、取り扱う対象物によって
適宜PIDゲインを変化させる必要がある。
そこで、上記従来技術では、制御システムのパラメータ
であるPIDゲインを、ニューラルネットワークを用い
て適宜変化させる方式をとっていた。
この方式では、ニューラルネットワークは、入力に応じ
た最適なPIDのゲインの値の決め方を学習により自己
形成する。つまり、ニューラルネットワークの入力をマ
ニピュレータ先端の位置と、フィードバックされる力、
および力の目標値とし、ニューラルネットワークの出力
をPID各ゲインとするのである。
そして、このニューラルネットワークによる学習には、
入力に対して与えられる、望ましい出力を表わすデータ
と、実際のニューラルネットワークの出力データとを比
較し、その誤差を最小にするようにネットワークの状態
を変化させていく、バックプロパゲーション・アルゴリ
ズムを用い、このバックプロパゲーション・アルゴリズ
ムを繰す返し行なうことで、ニューラルネットワークの
出力が、望ましい出力に近付いていく。
ところで、ここで使われている、入力に対して与えられ
るべき望ましい出力データのことを教師信号というが、
上記従来技術では、この教師信号として、予め人間が制
御システムが安定になるように、実験あるいは制御系の
解析を行なって求めておいたPIDゲインを用いていた
このようにして求められたいくつかの教師信号を用いて
、ニューラルネットワークは、制御システムの特性の一
部分を学習していた。そして5学習後は、ニューラルネ
ットワークは、学習した特性から制御システムの動特性
を推定し、入力に応じたPIDゲインを出力するように
なっていた。
〔発明が解決しようとする課題〕
上記従来技術は、学習装置の学習に用いる教師信号とし
て、制御システムの出力の評価値が目標とする値になる
ように、人間が予め実験的、あるいは解析的に準備した
ものを必要とする。
このため、良好な実験結果が得られない場合や、解析す
るためのモデルが構築できないような場合には、教師信
号を予め作成することができず、学習装置に学習させる
ことができなくなってしまうという問題があった。
また、従来技術ては、教師信号を作成することが可能で
あっても、大量の均質な教師データを作成する作業に膨
大な時間がかかつてしまうという問題があった。
本発明の目的は、極力人間の介在なしに、学習装置の学
習が可能で、学習後の学習装置を用いることにより、制
御システムの出力の評価値が目標とする値になるように
するとかできる教師信号を自動的に生成する機能を持っ
た学習制御装置を提供することにある。
〔課題を解決するための手段〕
上記目的を達成するため、通常の学習制御装置としての
動作モードに加えて、学習装置の学習を自動的に行なう
学習モードを設け、この学習モードにおいて、自動的に
制御システムの調整信号をランダムに発生させる働きを
する教師信号生成装置を設けたものである9 さらに、制御システムの入力と、前述の教師信号生成装
置が生成するランダムな調整信号に対する制御システム
の出力を評価する評価装置を設けたものである。
また、通常の学習制御装置としての動作モードにおいて
、制御システムの出力の評価値に対する目標値を設定す
るための目標評価値設定装置を設けたものである。
さらにまた、上記2種のモードにおいて、教師信号生成
装置の接続切離し、ならびに評価装置と目標評価値設定
装置の切換えを行なう、切換え装置を設けたものである
〔作用〕
前述の学習モードにおいて、教師信号生成装置は、制御
システムを動作させるための調整信号をランダムに発生
し、この値を調整信号として制御システムに渡す。
制御システムに入力が与えられると、制御システムは、
上記調整信号によって決定される入出力特性に応じた応
答を出力する。
そこで、評価装置は、この出力を評価し、これによって
、人間が介在することなく、学習データ、すなわち調整
信号と、それに対応する制御システムの応答、およびそ
の応答に対する評価値が1組得られたことになる。
以後、学習データは学習装置に渡され、学習装置は、制
御システムの出力、および評価装置の評価値と、教師信
号生成装置の生成する調整信号との関係を、学習装置内
部の状態を変更することにより学習する。
以上のプロセスを繰り返し、学習を重ねることによって
、ランダムな教師信号と学習装置の出力とが近付いてく
るようになり、学習装置内部に制御システムの出力およ
び評価装置の評価値と、調整信号との関連付けができ上
がる。つまり、制御システムの特性が学習できることに
なる。
学習後は、切り換え装置が学習制御装置を動作モードに
切り換える。このとき教師信号は不要となるため、教師
信号生成装置は切り放される。また、評価装置も不要に
なり、かわりに目標評価値設定装置が接続される。この
目標評価値設定装置に、人間が目標評価値を設定するこ
とにより、目標評価値が学習装置の入力となる。
学習装置は内部に制御システムの出力および評価値と、
調整信号との関連付けができているので、そのときの制
御システムの出力と、設定されている目標評価値とを入
力することで、それに対応する調整信号を出力する。こ
の調整信号を制御システムに入力することにより、制御
システムの出力の評価値を、設定されている目標評価値
に一致させるよう、制御システムの入出力特性を調整す
ることができる。
〔実施例〕 以下に本発明の第1の実施例について第1図ないし第5
図を用いて、そして第2の実施例については第6図から
第9図を用いて、それぞれ説明する。
第1の実施例は、制御システムの適用対象をPID制御
則を用いた力制御系にとり、この力制御系の振動を抑制
するように、PID各ゲインをニューラルネットワーク
という学習体を用いて、適宜調整する適応制御の例であ
り、さらに、この実施例では、ロボットハンドをその適
用対象としてしている者である。
まず、第2図は本発明の一実施例が適用されたロボット
ハンドの制御システムの一例を示したもので、図におい
て、制御装置1に与えられた力指令値によってサーボモ
ータ2に電流が流れ、ボールネジ3が回転する。ボール
ネジ3が回転することにより、力センサ4を取り付けた
可動指5が把持対象6をつむように移動する。
そして、この可動指5が把持対象6をつかむと、力セン
サ4により、その把持力がフィードバックされ、力指令
値との偏差がOになるまで制御装置1からサーボモータ
2に電流が流され、最終的に把持力が力指令値に一致す
るようにされるのである。
第3図は、上記制御システムをブロック図で表わしたも
ので、制御則としてPID制御則を用いている。そして
、把持対象Goはバネ・ダッシュポット・質量系とみな
した2次系の伝達関数の他、力指令値からモータ電流へ
の変換係数、モータ電流からトルクへの変換係数、ボー
ルネジの減速比を含んでいる。
ところで、この制御システムは、把持対象G。
に合わせてPID各ゲインを設定しないとハンチングや
振動を起こしてしまう。そこで、この実施例では、これ
らPID各ゲインの設定をニューラルネットワークとい
う学習装置を用いて、自動的に行なうように構成されて
いるものであり、以下これらPID各ゲインの設定処理
について説明する。
まず、第5図はモードの遷移フローであり、学習モード
51と動作モード52で構成され、学習モード51は、
PID各ゲインの調整の仕方を、ニューラルネットワー
クに学習させるモードで、動作モード52は、学習後の
ニューラルネットワークを用いて、適宜PID各ゲイン
を調整し、力制御系の振動を抑制するモードである。
ニューラルネットワークを用いて、適宜PID各ゲイン
を調整するためには、先ず、学習モード51でニューラ
ルネットワークを学習させ、その後、動作モード52に
切り換えて、PID各ゲインを調整するのである。
次に、第1図は本発明の一実施例を示すシステム全体構
成図であり、大別すると、制御システム11と、第3図
に示した比例要素ゲイン調整信号、積分要素ゲイン調整
信号、それに微分要素ゲイン調整信号の3種の信号から
なる教師信号を作成するための調整装置(教師信号を作
成する学習装置)12からなる。
制御システム11は、前述のPID制御則を用いた制御
系からなり、調整装置12は、その内部に、学習装置1
3、評価装置14、教師信号生成装置15、目標評価値
設定装置16、切換装置17を有する。
調整装置12は、制御システム11の入出力特性のパラ
メータであるPID各ゲインの値を調整するものであり
、切換装置17は、前述の学習モード91と動作モード
92の切り換えを行なう。
そして、実線の切換位置は学習モード時、破線の切換位
置は動作モード時を示す。
先ず、学習モード時について説明する。
評価装置13は、制御システム11の出力に現われる振
動の度合いを評価し、所定の評価関数を発生する働きを
える。
教師信号生成装置14は乱数発生器で構成され、限定さ
れた範囲の数値をランダムに発生し、PID各ゲインの
値を設定するための調整信号をランダムに決定する働き
をする。
学習装置15はニューラルネットワーク18を含み、制
御システム11の指令値と出力、および評価装置13の
出力から、教師信号生成装置14の出力を予想し、この
予想と、実際の教師信号生成装置14の出力との差がO
になるように、ニューラルネットワーク18の内部状態
を変更する働きをする。
次に、動作モード時について説明する。
目標評価値設定装置16は目標評価値を記憶しておくレ
ジスタであり、制御システム11が目標とする振動の度
合いを記憶する働きをする。
学習装置15は、制御システム11の指令値および出力
と、今回は目標評価値設定装置16が記憶している目標
評価値とから、PID各ゲインの調整信号を出力する。
この出力は、ニューラルネットワーク18がPID各ゲ
インの調整の仕方を学習しているので、制御システム1
1の出力の評価が、目標評価イ直と一致するような調整
信号となっている。
第4図は、ニューラルネットワーク18の基本構成図で
ある。
このニューラルネットワーク18は、複数のニューロン
41の結合体であり、このニューロン41は、多入力1
出力の素子で、独立したそれぞれの入力ごとに重み付け
を持った積和演算処理を行なうものである。
この実施例におけるニューラルネットワーク18はニュ
ーロン41を層状に結合し、入力層43、中間層44、
出力層45という構造をとっており、従って、まず入力
層43に与えられた入力情報が、中間層44、出力層4
5へと順に伝播されることによって処理されることにな
る。そして、ニューラルネットワーク18は、この情報
の処理の仕方を学習によって自己形成する。
この学習は、1個1個のニューロン間の結合42の強さ
の加減によって、すなわち、ニューロン41の入力の重
み付けを変更することによって行なわれるのであるが、
この学習のアルゴリズムとしては、バックプロパゲーシ
ョンと呼ばれる方式ものが知られており、この実施例で
も、このバックプロパゲーション方式が用いている。
従って、この実施例においては、以上に述べたようにし
て、力制御系の振動を抑制するように、PID各ゲイン
をニューラルネットワーク18を用いて、適宜調整する
ことができ、この結果、この実施例によれば、制御シス
テム11に含まれているPID力制御系を解析する必要
がなく、そのための労力を省略できる。
さらに、振動の度合いの目標値を、パラメータに変換す
ることなしに調整装置12に入力できるため、そのため
の労力を省略できる。
また、評価装置13の評価要素を変更し、学習をするだ
けで、他の改造をすることなく、目標とする制御ができ
るという効果がある。
次に、本発明の第2の実施例について説明する。
この実施例は、制御システムによる対象をX−Yプロッ
タの位置サーボ系とし、このサーボ系の特性をニューラ
ルネットワークを用いて補償する例である。
第6図は、本発明の第2の実施例が対象としているX−
YプロッタのX軸の位置サーボ系を、この位置サーボ系
に内包されている速度サーボ系の応答の方が、この位置
サーボ系自身の応答に比べて十分速いものと同定した場
合のブロック図であり、この場合の位置サーボ系61は
、積分要素62、およびその調整ゲイン63より構成さ
れている。
そして、この位置サーボ系61は、第6図のブロック図
より明らかなように、1次系の特性の動作をする。なお
、この実施例はX−Yプロッタなので、これと同じ位置
サーボ系がY軸にもある。
第7図は、第6図に示した位置サーボ系を備えたx−Y
プロッタの軌跡を示したもので、PO→P1の軌跡71
は、指令通りの軌跡を描いているが、PO→P2→P1
の軌跡72は、軌跡P2の周辺で指令した軌跡より逸脱
している。
そこで、位置サーボ系61を解析してみと、ここでの指
令はランプ入力になるので、ランプ入力を位置サーボ糸
61に入力したときは、位置サーボ系61の応答が、ラ
ンプ入力の傾きである速度と、調整ゲイン63より決ま
る一定量だけ、指令に対して遅れていることが判り、従
って、この遅れを補償する方法を以下に考えてみる。
第8図は、第1図の学習モード時の状態を表わす簡易等
価ブロック図で、この場合、制御システム11″は、評
価装置14、および既知である指令値を含めて考えると
、パラメータKを入力として、評価値Aを出力とするシ
ステムとして、A=G (K)という伝達関数Gで表わ
すことができる。
一方、上記したように、調整装置12はニューラルネッ
トワーク18を内部に有する。そこで、その伝達関数を
G゛ とすると、K’ =G’  (A)と表わすこと
ができる。
そこで、K=に’  となるように、この調整装置12
に、ニューラルネットワーク18を学習させる。そして
、K=に’ となった時点では、調整装置12の伝達関
数G°は、制御システム11゛ の伝達関数Gの逆関数
となる。
そこで、こんどは、第9図に示すように接続を切り換え
る。
この第9図は、第1図のシステムの動作モード時におけ
る簡易等価ブロック図で、制御システム11″は、第8
図と同一のものであり、調整装置12は、K=に’ と
なった時点のものである。
調整装置12は、目標評価値A°が入力されると、その
伝達関数G°によって決まるパラメータに° を出力す
る。そして、制御システム11°は、このパラメータに
°が入力されたことにより評価値Aを出力する。ところ
が、調整装置i12の伝達関数G′は、制御システム1
1°の伝達関数Gの逆関数となっているので、全体の伝
達関数はlとなり、A=A’  となる。
従って、ここでAを位置、A′ を位置指令とすると、
損失も位相のずれもなく、位置を制御することができる
ことになる。
この実施例によれば、厳密なサーボ系のブロック図が規
定できなくても、サーボ系の特性が補償できるという効
果がある。
〔発明の効果〕
本発明によれば、人間は目標評価値を与えるだけで、制
御システムの出力の評価値を、目標評価値になるように
、制御することができる。
【図面の簡単な説明】
第1図は本発明による学習制御装置の一実施例を示すブ
ロック図、第2図は本発明の一実施例が適用されたロボ
ットハンドの制御システムの一例を示す構成図、第3図
は制御システムのブロック図、第4図はニューラルネッ
トワークの基本構成図、第5図はモードの遷移フロー説
#J図、第6図は本発明の第2の実施例が対象としてい
るX−YプロッタのX軸の位置サーボ系のブロック図、
第7図は位置サーボ系を備えたx−Yプロッタの軌跡を
示す説明図、第8図は学習モード時の状態を表わす簡易
等価ブロック図、第9図は動作モード時における簡易等
価ブロック図である。 1・・・・・・制御装置、2・・・・・・サーボモータ
、3・・・・・・ボールネジ、4・・・・・・力センサ
、5・・・・・・可動指、6・・・・・・把持対象、1
1・・・・・・制御システム、12・・・・・・調整装
置、13・・・・・・評価装置、14・・・・・・教師
信号生成装置、15・・・・・・学習装置、16・・・
・・・目標評価値設定装置、17・・・・・・切換装置
、18・・・・・・ニューラルネットワーク。 第2図 1+図 l 第3図 t〒±吐」影巴 14図 1i5図 第6図 1 第7図

Claims (1)

  1. 【特許請求の範囲】 1、所定の入力指令に応答して所定の出力結果を与える
    制御システムと、上記入力指令と上記出力結果及び予め
    設定されている所定の目標評価値とに基づいて所定の信
    号生成特性のもとで所定の教師信号を作成する学習装置
    とを備え、この教師信号により上記制御システムの応答
    特性を設定するようにした制御系において、予め設定さ
    れた数値範囲内で任意の数値をとる疑似教師信号を発生
    する信号生成手段と、上記制御システムの出力結果を判
    定する評価手段とを設け、上記目標評価値に代えて上記
    評価手段の出力を取り込みながら上記疑似教師信号によ
    り上記制御システムの応答特性を設定した状態で、上記
    学習装置から生成される教師信号が該疑似教師信号に収
    斂する方向に、上記学習装置の信号生成特性を変化させ
    てゆくように構成したことを特徴とする学習制御装置。 2、請求項1の発明において、上記信号生成手段が乱数
    発生器であり、上記学習装置による上記信号生成特性が
    ニューラルネットワークにより与えられるように構成さ
    れていることを特徴とする学習制御装置。 3、請求項1の発明において、上記制御系が学習モード
    と動作モードの切換機能を備え、学習モードでは上記学
    習装置の信号生成特性の変更による学習が行なわれ、動
    作モードでは上記教師信号により上記制御システムの応
    答特性が設定された状態で上記制御系が動作するように
    構成されていることを特徴とする学習制御装置。 4、請求項1の発明において、上記制御システムがPI
    D力制御系であり、上記教師信号が、このPID力制御
    系での比例要素ゲイン調整信号と積分要素ゲイン調整信
    号及び微分要素ゲイン調整信号であることを特徴とする
    学習制御装置。
JP2056686A 1990-03-09 1990-03-09 学習制御装置 Expired - Lifetime JP2851901B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2056686A JP2851901B2 (ja) 1990-03-09 1990-03-09 学習制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2056686A JP2851901B2 (ja) 1990-03-09 1990-03-09 学習制御装置

Publications (2)

Publication Number Publication Date
JPH03259303A true JPH03259303A (ja) 1991-11-19
JP2851901B2 JP2851901B2 (ja) 1999-01-27

Family

ID=13034324

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2056686A Expired - Lifetime JP2851901B2 (ja) 1990-03-09 1990-03-09 学習制御装置

Country Status (1)

Country Link
JP (1) JP2851901B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018097680A (ja) * 2016-12-14 2018-06-21 ファナック株式会社 制御システム及び機械学習装置
JP2018120357A (ja) * 2017-01-24 2018-08-02 ファナック株式会社 数値制御装置及び機械学習装置
CN108393890A (zh) * 2017-02-06 2018-08-14 精工爱普生株式会社 控制装置、机器人以及机器人系统
CN108693834A (zh) * 2017-04-07 2018-10-23 发那科株式会社 调整装置以及调整方法
JP6469320B1 (ja) * 2017-11-10 2019-02-13 三菱電機株式会社 サーボ制御装置
WO2019069649A1 (ja) * 2017-10-06 2019-04-11 キヤノン株式会社 制御装置、リソグラフィ装置、測定装置、加工装置、平坦化装置及び物品製造方法
DE102016014264B4 (de) * 2015-12-07 2021-07-01 Fanuc Corporation Maschinelle Lernvorrichtung, Blechpaketherstellungsvorrichtung, Blechpaketherstellungssystem und maschinelles Lernverfahren zum Erlernen des Stapelns von Paketblechen
US11460781B2 (en) 2017-10-06 2022-10-04 Canon Kabushiki Kaisha Control device for generating a control deviation via machine learning

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016014264B4 (de) * 2015-12-07 2021-07-01 Fanuc Corporation Maschinelle Lernvorrichtung, Blechpaketherstellungsvorrichtung, Blechpaketherstellungssystem und maschinelles Lernverfahren zum Erlernen des Stapelns von Paketblechen
CN108227482A (zh) * 2016-12-14 2018-06-29 发那科株式会社 控制系统以及机器学习装置
JP2018097680A (ja) * 2016-12-14 2018-06-21 ファナック株式会社 制御システム及び機械学習装置
US10564611B2 (en) 2016-12-14 2020-02-18 Fanuc Corporation Control system and machine learning device
US10466658B2 (en) 2017-01-24 2019-11-05 Fanuc Corporation Numerical controller and machine learning device
JP2018120357A (ja) * 2017-01-24 2018-08-02 ファナック株式会社 数値制御装置及び機械学習装置
CN108393890A (zh) * 2017-02-06 2018-08-14 精工爱普生株式会社 控制装置、机器人以及机器人系统
JP2018126796A (ja) * 2017-02-06 2018-08-16 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
JP2018180764A (ja) * 2017-04-07 2018-11-15 ファナック株式会社 調整装置及び調整方法
US10444733B2 (en) 2017-04-07 2019-10-15 Fanuc Corporation Adjustment device and adjustment method
CN108693834A (zh) * 2017-04-07 2018-10-23 发那科株式会社 调整装置以及调整方法
WO2019069649A1 (ja) * 2017-10-06 2019-04-11 キヤノン株式会社 制御装置、リソグラフィ装置、測定装置、加工装置、平坦化装置及び物品製造方法
US11460781B2 (en) 2017-10-06 2022-10-04 Canon Kabushiki Kaisha Control device for generating a control deviation via machine learning
JP6469320B1 (ja) * 2017-11-10 2019-02-13 三菱電機株式会社 サーボ制御装置

Also Published As

Publication number Publication date
JP2851901B2 (ja) 1999-01-27

Similar Documents

Publication Publication Date Title
Kwan et al. Robust backstepping control of nonlinear systems using neural networks
Karakasoglu et al. Identification and decentralized adaptive control using dynamical neural networks with application to robotic manipulators
Kwan et al. Robust neural-network control of rigid-link electrically driven robots
Ishiguro et al. A neural network compensator for uncertainties of robotics manipulators
Golea et al. Fuzzy model reference adaptive control
Chen TSK-type self-organizing recurrent-neural-fuzzy control of linear microstepping motor drives
GB2272077A (en) An adaptive control system
Efe et al. A fractional adaptation law for sliding mode control
Kim et al. Robust self-learning fuzzy controller design for a class of nonlinear MIMO systems
Hamzaoui et al. State observer based robust adaptive fuzzy controller for nonlinear uncertain and perturbed systems
KR20200097982A (ko) 입력 포화를 가지는 불확실한 전기 구동 로봇 시스템에 대해 pso를 이용한 rbfnn 기반 분산 적응 추종 시스템
Rios-Gutierrez et al. Efficient position control of DC Servomotor using backpropagation Neural Network
EP0519501B1 (en) A control method using neural networks and a voltage/reactive power controller for a power system
JPH03259303A (ja) 学習制御装置
Hsu et al. Microcontroller-based B-spline neural position control for voice coil motors
Kodogiannis et al. Neural network modelling and control for underwater vehicles
Zhang et al. A recurrent wavelet-based brain emotional learning network controller for nonlinear systems
Yan et al. Robot learning control based on recurrent neural network inverse model
Varnell et al. Dissipativity-based teleoperation with time-varying communication delays
Teshnehlab et al. Neural network controller with flexible structure based on feedback-error-learning approach
Facundo et al. Adaptive control with sliding mode on a double fuzzy rule emulated network structure
Lee et al. Multiple neuro-adaptive control of robot manipulators using visual cues
Wilson Backpropagation learning for systems with discrete-valued functions
Yadav et al. Sliding mode control with RBF neural network for two link robot manipulator
Varshney et al. Position tracking and balancing control of ball balancer system using intelligent controllers