JP2002189502A - ロバスト強化学習方式 - Google Patents

ロバスト強化学習方式

Info

Publication number
JP2002189502A
JP2002189502A JP2000386265A JP2000386265A JP2002189502A JP 2002189502 A JP2002189502 A JP 2002189502A JP 2000386265 A JP2000386265 A JP 2000386265A JP 2000386265 A JP2000386265 A JP 2000386265A JP 2002189502 A JP2002189502 A JP 2002189502A
Authority
JP
Japan
Prior art keywords
generator
disturbance
signal
action
robust
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000386265A
Other languages
English (en)
Other versions
JP3465236B2 (ja
Inventor
Atsushi Morimoto
淳 森本
Kenji Dotani
賢治 銅谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Japan Science and Technology Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International, Japan Science and Technology Corp filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2000386265A priority Critical patent/JP3465236B2/ja
Publication of JP2002189502A publication Critical patent/JP2002189502A/ja
Application granted granted Critical
Publication of JP3465236B2 publication Critical patent/JP3465236B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【課題】環境モデルが未知の場合にも対応することがで
きるとともに、環境の変動に比較的強いロバスト制御の
学習方法およびロバスト制御器を提供する。 【解決手段】環境(1)に行動信号u(t)を出力する
とともに学習機能を具備する行動生成器(2)と、環境
に外乱信号w(t)を出力するとともに学習機能を具備
する外乱生成器(4)と、目標の達成度に応じた報酬
に、前記外乱生成器からの外乱に耐えうることに応じた
報酬を加味した報酬信号である評価信号q(t)を生成
し、現在の状態x(t)から将来に向けて得られる評価
信号の和の期待値を予測し、その予測誤差信号を生成す
る状態評価器(3)とを備え、現在の状態から将来に向
けて得られる評価信号の和の期待値を最大化するべく行
動生成器は学習し、一方、外乱生成器は前記評価信号の
和の期待値を最小化すべく学習する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、強化学習において
環境の不確かさに対してロバストな行動則を学習する方
式に関するものである。さらに、詳しくは、ロボット、
自動車、航空機などの物理的システムの制御、また、広
く人間に代わって情報検索、ユーザー応答、資源割当、
市場取引などを行うコンピュータプログラムなどにおい
て、環境の様々な外乱や、想定していたモデルと現実と
の環境のズレに対応することができる強化学習方式およ
び強化学習された制御器である。なお、この明細書にお
いては、特許明細書では使用不可能な文字に対応するた
めに、下記の様にして対処している。
【外1】
【0002】
【従来の技術】従来の強化学習方式について説明する。
図2は従来の学習方式に用いる回路のブロック図であ
る。図3は制御対象と制御器とのフィードバックのブロ
ック図であり、H∞制御理論を説明するための図であ
る。環境1は制御対象をはじめ、行動の対象となるシス
テム一般を表し、状態信号x(t) を行動生成器2および
状態評価器3に出力している。行動生成器2は状態信号
x(t) が入力されると行動信号u(t) を環境1に出力し
ている。また、環境1から報酬信号r(t) が状態評価器
3に入力される。状態評価器3は、目標の達成度に応じ
た報酬r(t) が入力されると、現在の状態x(t) から将
来に向けて得られる、報酬r(t) の荷重和の期待値すな
わち、評価関数V(x(t) )を予測し、その予測値を用
いて予測誤差信号δ(t) を生成し、行動生成器2に出力
する。行動生成器2は、状態評価器3から予測誤差信号
δ(t) が入力されると、現在の状態x(t) から将来に向
けて得られる、報酬r(t) の荷重和の期待値すなわち、
評価関数V(x(t) )が最大となる様に学習し、その入
出力の関係を変更する。ただし、前記評価関数V(x
(t))は、連続の場合、
【数1】 この学習方式では、ある環境のもとで最適な行動が学習
されるが、異なる環境では動作は保証されていない。ま
た、異なる環境に適応するためには再学習を行う必要が
あり、その再学習の時間が新たに必要となる。
【0003】次に、従来のH∞制御について説明する。
図3において、制御対象Gから観測信号y(t) が制御器
Kに入力される。制御器Kは観測信号y(t) が入力され
ると、制御信号である行動信号u(t) を制御対象Gに出
力する。また、制御対象Gには外乱信号w(t) および行
動信号u(t) が入力され、これらの信号が入力される
と、評価用信号z(t) および観測信号y(t) を出力す
る。なお、外乱の影響を評価するための評価用信号z
(t) と、制御対象Gを観測して制御器Kに入力するフィ
ードバック信号である観測信号y(t) とは、同じにする
ことも可能であるが、異ならしめることも可能である。
そして、ロバスト制御の代表的な定式化であるH∞制御
問題の要請は、図3に図示するフィードバック系で未知
外乱やモデル誤差に起因する外乱信号w(t) による評価
用信号z(t) への影響を少なく抑えつつ、出力を安定化
する。すなわち、評価用信号z(t) =0に近づけること
である。具体的には、H∞ノルムによりシステムの外乱
に対する感度を測り、ロバスト性の基準値γ以下となる
ような制御器Kの設計を行う。ノルムとは、ある種の大
きさの指標であり、外乱信号w(t) から評価用信号z
(t) への伝達関数行列をT ZWとしたとき、そのH∞ノル
ム、‖TZW‖∞は次の(式2)のように定義される。
【数2】 ただし、 supw は外乱信号w(t) に関する上限を表し、
外乱信号w(t) を変化させたときに、‖z‖2 /‖w‖
2 が supw ( ‖z‖2 /‖w‖2 )より大きくならない
ことを示している。また、‖z‖2 および‖w‖2 はそ
れぞれ評価用信号z(t) および外乱信号w(t) のL2
ルムであり、次の(式3)および(式4)で定義され
る。
【数3】
【数4】
【0004】ここで、評価関数Vを次の(式5)の様に
定義する。
【数5】 これを行動信号u(t) に関しては最大化し、外乱信号w
(t) に対しては最小化する問題を考える。その結果、V
≧0を満たす解を得られれば、(式2)の条件のもと
で、評価用信号z(t) の安定化が実現できる。
【0005】強化学習の課題のうち、予め与えられた目
標点あるいは目標軌道への近さを報酬信号とするもの
は、学習制御の課題と考えることができる。前記ロバス
ト制御の代表的な方法であるH∞制御は、システムの外
乱による影響の受けやすさをH∞ノルムで評価し、フィ
ードバック系のH∞ノルムを一定以下に抑える制御器を
設計することにより、外乱やモデル誤差に対するロバス
ト性を保証するものである。しかし、その制御器の解析
的な構成手法は線形システムに対し示されており、非線
形システムに対してはある限定されたシステムを除いて
は、一般に解析的に制御器を構築する方式はない。非線
形システムにおいて、多層神経回路網を用いて未知外乱
を考慮した状態価値関数を近似しロバスト制御を実現す
る手法が提案されているが、これらは、制御器の適応可
能範囲が線形近似可能な領域付近に限られていたり、学
習がオフラインのバッチ学習に限られている。また、こ
れらの学習には環境のモデルを必要としている。さら
に、状態を離散化し動的計画法を用いる方式も提案され
ているが、制御器の構築には、状態を離散化する過程
と、オフラインの計算過程とを必要とし、かつ、環境モ
デルを必要とする。また、ここまでに挙げたロバスト制
御器はレギュレータ(目標点を原点とし、その原点に制
御対象の状態を持って行く制御)としてのみ機能する。
【0006】ところで、従来のミニマックス戦略を用い
る強化学習方式では、オセロやバックギャモンの学習を
行っている。また、戦闘機やミサイルの逃亡追従問題に
適用した例もある。一方、本発明では、仮想的な敵を想
定して学習を行った後、実際に制御器を適用する際に
は、その外乱生成器を除いて制御器を構成するという点
で異なる。これは、外乱を仮想的な敵とみなすことによ
ってロバストな制御器を強化学習により構築するという
新しい発想に依存している。また、後述の(式8−2)
で定義される評価関数の予測誤差に重み付けをして学習
することで、ロバストな行動則を強化学習によって獲得
する手法とは異なり、本発明はH∞制御との関連や目的
関数が明確である。よって、最悪の外乱を求めていると
いう点において、より確実にロバストな制御器を獲得す
ることができる。
【0007】そして、後述のように、本発明の実施の形
態においては、非線形、オンライン、モデル非依存性の
動的最適化手法である強化学習方式に、ロバスト制御に
おける最悪外乱に対する感度の最小化の原理を導入する
ことにより、ロバスト強化学習方式を実現し、その制御
課題への適用により、非線形、オンライン、モデル非依
存性のロバスト学習制御を実現する。また、環境の近似
モデルが既知の場合、あるいは未知の場合でも、環境の
モデルを学習することにより、モデル依存の強化学習方
式を拡張し適用することにより、効率良く非線形ロバス
ト制御器をオンラインで構築することができる。
【0008】この様なことができる利点は、環境が非定
常であった場合に、一度学習によって構築した非線形ロ
バスト制御器や環境モデルを用いれば、ある程度の環境
の変動なら再学習することなく対応することができるこ
とである。また、従来のロバスト制御は出力をある目標
値に収束させるレギュレータ問題に対してのみ定式化さ
れていたが、本発明のロバスト強化学習方式は、任意の
評価基準に対して適用可能である。
【0009】
【発明が解決しようとする課題】この様に、従来の強化
学習では、環境の変動が生じた場合には、再学習する必
要があり、従来のロバスト制御の方式は環境のモデルが
未知の場合には対応することができなかった。さらに、
非線形系に適用可能な制御則の具体的方法は与えていな
い。
【0010】そこで本発明は、環境モデルが未知の場合
にも対応することができるとともに、非線形系に適用可
能な環境の変動に強いロバスト強化学習方式およびロバ
スト制御器を提供することを目的とする。
【0011】
【課題を解決するための手段】このため、本発明が採用
した課題解決手段は、制御対象あるいは環境に行動信号
を出力するとともに学習機能を具備する行動生成器、お
よび制御対象あるいは環境に外乱信号を出力するととも
に学習機能を具備する外乱生成器を備え、目標の達成度
に応じた報酬に、前記外乱生成器からの外乱に耐えうる
ことに応じた報酬を加味した報酬信号である評価信号を
生成し、現在の状態から将来に向けて得られる評価信号
の荷重和の期待値を最大化(または最小化)するべく行
動生成器は学習し、一方、外乱生成器は前記評価信号の
荷重和の期待値を最小化(または最大化)すべく学習す
ることを特徴とする強化学習方式であり、前記学習方式
において、現在の状態から将来に向けて得られる評価信
号の和の期待値を予測する状態評価器を備え、その予測
誤差信号を、状態評価器、行動生成器、および外乱生成
器の少なくとも1個の学習に用いることを特徴とする強
化学習方式であり、前記状態評価器、行動生成器および
外乱生成器の少なくとも一個は、関数近似手段として、
入出力関係を示す参照テーブルを具備していることを特
徴とする強化学習方式であり、前記状態評価器、行動生
成器および外乱生成器の少なくとも一個は、関数近似手
段として、線形モデルまたは多項式モデルを具備してい
ることを特徴とする強化学習方式であり、前記状態評価
器、行動生成器および外乱生成器の少なくとも一個は、
関数近似手段として、多層神経回路網を具備しているこ
とを特徴とする強化学習方式であり、前記方式により、
予め学習された前記状態評価器と行動生成器または行動
生成器のみを用いた制御方式であり、前記方式を計算機
シミュレーションによって実現される環境モデルに適用
し、それによって学習された前記状態評価器と行動生成
器または行動生成器のみを実環境に適用することを特徴
とする制御方式であり、前記状態評価器または行動生成
器の少なくとも一方は、関数近似手段として、入出力関
係を示す参照テーブルを具備していることを特徴とする
ロバスト制御器であり、前記状態評価器または行動生成
器の少なくとも一方は、関数近似手段として、線形モデ
ル、多項式モデルまたは多層神経回路網を具備している
ことを特徴とするロバスト制御器である。
【0012】
【実施の形態】次に、本発明における強化学習方式およ
びロバスト制御器の実施の一形態を説明する。図1は本
発明の実施の形態のロバスト強化学習方式に用いる回路
のブロック図である。図4は第1具体例の説明図で、
(a)が概略図、(b)が1mの長さの振り子の角度変
化のグラフである。図5は第1具体例の角度変化のグラ
フで、(a)が0.5mの長さの振り子のグラフ、
(b)が2mの長さの振り子のグラフである。図6は第
2具体例の概略図である。図7は第2具体例の位置変化
のグラフで、(a)が1kgの質量の搬送物を用いた場
合のグラフ、(b)が3kgの質量の搬送物を用いた場
合のグラフである。
【0013】本発明では、外乱や環境の変化に対してロ
バストな強化学習を実現するため、目標の達成度に応じ
た報酬r(t)に対して、外乱に耐えうることに応じた
報酬s(t)を加えた新たな報酬である評価信号q(t)
を次のように定義した時、
【0014】
【数6】 この評価信号q(t)を報酬とした最大最小問題を強化
学習方式の枠組みにおいて解く。よって、前述のH∞制
御の問題設定は、本発明の実現例の一つとなっているこ
とがわかる。以上を考慮した上で、次のようにロバスト
強化学習の学習方式に用いる回路を図1に図示するよう
に構築する。
【0015】この図1の説明において、図2の従来の回
路と同じ構成要素には同じ符号を付して、その説明は省
略する。この図1においては、外乱生成器4が設けられ
ている。そして、環境1からの観測信号y(t)が、状
態推定器を介して状態信号x(t) となり、行動生成器
2、状態評価器3および外乱生成器4に入力されてい
る。この外乱生成器4は状態信号x(t) が入力される
と、外乱信号w(t) を環境1および状態評価器3に出力
する。この状態評価器3は、環境1からの目標報酬信号
r(t) と、外乱生成器4からの外乱信号w(t) に基づい
て生成した外乱報酬信号s(t) とに基づいて、現在の状
態x(t) から将来に向けて得られる評価信号q(t) の荷
重和の期待値を予測し、その予測値に基づいて予測誤差
信号δ(t) を生成し、行動生成器2および外乱生成器4
に出力する。この様にして、状態評価器3は、外乱報酬
信号s(t) に目標報酬信号r(t) を加算して評価信号q
(t) を得て、予測誤差信号δ(t) を生成し出力してい
る。そして、行動生成器2は予測誤差信号δ(t) が入力
されると、現在の状態x(t) から将来に向けて得られる
上記評価信号q(t) の荷重和の期待値を最大化するべく
学習し、その入出力関係を変更する。一方、外乱生成器
4は予測誤差信号δ(t) が入力されると、現在の状態x
(t) から将来に向けて得られる上記評価信号q(t) の荷
重和の期待値を最小化するべく学習し、その入出力関係
を変更する。
【0016】状態評価器3は、(式7)で定義される現
在の状態x(t) から将来に向けて得られる評価信号q
(t) の期待値V(x(t))を予測する。ただし、τは評価
の時定数である。
【数7】 行動生成器2および外乱生成器4は、この期待値V(x
(t))がそれぞれ、最大化、最小化される様に行動信号u
(t) 、外乱信号w(t) を学習する。なお、行動生成器
2、状態評価器3および外乱生成器4としては、参照テ
ーブル、線形モデル、多項式モデル、多層神経回路網な
どを用いることができる。
【0017】ロバスト強化学習を行う時点においては、
状態評価器3、行動生成器2および外乱生成器4は同時
に作動させるが、実際に学習した行動則を制御対象また
は環境に用いる段階においては、状態評価器3および行
動生成器2、或いは、行動生成器2のみを用いて動作さ
せる。この行動生成器2には、観測信号y(t) として状
態信号x(t) が直接得られる場合はそれを用いるが、一
般にはオブザーバ、カルマンフィルタなどにより状態信
号x(t) を推定し入力として用い、また、学習時には、
環境1はモデルでも、実際の環境でも可能である。そし
て、実際の環境の場合には、行動信号u(t) および外乱
信号w(t) は、アクチュエータなどの駆動源や、低レベ
ルの制御プログラムへの指令などの作動手段を介して環
境1に入力される。一方、報酬信号r(t) や状態信号x
(t) は、センサーなどの検知手段を介して環境1から出
力される。
【0018】そして、状態評価器3は、評価関数V(x
(t))のパラメータv={v1 ,v2,…,vi ,…}を
持つ近似器V(x(t) ;v)として実現され、その手段
としては、前述の参照テーブル、線形モデル、多項式モ
デルおよび多層神経回路網を用いることができる。
【0019】この様にして、状態評価器3は、環境1か
ら目標報酬信号r(t) を得る手段と、外乱生成器4から
外乱信号w(t) を得る手段と、目標報酬に外乱報酬を加
味した評価信号q(t) を得る手段と、現在の状態から将
来に向けて得られる評価信号q(t) の和の期待値を予測
し、予測誤差信号δ(t) を生成する手段とを有してい
る。また、行動生成器2は、環境1から状態信号x(t)
を得る手段と、状態評価器3から予測誤差信号δ(t) を
得る手段と、環境1に行動信号u(t) を出力する手段
と、現在の状態から将来に向けて得られる評価信号q
(t) の和の期待値が最大化する様に学習する手段とを有
している。そして、外乱生成器4は、環境1から状態信
号x(t) を得る手段と、状態評価器3から予測誤差信号
δ(t) を得る手段と、環境1に外乱信号w(t) を出力す
る手段と、現在の状態から将来に向けて得られる評価信
号q(t) の和の期待値が最小化する様に学習する手段と
を有している。
【0020】以降、離散系での評価関数の学習、連続系
での評価関数の学習、離散系での行動決定方法、連続系
での行動決定方法の順に示す。離散系での評価関数の学
習:次の様な確率分布Pにしたがう動的制御対象を考え
る。 P(xT+1 |xT ,uT ,wT ) ただし、xT は状態変数、uT は制御入力、wT は外乱
入力を表す。このとき、求めるべき評価関数VT は次の
式で表される。
【数8】 ただし、qT はただちに得られる評価信号、α(0≦α
≦1)は評価の減衰率を表す。そこで、状態評価値の予
測誤差δT は次式のように表される。 δT =qT +αVT+1 −VT (式8−2)
【0021】よって、この予測誤差δT と、次の(式
9)で表される各パラメータの寄与度の履歴eiTを用い
て、
【数9】 パラメータの更新量Δvi は、次式のように表される。 Δvi =ηδT iT ただし、λはパラメータの寄与度の履歴の減衰率を、η
は学習率を表す。また、各パラメータの寄与度の履歴e
iTは(式9)の定義より次式を用いて更新される。
【数10】
【0022】連続系での評価関数の学習:次の様な動的
制御対象を考える(状態変数x(t)の時間変化dx/d
tを、状態変数x(t) 、制御入力u(t) 、外乱入力w
(t) 、ノイズ入力n(t)の関数として考える)。 dx/dt=f(x(t),u(t),w(t))+n(t) ただし、このとき、求めるべき評価関数V(t) は次式で
表される。
【数11】 ただし、q(t) はただちに得られる報酬であり、τは評
価値の時定数である。よって、状態評価値の予測誤差δ
(t) は次式のように表される。 δ(t) =q(t) −(1/τ)×V(t) +dV(t) /dt
【0023】ここで得られる状態評価値の予測誤差δ
(t) と、次式で表される各パラメータの寄与度の履歴を
用いて、
【数12】 ただし、kはパラメータの寄与度の履歴の時定数であ
る。状態評価器のパラメータの更新量dvi /dt(連
続系ではパラメータvi の時間微分で表される)は次式
のように表される。 dvi /dt=ηδ(t) ei (t) ただし、ηは学習率を表す。
【0024】また、各パラメータの寄与度の履歴e
i (t) の更新量dei (t) /dtは、(式12)の定義
により次式を用いて更新される。
【数13】
【0025】離散系での行動決定方法: (モデル非依存の場合)次式で示す確率分布Prに従っ
て、状態sにおける行動aを決定する。
【数14】 ただし、A(s,a) は行動決定のためのパラメータであ
り、状態sにおける行動aの取りやすさを表している。
また、βは行動のランダムさを表すパラメータである。
この時、行動生成器のパラメータ更新量ΔAu (sT , a
uT) と、外乱生成器のパラメータ更新量ΔAw (sT , a
wT) は(式8−2)の予測誤差δT を用いて次式でそれ
ぞれ表される。 ΔAu (sT , auT) =ηA U δT ΔAw (sT , awT) =−ηA W ηA δT ただし、ηA U ,ηA W は学習率を表す。また、auT
wTはそれぞれ、時刻Tにおける行動生成器と外乱生成
器の行動を表す。
【0026】モデル非依存の学習方式として、行動価値
関数を学習することによって、ロバスト強化学習を実現
することができる。つまり、次式で表される行動価値関
数の予測誤差δT を用いて、
【数15】 行動価値関数の更新量ΔQ( sT , auT, wT)は次式
のようになる。 ΔQ( sT , auT, wT)=ηQ δT ただし、ηQ は学習率、αは評価の減衰率である。
【0027】次式で示す確率分布Prw に従って、状態
sにおいて、外乱生成器の行動awT j をすべての行動生
成器の行動aujに関して決定する。
【数16】 この場合、確率分布Prw に従うことで、小さい行動価
値を持つ外乱生成器の行動aw を高い確率で選択するこ
とになる。これによって、目的とする課題の達成にとっ
て外乱生成器が最悪の外乱を生成するようになる。ただ
し、βは行動のランダムさを表すパラメータである。
【0028】次に、次式で表される確率分布Pru に従
って、状態sにおいて、行動生成器の行動auTをすでに
決定した外乱生成器のaujに対する行動awTj を用いて
決定する。
【数17】 ただし、行動生成器が行動auT=aujを選択した時、外
乱生成器は行動awT=awTj を選択する。この場合、確
率分布Pru に従うことで、大きい行動価値を持つ行動
生成器の行動aujを高い確率で選択することになる。こ
れによって、目的とする課題の達成にとって行動生成器
が最高の行動出力を生成するようになる。ただし、βは
行動のランダムさを表すパラメータである。
【0029】離散系での行動決定方法: (モデル依存の場合)状態XT において、行動生成器の
行動がuで、外乱生成器の行動がwであり、その結果状
態XT+1 にたどり着いたとする。そのときに得られる評
価信号qT+1とすれば、環境のモデルを用いて、行動生
成器の行動uT
【数18】 ただし、αは評価の減衰率、P(xT+1 |xT ,u,
w)は状態xT において行動生成器が行動uを出力し外
乱生成器が外乱wを出力した時、状態xT+1 に遷移する
確率。
【0030】連続系での行動決定方法: (モデル非依存の場合)行動生成器の行動をu(t),
外乱生成器の行動をw(t)とすると、それぞれ、 u(t)=A(x(t);vAu)+nu (t) w(t)=A(x(t);vAw)+nw (t) のように表される。ただし、nu (t),nw (t)は
探索のためのノイズ入力を表す。それぞれの行動は、パ
ラメータvA ={v 1 A ,v 2 A ,…, i A ,…}を
持つ近似器A(x(t);vA )として実現され、その
手段としては、線形モデル、多項式モデルおよび多層神
経回路網などを用いることができる。また、それぞれの
パラメータは、前述の予測誤差信号δ(t)を用いて以
下のように更新する。
【数19】 (モデル依存の場合)環境のモデルを用いることが可能
な場合は、状態評価器の勾配を用いて、モデル非依存性
の場合に比べて効率的に学習を行うことができる。ここ
で、環境モデルと報酬モデルを次式で表す。
【数20】 すると、評価関数の勾配と、環境モデルから得られる入
力ゲインg1(x),g2(x)を用いて、行動生成器の最
適出力uopと、外乱生成器の最適出力wopはそれぞれ次
式で表される。
【数21】 入力ゲインg1(x),g2(x)は必ずしも既知ではなく
ても、状態評価の学習と同時に環境モデルを学習するこ
とによって求めることができる。
【0031】具体例1:単振り子の振り上げ 図4の様な単振り子の制御にロバスト強化学習を適用
し、学習された制御器を用いて単振り子の振り上げを行
った例を示す。単振り子は質量m=1〔kg〕、長さL
〔m〕で、状態変数はx=(θ,dθ/dt)であり、
振り子の角度と角速度で表す。制御指令u=Tは振り子
の回転軸中心での駆動トルクである。したがって、(式
18−1,式18−2,式18−3)との対応を考える
と、振り子の運動方程式を構成するそれぞれの関数は以
下のように与えられる。
【数22】 よって、評価信号は以下の関数で表される。
【0032】 q(t) =cos(θ)−1−0.08u2 +γ2 2 状態変数がx=(θ,dθ/dt)であり、学習時の振
り子の質量がm=1〔kg〕、長さL=1〔m〕である
ことから、(式19−1、式19−2、式19−3)よ
り、行動生成器および外乱生成器は下記のごとくなる。
【数23】 ここで、状態変数は連続であるので、状態評価器の関数
近似手段として多層神経回路網を用いた。
【0033】このようにして、学習した行動生成器を、
非線形ロバスト制御器として採用し、長さL=0.5,1.0,
2.0 〔m〕の3種の異なる長さを持つシステムに適用し
た。また、従来の強化学習を用いて学習した制御器に対
しても同様の実験を行った。その結果を以下に示す。
【0034】図4(b)および図5において、実線で図
示するように、全ての環境において、非線形ロバスト制
御器は単振り子の振り上げに成功している。ただし、グ
ラフの縦軸は振り子の回転角を、横軸は時間を表してい
る。一点鎖線は振り上がった状態を示している。そし
て、実線は、一点鎖線で示す直線に収束しているため、
振り上げに成功していることが分かる。
【0035】一方、破線で示すように、通常の強化学習
で学習した従来の制御器は、学習時に用いた環境と同一
の環境以外では振り子を振り上げることができていな
い。図4(b)に示す様に、学習時の環境(振り子の長
さL=1.0[m])で振り上げを行うと、振り上げ軌道が一
点鎖線に収束していることが分かるが、図5に示したよ
うに、学習時の環境以外(振り子の長さL=0.5[m],2.
0[m])の環境下で振り上げを行うと、振り上げ軌道は一
点鎖線に収束しておらず、振り上げができていないこと
が分かる。
【0036】具体例2:非線形力場における荷物の搬送 ここでは、図6の様な直動アクチュエータ11に搬送物
12を載せて運搬することを考える。ただし、勾配のた
めに制御対象に非線形性があり、また、アクチュエータ
11を小型化するために、大きな出力が出ないような状
況を想定する。制御対象の運動方程式は、勾配をθ、摩
擦係数μ=0.01, 重力加速度g=9.8[m/s2] とすると次
式で表される。
【数24】 ただし、状態変数はx=(a,da/dt)であり、aはアク
チュエータ11の水平方向の位置を、 da/dtは速度を表
す。また、Fはアクチュエータ11が与える力であり、
Mは搬送物12の質量、mはアクチュエータ11の質量
である。そして、勾配θは、水平位置がaの場合には、
θ= arctan(cos(πa))となる。
【0037】したがって、(式18−1、式18−2、
式18−3)との対応を考えると、運搬用アクチュエー
タ11の運動方程式を構成するそれぞれの関数は以下の
ように与えられる。
【数25】 ここで、また、(式6)に対応する報酬は以下の関数を
用いた。 q(t) =1.0 −0.02u2 +γ2 2 (if 0.4≦a≦0.6) =− 0.5−0.02u2 +γ2 2 (otherwise)
【0038】状態変数がx=(a,da/dt)であり、学習
時のアクチュエータ11の質量がm=1〔kg〕、搬送
物12の質量M=1〔kg〕であることから、(式19
−2)(式19−3)より、行動生成器および外乱生成
器は下記のごとくなる。
【数26】 ここで、状態変数は連続であるので、状態評価器の関数
近似手段として多層神経回路網を用いた。
【0039】そして、ある目標地点(図7において一点
鎖線で図示する)に移動させることを学習した。なお、
図7では、縦軸にアクチュエータ11の位置、横軸に時
間を取っている。
【0040】このようにして、学習した行動生成器を、
非線形ロバスト制御器として採用し、学習時と同じ質量
(M=1〔kg〕)の搬送物12を載せた場合と、学習時
よりも重い搬送物12(M=3〔kg〕)を載せた場合と
で、15〔m〕離れた地点から目標地点まで搬送するシ
ミュレーション実験を行った結果を図7(a)および図
7(b)に実線でそれぞれ示した。図7(a)および
(b)の両方の実線は、アクチュエータ11の軌道が目
標地点を示す一点鎖線に収束していることから、搬送物
12の質量が、M=1〔kg〕,M=3〔kg〕の両方の場
合で搬送を行うことができることが分かる。
【0041】一方、通常の強化学習で学習した従来の制
御器に対しても、同様の実験を行い、その結果を図7に
破線で図示した。図7(a)の破線で図示したように、
搬送物12の質量がM=1〔kg〕の場合には、アクチュ
エータ11の軌道が、目標地点をしめす一点鎖線に収束
していることから、目標地点への搬送に成功しているこ
とが分かる。しかし、図7(b)の破線で図示したよう
に、搬送物12の質量がM=3〔kg〕の場合には、アク
チュエータ11の軌道が、目標地点をしめす一点鎖線に
収束していないことから、目標地点への搬送ができてい
ないことが分かる。この様に、本発明のロバスト強化学
習方式を用いて獲得した制御器は、搬送物12の質量に
ばらつきがある場合でも、ある程度の範囲内で対応する
ことができる。
【0042】以上、本発明の実施の形態について説明し
たが、本発明の趣旨の範囲内で種々の形態を実施するこ
とが可能である。
【0043】
【発明の効果】以上述べた如く、本発明によれば、目標
の達成度に応じた報酬に、外乱に耐えうることに応じた
報酬を加味した報酬信号である評価信号を生成し、現在
の状態から将来に向けて得られる評価信号の和の期待値
を最大化するべく行動生成器は学習し、一方、外乱生成
器は前記評価信号の和の期待値を最小化すべく学習する
ので、環境モデルが未知の場合にも対応することができ
るとともに、環境の変動に強くなることができる。さら
に、非線形の制御対象あるいは環境にも適用可能であ
る。
【図面の簡単な説明】
【図1】本発明の実施の形態のロバスト強化学習方式に
用いる回路のブロック図である。
【図2】従来の強化学習方式に用いる回路のブロック図
である。
【図3】H∞制御理論を説明するための制御対象と制御
器との制御系のブロック図である。
【図4】第1具体例の説明図で、(a)が概略図、
(b)が1mの長さの振り子の角度変化のグラフであ
る。
【図5】第1具体例の角度変化のグラフで、(a)が
0.5mの長さの振り子を制御対象として用いた場合の
グラフ、(b)が2mの長さの振り子を制御対象として
用いた場合のグラフである。
【図6】第2具体例の概略図である。
【図7】第2具体例の直動アクチュエータの位置変化の
グラフで、(a)が1kgの質量の搬送物を用いた場合
のグラフ、(b)が3kgの質量の搬送物を用いた場合
のグラフである。
【符号の説明】
q(t) 評価信号 r(t) 目標報酬信号 s(t) 外乱報酬信号 u(t) 行動信号 w(t) 外乱信号 1 環境 2 行動生成器 3 状態評価器 4 外乱生成器
───────────────────────────────────────────────────── フロントページの続き (72)発明者 銅谷 賢治 京都府相楽郡精華町光台 7−2−1−5 −201 Fターム(参考) 5H004 GA07 GA15 GA17 JA13 JB22 KC09 KC18 KC28 KD42 KD62

Claims (9)

    【特許請求の範囲】
  1. 【請求項1】制御対象あるいは環境に行動信号を出力す
    るとともに学習機能を具備する行動生成器、および制御
    対象あるいは環境に外乱信号を出力するとともに学習機
    能を具備する外乱生成器を備え、 目標の達成度に応じた報酬に、前記外乱生成器からの外
    乱に耐えうることに応じた報酬を加味した報酬信号であ
    る評価信号を生成し、現在の状態から将来に向けて得ら
    れる評価信号の荷重和の期待値を最大化(または最小
    化)するべく行動生成器は学習し、一方、外乱生成器は
    前記評価信号の和の期待値を最小化(または最大化)す
    べく学習することを特徴とするロバスト強化学習方式。
  2. 【請求項2】前記学習方式において、現在の状態から将
    来に向けて得られる評価信号の和の期待値を予測する状
    態評価器を備え、その予測誤差信号を、状態評価器、行
    動生成器、および外乱生成器の少なくとも1個の学習に
    用いることを特徴とするロバスト強化学習方式。
  3. 【請求項3】前記状態評価器、行動生成器および外乱生
    成器の少なくとも一個は、関数近似手段として、入出力
    関係を示す参照テーブルを具備していることを特徴とす
    る請求項1または2に記載のロバスト強化学習方式。
  4. 【請求項4】前記状態評価器、行動生成器および外乱生
    成器の少なくとも一個は、関数近似手段として、線形モ
    デルまたは多項式モデルを具備していることを特徴とす
    る請求項1または2に記載のロバスト強化学習方式。
  5. 【請求項5】前記状態評価器、行動生成器および外乱生
    成器の少なくとも一個は、関数近似手段として、多層神
    経回路網を具備していることを特徴とする請求項1また
    は2に記載のロバスト強化学習方式。
  6. 【請求項6】請求項1または請求項2の方式により、予
    め学習された前記状態評価器と行動生成器または行動生
    成器のみを用いた制御方式。
  7. 【請求項7】請求項1または請求項2の方式を計算機シ
    ミュレーションによって実現される環境モデルに適用
    し、それによって学習された前記状態評価器と行動生成
    器または行動生成器のみを実環境に適用することを特徴
    とする請求項6に記載の制御方式。
  8. 【請求項8】前記状態評価器または行動生成器の少なく
    とも一方は、関数近似手段として、入出力関係を示す参
    照テーブルを具備していることを特徴とする請求項6ま
    たは7に記載のロバスト制御方式を用いたロバスト制御
    器。
  9. 【請求項9】前記状態評価器または行動生成器の少なく
    とも一方は、関数近似手段として、線形モデル、多項式
    モデルまたは多層神経回路網を具備していることを特徴
    とする請求項6または7に記載のロバスト制御方式を用
    いたロバスト制御器。
JP2000386265A 2000-12-20 2000-12-20 ロバスト強化学習方式 Expired - Fee Related JP3465236B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000386265A JP3465236B2 (ja) 2000-12-20 2000-12-20 ロバスト強化学習方式

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000386265A JP3465236B2 (ja) 2000-12-20 2000-12-20 ロバスト強化学習方式

Publications (2)

Publication Number Publication Date
JP2002189502A true JP2002189502A (ja) 2002-07-05
JP3465236B2 JP3465236B2 (ja) 2003-11-10

Family

ID=18853386

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000386265A Expired - Fee Related JP3465236B2 (ja) 2000-12-20 2000-12-20 ロバスト強化学習方式

Country Status (1)

Country Link
JP (1) JP3465236B2 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7107107B2 (en) 2003-01-31 2006-09-12 Matsushita Electric Industrial Co., Ltd. Predictive action decision device and action decision method
JP2006320997A (ja) * 2005-05-18 2006-11-30 Nippon Telegr & Teleph Corp <Ntt> ロボット行動選択装置及びロボット行動選択方法
JP2010134907A (ja) * 2008-11-04 2010-06-17 Honda Motor Co Ltd 強化学習システム
US8214062B2 (en) 2008-03-28 2012-07-03 Hitachi, Ltd. Plant control system and thermal power generation plant control system
JP2012203867A (ja) * 2011-03-28 2012-10-22 Denso It Laboratory Inc 情報提供システム
CN102929137A (zh) * 2012-10-10 2013-02-13 西北工业大学 含有分布参数项的飞行器控制器设计方法
US8521678B2 (en) 2009-06-12 2013-08-27 Honda Motor Co., Ltd. Learning control system and learning control method
CN108427289A (zh) * 2018-04-27 2018-08-21 哈尔滨工业大学 一种基于非线性函数的高超声速飞行器跟踪控制方法
CN109274314A (zh) * 2017-07-18 2019-01-25 发那科株式会社 机器学习装置、伺服电动机控制装置、伺服电动机控制系统以及机器学习方法
KR20190117610A (ko) * 2017-02-10 2019-10-16 미츠비시 히타치 파워 시스템즈 가부시키가이샤 시뮬레이션 결과의 평가 장치 및 방법
WO2022054175A1 (ja) * 2020-09-09 2022-03-17 日本電信電話株式会社 デバイス制御値生成装置、デバイス制御値生成方法、プログラム、および、学習モデル生成装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114270375A (zh) 2019-07-16 2022-04-01 华为技术有限公司 进行学习以鲁棒地控制系统

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7107107B2 (en) 2003-01-31 2006-09-12 Matsushita Electric Industrial Co., Ltd. Predictive action decision device and action decision method
JP2006320997A (ja) * 2005-05-18 2006-11-30 Nippon Telegr & Teleph Corp <Ntt> ロボット行動選択装置及びロボット行動選択方法
US8214062B2 (en) 2008-03-28 2012-07-03 Hitachi, Ltd. Plant control system and thermal power generation plant control system
JP2010134907A (ja) * 2008-11-04 2010-06-17 Honda Motor Co Ltd 強化学習システム
US8521678B2 (en) 2009-06-12 2013-08-27 Honda Motor Co., Ltd. Learning control system and learning control method
JP2012203867A (ja) * 2011-03-28 2012-10-22 Denso It Laboratory Inc 情報提供システム
CN102929137A (zh) * 2012-10-10 2013-02-13 西北工业大学 含有分布参数项的飞行器控制器设计方法
KR20190117610A (ko) * 2017-02-10 2019-10-16 미츠비시 히타치 파워 시스템즈 가부시키가이샤 시뮬레이션 결과의 평가 장치 및 방법
KR102209176B1 (ko) 2017-02-10 2021-01-28 미츠비시 파워 가부시키가이샤 시뮬레이션 결과의 평가 장치 및 방법
CN109274314A (zh) * 2017-07-18 2019-01-25 发那科株式会社 机器学习装置、伺服电动机控制装置、伺服电动机控制系统以及机器学习方法
CN108427289A (zh) * 2018-04-27 2018-08-21 哈尔滨工业大学 一种基于非线性函数的高超声速飞行器跟踪控制方法
CN108427289B (zh) * 2018-04-27 2021-06-29 哈尔滨工业大学 一种基于非线性函数的高超声速飞行器跟踪控制方法
WO2022054175A1 (ja) * 2020-09-09 2022-03-17 日本電信電話株式会社 デバイス制御値生成装置、デバイス制御値生成方法、プログラム、および、学習モデル生成装置
JP7405271B2 (ja) 2020-09-09 2023-12-26 日本電信電話株式会社 デバイス制御値生成装置、デバイス制御値生成方法、プログラム、および、学習モデル生成装置

Also Published As

Publication number Publication date
JP3465236B2 (ja) 2003-11-10

Similar Documents

Publication Publication Date Title
Choi et al. Reinforcement learning for safety-critical control under model uncertainty, using control lyapunov functions and control barrier functions
JP3086206B2 (ja) エージェント学習装置
Yang et al. A combined backstepping and small-gain approach to robust adaptive fuzzy control for strict-feedback nonlinear systems
Yang et al. Reinforcement learning controller design for affine nonlinear discrete-time systems using online approximators
CN112698572B (zh) 一种基于强化学习的结构振动控制方法、介质及设备
Qi et al. Stable indirect adaptive control based on discrete-time T–S fuzzy model
CN112119404A (zh) 样本高效的强化学习
Xie et al. Adaptive asymptotic neural network control of nonlinear systems with unknown actuator quantization
Nguyen et al. Adaptive chattering free neural network based sliding mode control for trajectory tracking of redundant parallel manipulators
JP2002189502A (ja) ロバスト強化学習方式
Khater et al. Online learning based on adaptive learning rate for a class of recurrent fuzzy neural network
Grande et al. Experimental validation of Bayesian nonparametric adaptive control using Gaussian processes
Dutta et al. A new adaptive explicit nonlinear model predictive control design for a nonlinear mimo system: An application to twin rotor mimo system
Qiu et al. Model predictive control for uncalibrated and constrained image-based visual servoing without joint velocity measurements
Tsai et al. Robust fuzzy model-following control of robot manipulators
CN113614743A (zh) 用于操控机器人的方法和设备
Khalate et al. An adaptive fuzzy controller for trajectory tracking of robot manipulator
Ribeiro A tutorial on reinforcement learning techniques
Liu et al. Probabilistic ensemble neural network model for long-term dynamic behavior prediction of free-floating space manipulators
Ngo et al. A novel self-organizing fuzzy cerebellar model articulation controller based overlapping Gaussian membership function for controlling robotic system
Wu et al. Event‐driven adaptive near‐optimal tracking control of the robot in aircraft skin inspection
Jiang et al. Fast and smooth composite local learning-based adaptive control
Toxqui et al. PD control of overhead crane systems with neural compensation
Sousa et al. Convergence and numerical stability of action-dependent heuristic dynamic programming algorithms based on RLS learning for online DLQR optimal control
Främling Guiding exploration by pre-existing knowledge without modifying reward

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030805

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090829

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100829

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100829

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110829

Year of fee payment: 8

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110829

Year of fee payment: 8

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120829

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120829

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130829

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees