JP4630553B2 - 動的制御装置および動的制御装置を用いた2足歩行移動体 - Google Patents
動的制御装置および動的制御装置を用いた2足歩行移動体 Download PDFInfo
- Publication number
- JP4630553B2 JP4630553B2 JP2004008130A JP2004008130A JP4630553B2 JP 4630553 B2 JP4630553 B2 JP 4630553B2 JP 2004008130 A JP2004008130 A JP 2004008130A JP 2004008130 A JP2004008130 A JP 2004008130A JP 4630553 B2 JP4630553 B2 JP 4630553B2
- Authority
- JP
- Japan
- Prior art keywords
- state
- control
- control device
- feedback
- dynamic control
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Manipulator (AREA)
Description
D.G. Luenberger著、"An introduction to observers"、IEEE Trans., AC, Vol.16, pp. 596--602, 1971. R.E. Kalman and R.S. Bucy著、"New results in linear filtering and prediction theory"、Trans., ASME, Series D, J. of Basic Engineering, Vol.83, No.1, pp. 95--108, 1961. F.L. Lewis著、"Optimal Estimation: with an Introduction to Stochastic Control Theory"、John Wiley \& Sons, 1977. 志水清孝, 鈴木俊輔, 田中哲史著、"こう配降下法による非線形オブザーバ(非線形システムの状態観測器)"、電子情報通信学会論文誌 A, Vol. J83-A, No.8, pp. 956--964, 2000. H.Nijimeijer and T.L. Fossen著、"Directions in Nonlinear Observer Design"、Springer-Verlag, London, 1999. G.Kitagawa著、"Monte Carlo Filter and Smoother for Non-Gaussian Nonlinear State Models"、Journal of Computational and Graphical Statistics, Vol.5, pp. 1--25, 1996.
(本発明のシステム構成)
図1は、本発明の動的制御装置を用いた2足歩行移動システム1000の一例を示す概念図である。
まず、本発明の制御動作を説明する前提として、「動的行動則」について説明する。
以下の説明では、周期運動の例として、3リンク2足歩行ロボットモデルを用いた2足歩行運動に対して動的行動則を適用する。
演算処理部102により実現される学習システムで、動的行動則を構成するCPG処理部1022の構成として、以下の式で表わされる神経振動子モデルを用いる。なお、このような神経振動子モデルについては、たとえば、文献:Kiyoshi Matsuoka著、“Sustained oscillations generated by mutually inhibiting neurons with adaptation.”、Biologial Cybernetics, Vol.52, pp. 367-376, 1985に開示がある。
上述のCPGへのフィードバック制御器1022は、次の確率分布(17)によって表わされる。
従ってj番目の出力の実現値vjは、以下の式(18)によって与えられる。
「方策勾配法」とは、パラメータ化された確率的方策に従って行動選択を行ない、方策を改善する方向に方策のパラメータを少しずつ更新する強化学習手法の1種である。以下に方策勾配法を用いた行動則の学習方法について述べる。
連続時間・状態系のダイナミクスを以下の式(20)で表わす。
動的計画法やグリーディ方策(greedy policy)などの価値関数の評価を基に学習を行なう場合では、環境がマルコフ決定過程である必要があるが、実問題に適用する場合には、ノイズやセンサの能力によってマルコフ決定過程を保証することは困難である。しかし、方策勾配法は、価値関数と共に、試行中に得られた累積報酬系列を考慮することで、環境が非マルコフ決定過程(POMDP)でも適用することが出来る。
以下では、上述の方策勾配法を用いて、動的行動則の獲得を行なう。
まず、価値関数処理部1032において演算される、連続状態における価値関数の表現方法として、以下の式(28)による正規化ガウス関数ネットワーク(normalized Gaussian network: NGnet)を用いる。なお、正規化ガウス関数ネットワークについては、後に説明する。
式(17)に示した確率的なフィードバック制御器1022を用いる場合、そのj番目の出力の平均μjと標準偏差σjに関するエリジビリティは式(26)右辺第2項と同様、それぞれ以下のように与えられる。
図4に示した学習システムにおいて、数値シミュレーションを行なった結果について以下説明する。
ii)転倒時(ただし、同時にr=−1の報酬を与える)
(2−5.平地歩行の獲得及び、環境変化に対するロバスト性)
図7は、1試行で獲得した報酬の総和を、試行回数ごとに取った学習曲線を示す図である。図7においては、地面の傾斜0°のときの学習曲線を示している。
傾斜を付けることによって環境を変化させた場合でも、ある程度歩行動作を維持することが可能である。さらに、数回の学習試行を行なうことによって、新しい環境に適応することが出来る。これは、行動則の内部状態(ここではCPGの内部状態)と、ロボットの状態が引き込みを行なうことのよって、ロバストなリミットサイクルを構成しているからであると考えられる。
式(41)の報酬関数中の、速度項係数ksを変化させた場合の、ロボットの歩行速度の関係を表1に示す。
図7で獲得された歩行を教師信号として学習した各パラメータを初期値として用い、さらに図4の学習システムからCPGを取り除いたものを用いて、150回学習試行を行なうことによって、内部状態を持たない行動則によって2足歩行運動を獲得した。これと、図7の学習によって獲得した歩行運動を用いて、コントローラのセンサノイズ及び時間遅れに対するロバスト性について比較を行なった。
図11において、(1)はCPG有り、(2)はCPG無しのコントローラで構成された歩行を示す。また、図11において、(a)は通常の条件での歩行、(b)はセンサノイズのある状態での歩行、(c)は時間遅れがある場合の歩行であり,また、図11中で、“→”はロボットの進行方向を表わしている。
2−3−1で述べた価値関数、フィードバック制御器を表現するために用いた、正規化ガウス関数ネットワークについて、以下説明する。
入力ベクトルx=(x1,…,xn)Tに対して、k番目のユニットの活性化関数は、以下の式のようになる。
以上の説明では、図3(3)の構成による制御について説明した。以下では、実施の形態1の変形例として、図3(2)の構成による制御について説明する。
以下では、実施の形態1の変形例の状態観測器2002の構造について説明する。
Claims (5)
- 制御対象に対する制御信号を生成するための動的制御装置であって、
前記制御対象の状態情報を検知するためのセンサ群と、
周期的な時間発展を行なう内部状態を有し、前記制御対象の状態推定を行なって、前記制御対象に対する前記制御信号を生成する制御手段を備え、
前記制御手段は、
前記センサ群から得られる前記状態情報のみで構成される状態空間を用いた方策勾配法による強化学習を行い、前記制御対象から得られる前記状態情報と前記制御信号により規定される報酬に基づく価値関数と前記強化学習中に得られる報酬系列とに基づいて、フィードバックパラメータを更新し、更新された前記フィードバックパラメータにより規定される確率分布により出力値を決定するフィードバック制御器と、
前記周期的な時間発展を行なう前記内部状態を有し、前記フィードバック制御器からの前記出力値に応じて変化する前記内部状態に基づき、前記内部状態に対応する目標値に対するPDサーボ系の出力として、前記制御信号を生成するためのセントラルパターンジェネレータとを含み、
前記制御信号に基づいて、前記制御対象を駆動するための駆動手段とを備える、動的制御装置。 - 前記確率分布は、前記フィードバックパラメータにより決定される平均値と分散とを有する正規分布により表され、
前記価値関数は、正規化ガウスネットワークで表現される、請求項1記載の動的制御装置。 - 前記平均値は、前記フィードバックパラメータを重みとする正規化ガウス関数ネットワークで表現され、
前記分散は、前記フィードバックパラメータによるシグモイド関数として表現され、
前記フィードバックパラメータは、各前記フィードバックパラメータに対応する学習率とテンポラル・ディファレンス誤差とエリジビリティ・トレースとに応じて更新される、請求項2記載の動的制御装置。 - 前記フィードバック制御器は、前記出力値を所定のレベル以下に制限するための出力飽和手段を含む、請求項2記載の動的制御装置。
- 請求項1〜4のいずれか1項に記載される動的制御装置により、2足歩行制御が行なわれる、2足歩行移動体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004008130A JP4630553B2 (ja) | 2004-01-15 | 2004-01-15 | 動的制御装置および動的制御装置を用いた2足歩行移動体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004008130A JP4630553B2 (ja) | 2004-01-15 | 2004-01-15 | 動的制御装置および動的制御装置を用いた2足歩行移動体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005199383A JP2005199383A (ja) | 2005-07-28 |
JP4630553B2 true JP4630553B2 (ja) | 2011-02-09 |
Family
ID=34821588
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004008130A Expired - Fee Related JP4630553B2 (ja) | 2004-01-15 | 2004-01-15 | 動的制御装置および動的制御装置を用いた2足歩行移動体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4630553B2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101916071B (zh) * | 2010-08-04 | 2012-05-02 | 中国科学院自动化研究所 | 仿生机器鱼运动的cpg反馈控制方法 |
CN102375412B (zh) * | 2010-08-13 | 2013-05-01 | 同济大学 | 基于韵律模式的机器人未知环境下行走学习信息处理方法 |
JP6522488B2 (ja) * | 2015-07-31 | 2019-05-29 | ファナック株式会社 | ワークの取り出し動作を学習する機械学習装置、ロボットシステムおよび機械学習方法 |
DE102016015936B4 (de) | 2015-07-31 | 2024-08-29 | Fanuc Corporation | Vorrichtung für maschinelles Lernen, Robotersystem und maschinelles Lernsysem zum Lernen eines Werkstückaufnahmevorgangs |
JP6240689B2 (ja) | 2015-07-31 | 2017-11-29 | ファナック株式会社 | 人の行動パターンを学習する機械学習装置、ロボット制御装置、ロボットシステム、および機械学習方法 |
JP6662746B2 (ja) * | 2016-10-07 | 2020-03-11 | ファナック株式会社 | 機械学習部を備えた作業補助システム |
JP7133533B2 (ja) * | 2019-11-11 | 2022-09-08 | 本田技研工業株式会社 | 二足歩行ロボット、および二足歩行ロボットの制御方法 |
WO2023044878A1 (zh) * | 2021-09-26 | 2023-03-30 | 西门子股份公司 | 运动控制方法及装置 |
-
2004
- 2004-01-15 JP JP2004008130A patent/JP4630553B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2005199383A (ja) | 2005-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4644833B2 (ja) | 2足歩行移動装置 | |
Nakamura et al. | Reinforcement learning for a biped robot based on a CPG-actor-critic method | |
Sartoretti et al. | Distributed learning of decentralized control policies for articulated mobile robots | |
Van de Panne et al. | Sensor-actuator networks | |
Wang et al. | Machine learning algorithms in bipedal robot control | |
Semwal et al. | Less computationally intensive fuzzy logic (type-1)-based controller for humanoid push recovery | |
Chew et al. | Dynamic bipedal walking assisted by learning | |
Baydin | Evolution of central pattern generators for the control of a five-link bipedal walking mechanism | |
JP4630553B2 (ja) | 動的制御装置および動的制御装置を用いた2足歩行移動体 | |
Sartoretti et al. | Distributed learning for the decentralized control of articulated mobile robots | |
Solomon et al. | Fully interconnected, linear control for limit cycle walking | |
Kim et al. | Learning and generalization of dynamic movement primitives by hierarchical deep reinforcement learning from demonstration | |
Brakel et al. | Learning coordinated terrain-adaptive locomotion by imitating a centroidal dynamics planner | |
Rose et al. | End-to-end deep reinforcement learning for exoskeleton control | |
CN114740875B (zh) | 基于神经振荡器的机器人节律运动控制方法及系统 | |
Laud et al. | Reinforcement learning and shaping: Encouraging intended behaviors | |
Schumacher et al. | Natural and robust walking using reinforcement learning without demonstrations in high-dimensional musculoskeletal models | |
Shirwatkar et al. | Force control for robust quadruped locomotion: A linear policy approach | |
Zhang et al. | Teach biped robots to walk via gait principles and reinforcement learning with adversarial critics | |
Lee et al. | Combining GRN modeling and demonstration-based programming for robot control | |
Jiang et al. | Motion sequence learning for robot walking based on pose optimization | |
Wawrzyński | Autonomous reinforcement learning with experience replay for humanoid gait optimization | |
Takase et al. | Evolving spiking neural network for robot locomotion generation | |
Sharma et al. | Incorporating forgetting mechanism in Q, learning algorithm for locomotion of bipedal walking robot | |
Yang et al. | Truncated Fourier series formulation for bipedal walking balance control |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100330 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100528 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101102 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101115 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131119 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4630553 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |