JP2003303329A - 行動制御装置及び方法 - Google Patents

行動制御装置及び方法

Info

Publication number
JP2003303329A
JP2003303329A JP2002105773A JP2002105773A JP2003303329A JP 2003303329 A JP2003303329 A JP 2003303329A JP 2002105773 A JP2002105773 A JP 2002105773A JP 2002105773 A JP2002105773 A JP 2002105773A JP 2003303329 A JP2003303329 A JP 2003303329A
Authority
JP
Japan
Prior art keywords
output
learning
pattern vector
class
input pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002105773A
Other languages
English (en)
Other versions
JP3946562B2 (ja
Inventor
Yugo Ueda
雄悟 上田
Koji Tsujino
広司 辻野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2002105773A priority Critical patent/JP3946562B2/ja
Priority to US10/411,485 priority patent/US7133855B2/en
Priority to EP03008183A priority patent/EP1353293A3/en
Publication of JP2003303329A publication Critical patent/JP2003303329A/ja
Application granted granted Critical
Publication of JP3946562B2 publication Critical patent/JP3946562B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Neurology (AREA)
  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【課題】学習時および実際の制御時に要する計算量が少
なく、かつ学習をしていない入力に対しても不適切な出
力を与えることがない信頼性の高い制御装置を提供す
る。 【解決手段】入力部120から供給される学習用の入力
パターンベクトルと目標出力の組は、分配部122によ
り目標出力に基づいて複数のクラスの何れかに分配さ
れ、分配されたクラス内でのみ学習部124において学
習用入力パターンベクトルと目標出力との対応関係の学
習が行われる。学習終了後、新たに作成された入力パタ
ーンベクトルは、第2の分配部126によって前記クラ
スの何れかに分配され、そのクラス内での前記学習結果
に従って、出力処理部128において出力値が計算され
る。従って、分配されたクラスに対応する出力以外は出
力されることが無いので、未学習の入力値に対しても不
適当な出力がされることが無く、制御システムの信頼性
が向上する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、ニューラルネット
ワークを使用した行動制御装置及び方法に関し、より具
体的には、制御対象において取得される入力から制御出
力を計算する行動制御装置及び方法に関する。
【0002】
【従来の技術】制御対象を安定制御するために、入力と
出力の関係を学習により獲得し、この学習結果に基づい
て制御対象に出力を与える方法が広く行われている。こ
のために、入出力関係を適切に表現する関数を作成し、
制御に利用することが一般的であり、この関数の作成に
は、例えば、パーセプトロン等の階層型ニューラルネッ
トワークやRBFネットワーク、及びCMAC(小脳モ
デルアルゴリズム)などが用いられる。
【0003】パーセプトロンでは、一般に入力層、中間
層、出力層の3層を設け、入力をパーセプトロンに入れ
て得られた出力を、教師信号である実際の出力と比較し
て、この誤差を結合荷重としきい値に反映させることに
よって学習を行う。ニューラルネットワークを用いた制
御装置としては、例えば特開平9-245012号公報等があ
る。
【0004】一方、RBFネットワークは、中間層の基
底関数の出力を線形結合することによって、入力と出力
の関係である非線形関数をネットワークの出力として計
算する。中間層の基底関数としては、普通、ガウス関数
が用いられる。
【0005】
【発明が解決しようとする課題】しかし、パーセプトロ
ンでは、入力と出力の関係をそのまま学習するだけであ
るので、信頼性ある制御を獲得するためには、大量のデ
ータセットを準備する必要がある。また、多層パーセプ
トロンでは中間層の入出力関数がシグモイド関数である
ので、中間層の出力は入力空間の無限に大きな領域で大
きな値を持つ。従って、学習を行っていない領域の入力
が与えられると、望ましい出力から大きく外れた出力を
与えてしまうことがある。これは、ヘリコプターのよう
に不適切な制御出力が横転や墜落のように重大な結果に
結び付いてしまうような制御対象では、大きな問題とな
る。
【0006】これに対し、RBFネットワークでは中間
層がガウス関数であるので、入力空間の局所的な領域で
のみ大きな値を持ち、上記のような突飛な出力を与える
ことはない。しかし、RBFネットワークでは複数のガ
ウス関数の線形結合で入出力関係を表現するので、すべ
てのガウス関数(クラス)の割合を学習し、ある入力に
対して全クラスの計算結果を出力しなければならず、計
算の負荷が大きい。
【0007】従って、本発明は、入出力関係の学習時及
び実際の制御時に要する計算量が少なく、かつ学習をし
ていない入力に対しても不適切な出力を与えることがな
く信頼性の高い制御装置及び方法を提供することを目的
とする。
【0008】
【課題を解決するための手段】本発明は、学習用入力パ
ターンベクトルと目標出力の組を、目標出力に基づいて
2つ以上のクラスの何れかに分配し、分配したクラス内
でのみ入出力関係の学習を行い、得られた学習結果に基
づいて、新たに取得した入力パターンベクトルを前記何
れかのクラスに分配し、分配したクラス内での学習結果
に従って出力を計算する点に特徴がある。
【0009】本発明は、学習用入力パターンベクトルと
目標出力の組を作成する入力部と、目標出力に基づい
て、学習用入力パターンベクトルと目標出力の組を2以
上のクラスの何れかに分配する第1の分配部と、第1の
分配部により分配されたクラス内において、学習用入力
パターンベクトルの各要素と目標出力との対応関係を学
習する学習部と、学習部における学習結果に従って、前
記新たな入力パターンベクトルを前記クラスの何れかに
分配する第2の分配部と、第2の分配部により分配され
たクラス内において、学習結果に従って、前記新たな入
力パターンベクトルに対応する出力を計算する出力処理
部と、を備える。
【0010】上記構成によると、学習用入力パターンベ
クトルと目標出力の組は、目標出力に基づいてクラスが
分配され、そのクラス内でのみ、学習用入力パターンベ
クトルの各要素と目標出力の対応関係の学習が行われる
とともに、学習用入力パターンベクトルを当該クラスに
分配するための分配関数も計算される。この学習の終了
後、センサ等により新たに取得されたパターンベクトル
は、最初に何れのクラスに属するのかが分配関数を用い
て判定され、そのクラス内の学習結果に従って出力が計
算されるので、入力に対する出力の範囲が限定され、制
御の信頼性が向上する。なお、新たなパターンベクトル
は、発明の実施の形態においてはテストパターンベクト
ルとも呼ばれる。また、分配関数とは、具体的には、実
施例で説明する式(2)を指す。
【0011】クラスは予め設定されていても良いが、目
標出力の分布の度合いに基づいて決められるのが好まし
い。こうすると、出力の分布の密な領域でクラスを増や
す等、柔軟な対応が取れるため、学習や制御の効率が向
上する。この場合、クラスの設定は手動でも自動でも行
うことができる。自動で行う場合は、コホーネンの自己
組織化マップのような自己組織化手法を用いるのが好ま
しい。
【0012】学習用入力パターンベクトルには、現時点
でセンサが取得する入力と制御対象への出力だけでな
く、現時点より前の時点における同様の入力と出力を要
素として含ませることができる。また、教師信号として
の目標出力は現時点より後の時点の出力を使用できる。
これは、制御対象の持つ慣性や操縦者の応答時間等によ
って、入力と出力とは同時に対応しているわけではな
く、ある程度の遅れ時間を考慮した方が適切な制御を行
えるからである。
【0013】学習部は、各クラスに分配された学習用入
力パターンベクトルの各要素及び目標出力をそれぞれ格
納し、各データの集合の正規分布の平均値と分散を計算
しておき、第2の分配部は、新たな入力パターンベクト
ルの各要素について、各正規分布の平均値からの距離を
計算し、該距離の平均が最小であるクラスに新たな入力
パターンベクトルを分配する。この距離の計算は、具体
的には後述するステップS704における式(1)による
計算を指す。
【0014】距離の平均は単純な相加平均でも良いが、
好適には前記学習用入力パターンベクトルの各要素の目
標出力に対する重みによる加重平均である。重みは、目
標出力を教師信号とした、パーセプトロン等のニューラ
ルネットワークによる学習で計算される。この加重平均
の計算は、具体的には後述するステップS704におけ
る式(2)による計算を指す。
【0015】出力処理部は、新たな入力テストパターン
ベクトルが分配されたクラス内の各正規分布の平均値と
前記新たなテストパターンベクトルの各要素の間の距離
の加重平均を求め、前記目標出力の正規分布の平均値か
ら該加重平均に相当する距離にある値を出力する。具体
的には、後述するステップS708における式(3)によ
る計算を指す。
【0016】
【発明の実施の形態】初めに、図1を参照して本発明の
原理を説明する。本発明は、人間の脳における情報処理
を工学的に解釈したものである。まず図1(a)を参照す
る。システム10は、前処理において、複数の入力(x
Inp[t-1]、xInp[t]、xOut[t-1]、xOut[t])と、シス
テム10の出力のターゲットである出力xOut[t+1]を取
得する。そして、ターゲットであるxOut[t+1]に対して
一意に応答する細胞12を自己組織的に作成する。この
細胞12を「引金細胞」と呼ぶ。
【0017】次に図1(b)を参照すると、引金細胞12
は、自分と同じクラスに属する細胞14を活性化し、そ
れぞれにシステムに対する入力(xInp[t-1]、xInp
[t]、xOut[t-1]、xOut[t])を収集させる。これらの
細胞14を「入力処理細胞」と呼ぶ。入力処理細胞14
の役割は、それぞれが収集する入力の分布を表現するこ
とである。引金細胞12と、引金細胞が活性化する複数
の入力処理細胞14の組合わせをクラスと呼ぶ。
【0018】以上の処理が完了すると、システム10は
システムに対する入力から出力を計算できるようにな
る。このとき、引金細胞12は使用されない。図1(c)
を参照して、システムに対する入力が入ってくると、こ
の入力は全てのクラスの入力処理細胞14により収集さ
れる。各クラスの入力処理細胞14は、それぞれの持つ
分布と入力の距離を計算する。そして、この距離の最も
近い入力処理細胞14を持つクラスが出力を担当するこ
とになり、担当するクラスの引金細胞12は自己の持つ
出力の分布に基づいてシステムからの出力16を計算す
る。
【0019】続いて、上記の原理を具体化した本発明の
好ましい実施形態を説明する。
【0020】図2は、本発明の一実施形態による行動制
御装置が適用される制御システムの構成例を示す図であ
る。制御対象であるラジオコントロールヘリコプター
(以下「ヘリコプター」という)100は、機体10
2、メインロータ104、及びテールロータ106から
構成されている。ヘリコプター100は、メインロータ
104及びテールロータ106の回転により空中に浮揚
する。
【0021】機体102には、行動制御装置108、サ
ーボモータ等の出力部110が搭載される。メインロー
タ104及びテールロータ106の基部にはそれぞれ伸
縮機構111及びリンク機構112があり、ロッド11
4等により出力部110と連結されている。
【0022】機体にはさらにセンサ116が搭載され、
機体102のピッチ角を検出する。センサ116は、ジ
ャイロスコープ等のピッチ角を直接感知するものの他、
取得した画像から角度を計算する機能を持つ視覚センサ
等でも良い。
【0023】行動制御装置108及び出力部110は、
図示しない受信器を介して、送信器118からの無線信
号を受けられるように構成されている。行動制御装置1
08、出力部110、センサ116は相互に有線で接続
されていても、一体化した装置でも良く、あるいは、そ
れぞれ別個の装置であってその一部がヘリコプター10
0の外部にあり相互に無線で接続される構成であっても
良い。
【0024】操縦者がヘリコプター100の挙動を観察
し、ヘリコプターが安定するように送信器118を操作
すると、出力信号が出力部110に供給される。ここ
で、安定とは、ヘリコプターがピッチ方向に振れないよ
うにすることを指し、他の方向、例えばヨー方向の振れ
は、本実施例では考慮しないこととする。出力部110
は、送信器118からの出力信号に応じて伸縮機構11
1にメインロータ104の傾きを変えさせることで、ヘ
リコプター100のピッチ方向の傾きを変化させる。な
お、制御するのはピッチ方向のみに限られず、他の方向
でも良い。
【0025】センサ116の取得したピッチ角の入力
と、送信器118により操縦者が与えた出力は、行動制
御装置108にも供給される。行動制御装置108は、
まず、これらの入力と出力からなる学習用の入力パター
ン(以下「学習パターン」という)とこれに対応する目
標出力の組を、目標出力の値を基準に2つ以上のクラス
の何れかに分配する。そして、分配したクラス内での
み、学習パターンと目標出力の対応関係の学習を行う。
以上の一連の過程を本明細書において「準備段階」とい
う。
【0026】準備段階が完了すると、操縦者が送信器1
18を操作しなくても、センサ116からの入力に応じ
て、行動制御装置108が適切な出力を出力部110に
供給することができるようになり、ヘリコプター100
は安定に制御される。より詳細には、行動制御装置10
8は、新たに与えられるテスト用の入力パターン(以下
「テストパターン」という)に対して、そのテストパタ
ーンを上述の何れかのクラスに分配し、分配したクラス
内での学習結果に従って、制御対象を安定させる適切な
出力を計算して出力部110に供給する。このときの過
程を本明細書において「制御段階」という。
【0027】本発明の行動制御装置108は、駆動機構
を有し単体で運動可能な任意の制御対象について使用す
ることができる。制御対象は、ヘリコプター100のよ
うな飛行物に限定されず、地上を移動する車両やロボッ
トのアームの制御なども含む。しかし、後述するよう
に、ヘリコプター100のように安定性の高い制御が要
求される制御対象に対して用いるとき、本発明はより有
用である。
【0028】また本発明はその用途が安定制御に限定さ
れるものではない。
【0029】図3は行動制御装置108の機能ブロック
図である。準備段階において、入力部120は、センサ
116の取得する複数時点の入力と操縦者が出力部11
0に与えた複数時点の模範的な出力を組み合わせて、学
習パターンと対応する目標出力との組を作成し、この組
を分配部122に供給する。分配部122は、学習パタ
ーンと対応する目標出力の組を2つ以上のクラスの何れ
かに分配する。学習部124は、分配したクラス内で学
習パターンと対応する目標出力の対応関係の学習を行
う。この学習の結果は、制御時分配部126と出力処理
部128に供給される。
【0030】準備段階終了後の制御段階では、行動制御
装置108に学習パターンと同様のテストパターンを与
えて、操縦者による送信機118を介した操作なしに行
動制御装置108がヘリコプター100を安定に制御で
きるか否かが確認される。入力部120は、センサ11
6の取得する複数時点の入力と行動制御装置108の生
成する出力を組み合わせてテストパターンを作成し、こ
のテストパターンを制御時分配部126に供給する。制
御時分配部126は、学習部124から与えられた学習
結果を使用して、テストパターンを何れかのクラスに分
配する。出力処理部128は、分配されたクラスに対応
する学習結果を使用して、テストパターンに対する出力
を計算する。
【0031】学習パターンを構成する入力と出力の一例
を図4(a)に示す。入力は、本実施例ではセンサ116
の取得するヘリコプター100のピッチ角であり、ヘリ
コプター100が安定すなわち水平に保たれているとき
は0°になり、前方に傾いているときは負の値になり、
後方に傾いているときは正の値になる。出力は、ピッチ
角を変えてヘリコプター100を安定させるために、操
縦者が送信器118を用いて出力部110に与える出力
信号である。本実施例では1から127までの整数値を
とり、「1」に近くなるほどヘリコプター100を前方
に傾かせる力が強く働き、「127」に近くなるほどヘ
リコプター100を後方に傾かせる力が強く働くように
なっている。
【0032】入力は所定のタイミング、例えば0.05
秒毎にセンサ116によって取得され、その時間に出力
部110に与えられていた出力と共に図示しないメモリ
に蓄えられる。そして、これらが適宜組み合わされて学
習パターンが作成される。
【0033】続いて、図5のフローチャートを用いて、
行動制御装置108の準備段階の動作について述べる。
【0034】まず、ステップS402で、入力部120
は学習パターンと対応する目標出力の組を作成する。こ
の学習パターンと対応する目標出力の組の例を図4
(a)、(b)を用いて説明する。ある時刻tにおいてセンサ
116の取得する入力をxInp[t]、その時点で出力部1
10に与えられた出力をxOut[t]と表すことにする。こ
の例では、学習パターンは、ある時刻tにおける入力x
Inp[t]及び出力xOut[t]と、1つ前の時刻t-1におけ
る入力xInp[t-1]及び出力xOut[t-1]とを含む。つま
り、図4(a)の時系列で並べられた入出力のうち、矩形
で囲まれた4つの値(302)を1組の学習パターンと
する。そして、この学習パターンに対する目標出力とし
て、図4(a)において丸308で囲まれた1つ後の時刻
t+1における出力xOut[t+1]を用いる。以下、矩形3
04と丸310、矩形306と丸312というように、
学習パターンと対応する目標出力の組を順次作成してい
く(矢印314、316)。言い換えると、学習パター
ンはxInp[t-1]、xInp[t]、xOut[t-1]、xOut[t]を要
素とする4次元の特徴ベクトルである。
【0035】学習パターンと対応する目標出力の組を表
に表すと、図4(b)のようになる。
【0036】この実施例においては、上述のように学習
パターンには現時点tの入力と出力だけでなくそれより
前の時点t-1の入出力を含め、また目標出力は、現時
点tの出力でなく現時点より後の時点t+1の出力とす
ることが好ましい。この理由は、入力と出力の間には、
ヘリコプター100等の制御対象の持つ慣性や操縦者の
反応時間等による遅れ時間が存在するので、この遅れ時
間を考慮して学習パターンと対応する目標出力の組を構
築する方が制御対象の挙動をより適切に反映すると考え
られるからである。従って、どの程度前の時点あるいは
後の時点の入出力を、それぞれいくつずつ学習パターン
に含めるか、または、現時点よりどの程度後の時点の出
力を目標出力とするかは、制御対象等の特性に応じて任
意に設定可能であり、学習パターンを上述のような構成
とするのが全ての問題に対して好ましいわけではない。
しかし、一般に、1組の学習パターンを多くの要素で構
成するほど、準備段階での学習が充実し、制御段階での
高精度な安定制御につながる。
【0037】なお、学習データが時系列に応じて作成さ
れず、異なるモダリティ別に作成されたものに対しても
本発明を適用できる。
【0038】以下の説明では、センサ116によって、
J個の要素を含む(すなわち、J次元の特徴ベクトルで
ある)学習パターンが全部でK個取得されるとき、k番
目の学習パターンをベクトルXk={xk1,…,xkJ}(k
=1,…,K)で表す。また、対応する目標出力は、yk
で表す。
【0039】ステップS404で、分配部122は、目
標出力ykの値に基づいて、学習パターンベクトルXk
2つ以上のクラスの何れかに分配する。このクラスは、
予め設定されたもので良い。しかしながら、ヘリコプタ
ー100を用いた予備実験において、操縦者が与えた出
力(具体的には1〜127の整数)の度数分布の広がり
に応じて、それぞれのクラスがほぼ同数ずつの出力をカ
バーするようにクラスを設定しておくのが好ましい。
【0040】例えば、本実施例では出力は1から127
までの値を取ることができるが、1から127の範囲を
3つのクラスに等分しても、1番目のクラスと3番目の
クラスはあまり意味を持たない。実際の制御では、ヘリ
コプター100の出力部110に値1や127に近い極
端な出力を与えるような状況はほとんど起こり得ず、操
縦者の与える出力は、ほとんどがその中間値付近の値と
なると予期されるからである。そこで、3つのクラスが
出力の分布の密なところに寄り合うようにクラスを設定
する。このクラスの設定は人手によらず、コホーネンの
自己組織化マップ等を利用して行うようにしても良い。
【0041】クラスが多いほど後述する学習に時間がか
かるが、少ないと高精度の制御が得られなくなるので、
適当な数のクラスを設定する。以下では、簡単のために
2つのクラスが予め設定されている場合について説明す
る。クラス1は値1〜63の目標出力に、クラス2は値
64〜127の目標出力にそれぞれ対応するクラスであ
る。当然、クラスの数は2以上の他の数でも良く、例え
ば後述する実施例(図12)では、クラスの数を8つと
している。
【0042】なお、ステップS402〜S404は、1
組の学習パターンと目標出力の組を取得する度に行うこ
とも、または学習パターンと目標出力の組がある程度の
数だけ蓄積された後にまとめて行うこともできる。
【0043】ステップS406で、学習部124は、各
クラスに分配された学習パターンベクトルXkの各要素
kj(j=1,…,J)及び目標出力ykをそれぞれ専用
の記憶領域に格納していく。そして、ある程度のデータ
がたまると、それぞれの度数分布を作成し、その分布を
正規分布と見てその平均値μと分散σを計算する。そし
て計算した平均値μと分散σを、各要素xkj及び目標出
力yk毎に、クラス別に格納する。
【0044】図6はステップS406における動作を概
念的に示したものである。上段はクラス1、下段はクラ
ス2に対応している。列は、左から順に、J=4の場合
の学習パターンベクトルの各要素xkj、目標出力yk
分布に対応する。
【0045】設定されたクラスの数をi(i=1〜
I)、各要素xkjの正規分布の平均値と分散をそれぞれ
μij、σij、及びi番目のクラスにおける目標出力yk
の正規分布の平均値と分散を以下のように表すとする。
【0046】
【数5】 このとき、図6に示す正規分布にそれぞれ対応して
μij、σijまたは以下の値が格納されることになる。
【0047】
【数6】
【0048】ステップS408で、学習部124は、学
習パターンベクトルXkの各要素xk jと目標出力ykとの
対応関係の学習を行う。この学習は、既知のパーセプト
ロン学習則に基づいて、以下の手順で行われる。以下の
各処理は、クラス毎にそれぞれ行われる。
【0049】1.まず、学習パターンベクトルXkの各
要素xkjと、分配されたクラスiにおいてその要素につ
いてステップS406で求められている正規分布の中心
(すなわち、平均値μij)との距離zijを、平均値
μij、分散σijを用いて次式により計算する。
【0050】 zij=(xkjij)/σij (j=1,…,J)(1) これは、各要素xkjと正規分布の中心までの距離(図7
参照)を分散σijで正規化したものである。
【0051】2.得られた距離zijと、zijに対応した
重みwijの積の和を次元数Jで除した、加重平均mi
計算する。
【0052】 mi=Σ(zijij)/J (j=1,…,J)(2) 重みwijの初期値はランダムに設定される。
【0053】3.得られた加重平均を用いて、次式によ
り出力yk’を計算する。
【0054】
【数7】
【0055】4.目標出力ykを教師信号として、得ら
れたyk’との誤差yk’−ykを小さくするように、重
みwijを更新する。
【0056】以上の計算を各クラスi(i=1,…,I)
に分配された全ての学習パターンベクトルXkについて
行い、重みwijが更新されることによって、学習パター
ンベクトルXkと目標出力ykの対応関係が学習されてい
く。
【0057】準備段階で計算された学習結果は、制御時
分配部126及び出力処理部128に送られて、制御段
階における計算に使用される。特に、式(2)のmiは、
テストパターンベクトルをクラスに分配する分配関数と
しても用いられる。
【0058】ステップS408における計算は、図6の
各要素xkjの正規分布における出力から中心までの距離
ijと、出力ykの正規分布における出力から中心まで
の距離の間には相関関係があると考えられることに基づ
いている。この計算は、学習パターンベクトルの要素で
ある現時点及び1つ前の時点の入出力がそれぞれ持つ出
力への寄与度を重みwijによって表現するものと見るこ
ともできる。
【0059】なお、ステップS408の重みwijの計算
は、精度の高い制御を行うための任意選択のステップで
あるので、パーセプトロンによる学習を実行しなくても
良く、その場合には重みwijはすべて1とされる。
【0060】このように、行動制御装置108は、準備
段階において、まず初めに目標出力に対して一対一に対
応するクラスを設定する(第1の学習)。次に、学習パ
ターンベクトルと目標出力の組を何れかのクラスに分配
し、各要素について正規分布を計算する(第2の学
習)。最後に、学習パターンベクトルの各要素と目標出
力の間の関係を重みwijの更新によって学習する(第3
の学習)という、3つの過程をとる。
【0061】以上で、行動制御装置108の準備段階の
動作の説明を終了する。
【0062】続いて、図8に示すフローチャートを用い
て、行動制御装置108の制御段階の動作について述べ
る。
【0063】ステップS702で、入力部120は、学
習パターンベクトルと同じ入力と出力の構成を取るテス
トパターンベクトルXk={xk1,…,xkJ}を作成する。
【0064】ステップS704で、制御時分配部126
は、テストパターンベクトルの各要素xkj(j=1,…,
J)を用いて、各クラスi(i=1,…,I)毎に距離の
平均値miを式(1)及び(2)に従って計算する。
【0065】ステップS706で、制御時分配部126
は、距離の平均値miのうち最小のmiを有するクラス
(このクラスを「クラスiWinner」という)に、テス
トパターンベクトルXkを分配する。
【0066】ステップS708で、出力処理部128
は、クラスiWinnerの距離の平均値miWinnerと、ク
ラスiWinnerに対応した平均値μiWinner,j、及び分
散σiW inner,jを使用して、式(3)に従って出力yk
を計算する。出力yk’は、行動制御装置108から出
力部110に送られ、ヘリコプター100を制御する。
【0067】図9、図10は、ステップS702〜S7
08の動作を概念的に説明するものである。図9は、ク
ラス1、2に、テストパターンベクトルXkの各要素x
kj(j=1,…,J)(図中黒丸で表す)を与えた様子を
示す。クラス1では、各要素xkjは正規分布の端の方に
位置にあるのに対し、クラス2では正規分布の平均値に
近くに位置する。従って、距離の平均値miはクラス2
の方が小さくなるので、制御時分配部126はこのテス
トパターンベクトルXkをクラス2に分配する。
【0068】そして、選択されたクラス2の距離の平均
値miが、目標出力ykの正規分布の平均値からの距離に
相当するものとして、出力yk’が算出される(図1
0)。
【0069】以上で、制御時の行動制御装置108の動
作の説明を終了する。
【0070】なお、以上の説明では、学習パターンと目
標出力の組の集合を使用して準備段階が完了した後に、
テストパターンによる制御を開始するものとして記載し
ているが、準備段階を経ずに制御を直ちに開始すること
もできる。このときは、図5に示すフローと図8に示す
フローとが同時並行的に実行されることになる。この場
合、制御初期は学習が未熟なため、突飛な運動により制
御対象が破損等する可能性があるので、所定の間は行動
制御装置108が制御対象に与える出力の範囲を強制的
に制限するような構成にすることが好ましい。
【0071】図2のシステムにおいて、テストパターン
を用いて行った実験結果を図11に示す。図中に示す線
は、教師信号である目標出力(Target)、第3の学習を
経たときの行動制御装置108による出力(With Learn
ing)、第3の学習を経なかったときの行動制御装置1
08による出力(Without Learning)を表す。図の横軸
はセンサ116によるサンプリング回数であり、縦軸は
ヘリコプター100のピッチ角である。図11から、第
3の学習の有無によって、行動制御装置108の出力特
性が多少異なることが分かる。第3の学習を経たとき
は、ステップ関数のような応答特性を示すのに対して、
第3の学習を経なかったときは、滑らかな応答特性を示
している。従って、第3の学習を経るかどうかは、望ま
しい応答特性に応じて使い分ければ良い。
【0072】一般に、パーセプトロン等の階層型ニュー
ラルネットワークでは、入力と出力をそのまま学習させ
る。一方、本発明による行動制御装置108では、予め
目標出力によるクラス分配が行われる。そして、分配さ
れたクラス毎に学習パターンを収集する。従って、学習
パターンの分配されたクラスに対応する出力以外は出力
されることが無いので、未学習の入力に対しても不適当
で突飛な出力がされることが無く、制御システムの信頼
性が向上する。また、出力の分布に応じて適切な範囲を
持つ適切な数のクラスを設定することによって、出力が
ある値の近傍に集中してしまうような制御対象や、出力
が広い範囲に散らばってしまうような制御対象のいずれ
に対しても、適切なふるいをかけることができ、制御の
精度が向上する。
【0073】図12は、図2と同様の制御システムに公
知のCMAC(小脳モデルアルゴリズム)を適用したと
きの実験結果(a)と、本発明の行動制御装置108を用
いて制御したときの実験結果(b)を示す。各図中、上の
線はセンサ116の入力(ピッチ角)であり、下の線は
行動制御装置108による出力である。出力はセンサ入
力に追従することが理想である。しかし、(a)では、セ
ンサ入力の範囲が学習を行った領域にある場合はよい
が、図中矢印で示す学習していない領域(ヘリコプター
100のピッチ角が20度より大きい領域)になると、
出力が不適当になっている(つまり、本来は追従して大
きな出力を出さなければならないのに対し、出力が下が
っている)。これに対し、(b)では、図中矢印で示すよ
うに、センサ入力の範囲が学習していない領域になって
も、出力がセンサ入力に追従している。図13は、図1
2の(a)、(b)における結果を正規化して1つのグラフに
表したものである。CMACの場合は、センサ入力が学
習していない領域(図13で、入力が−3〜2以外の領
域)に入ると途端に目標出力に追従できなくなるのに対
し、本発明の行動制御装置の場合は、その場合でも精度
良く目標出力に追従できている。
【0074】既知のRBFネットワークでも本実施形態
と同様に出力の計算に正規分布を用いるが、RBFネッ
トワークでは、クラスにおける出力関数の位相関係で入
出力関係を表現する。すなわち、RBFではある入力に
対して全てのクラスの割合を学習して全クラスにかかる
計算結果を出力する。それに対し本発明では、クラス毎
に出力関数を任意に設定でき、かつ、クラスが1つ選択
されると以後そのクラス内でのみ入出力の対応関係の計
算を行うため出力関数同士のトポロジーを考慮する必要
が無く、選択された単一の出力関数の値をそのまま出力
できる。
【0075】簡単な例を具体的に述べると、例えばクラ
ス1とクラス2が存在し、それぞれのクラスに分配され
た入力に対してクラス1は出力値「a」を、クラス2は
出力値「b」を出力するものとする。このときRBFネ
ットワークにおいては、ある入力に対する出力は、(a
+b)または(a+b)/2のように、各クラスの出力値が
線形結合されたものとなる。これに対し本発明において
は、制御段階においてある入力に対してクラス2がWin
nerになったとすると、クラス2の出力値「b」のみが
出力される。従って本発明は、各クラスについてより専
門的な関数を作っておくことでより高精度な制御を実現
し、またRBFネットワークよりも複雑な関数を近似す
ることが可能になる。
【0076】また、制御段階における行動制御装置10
8の行う計算量が非常に少ないことに注目すべきであ
る。すなわち、制御段階ではテストパターンがどのクラ
スに属するかを分配するための平均値miの計算(式
(2))と、分配されたクラス内での出力yk’の計算
(式(3))のみである。これは、正規分布を逐一計算す
る方式に比べて、制御が高速化されることを意味する。
従って、ヘリコプターのような不安定な制御対象に対し
ても、高速処理によって安定性の高い制御を行える。
【0077】
【発明の効果】本発明によれば、準備段階で目標出力に
基づいて学習用入力パターンを2つ以上のクラスの何れ
かに分配し、分配したクラス内でのみ学習用入力パター
ンと目標出力の対応関係を学習するので、制御段階にお
いて、ある入力パターンに対して計算される出力の範囲
が限定されるので、突飛な出力をすることが無くなり、
制御の信頼性が向上する。
【図面の簡単な説明】
【図1】本発明の原理を説明する図である。
【図2】本発明の一実施形態を説明するためのヘリコプ
ター制御システムの構成図である。
【図3】行動制御装置の機能ブロック図である。
【図4】学習パターンベクトルと目標出力を説明する図
である。
【図5】準備段階のフローチャートである。
【図6】学習パターンベクトルの各要素と目標出力の正
規分布の一例を示す図である。
【図7】学習パターンベクトルの要素と図6に示す正規
分布の中心までの距離を説明するための図である。
【図8】制御段階のフローチャートである。
【図9】クラスの分配を説明する図である。
【図10】分配されたクラスにおける出力の計算を説明
する図である。
【図11】本発明による行動制御装置を用いた制御結果
を示すグラフである。
【図12】(a)は公知のCMACを用いたヘリコプター
の制御結果を示すグラフであり、(b)は本発明による行
動制御装置を用いた制御結果を示すグラフである。
【図13】図12の結果を対比するためのグラフであ
る。
【符号の説明】
100 ヘリコプター 108 行動制御装置 110 出力部 116 センサ 118 送信器 120 入力部 122 分配部 124 学習部 126 制御時分配部 128 出力処理部

Claims (18)

    【特許請求の範囲】
  1. 【請求項1】センサの取得する入力と制御対象への出力
    を要素とする学習用の入力パターンベクトルと目標出力
    の組の集合に基づいて学習を行い、学習結果に従って新
    たな入力パターンベクトルに対する適切な出力を計算し
    て前記制御対象に与える行動制御装置であって、 前記学習用入力パターンベクトルと目標出力の組を作成
    する入力部と、 前記目標出力に基づいて、前記学習用入力パターンベク
    トルと目標出力の組を2以上のクラスの何れかに分配す
    る第1の分配部と、 第1の分配部により分配されたクラス内において、学習
    用入力パターンベクトルの各要素と目標出力との対応関
    係を学習する学習部と、 前記学習部における学習結果に従って、前記新たな入力
    パターンベクトルを前記クラスの何れかに分配する第2
    の分配部と、 第2の分配部により分配されたクラス内において、前記
    学習結果に従って、前記新たな入力パターンベクトルに
    対応する出力を計算する出力処理部と、 を備える行動制御装置。
  2. 【請求項2】前記2以上のクラスは予め設定されてい
    る、請求項1に記載の行動制御装置。
  3. 【請求項3】前記2以上のクラスは、前記目標出力の分
    布の度合いに基づいて自己組織化マップにより自動で決
    定される、請求項1に記載の行動制御装置。
  4. 【請求項4】前記学習用入力パターンベクトルは、現時
    点で前記センサが取得する入力と前記制御対象への出
    力、現時点より前の時点で前記センサが取得する入力と
    前記制御対象への出力を要素として含む、請求項1乃至
    3に記載の行動制御装置。
  5. 【請求項5】前記学習部は、各クラスに分配された学習
    用入力パターンベクトルの各要素及び目標出力をそれぞ
    れ格納し、各データの集合の正規分布の平均値と分散を
    計算しておき、 前記第2の分配部は、前記新たな入力パターンベクトル
    の各要素について、前記各正規分布の平均値からの距離
    を計算し、該距離の平均が最小であるクラスに前記新た
    な入力パターンベクトルを分配する、請求項1乃至4に
    記載の行動制御装置。
  6. 【請求項6】前記距離の平均は、前記学習用入力パター
    ンベクトルの各要素の目標出力に対する重みによる加重
    平均である、請求項5に記載の行動制御装置。
  7. 【請求項7】前記重みは、前記目標出力を教師信号とし
    たニューラルネットワークによる学習で計算される、請
    求項6に記載の行動制御装置。
  8. 【請求項8】前記出力処理部は、前記新たな入力テスト
    パターンベクトルが分配されたクラス内の各正規分布の
    平均値と前記新たなテストパターンベクトルの各要素の
    間の距離の加重平均を求め、前記目標出力の正規分布の
    平均値から該加重平均に相当する距離にある値を出力す
    る、請求項1乃至7に記載の行動制御装置。
  9. 【請求項9】前記新たな入力テストパターンベクトルの
    各要素をxkj(k=1,…,K、j=1,…,J)、前記目
    標出力をyk、新たな入力テストパターンベクトルに対
    応する出力をyk’、クラスをi(i=1〜I)、クラ
    スiにおける前記各データの集合の正規分布の平均値と
    分散をそれぞれμij、σij、重みをwij、及びクラスi
    における目標出力ykの正規分布の平均値と分散をそれ
    ぞれ以下のように表すとき、 【数1】 前記第2の分配部は、前記新たな入力パターンベクトル
    の各要素xkjについて前記各正規分布の平均値からの距
    離zijを次式 zij=(xkjij)/σij により計算し、計算した距離zijの加重平均miを次式 mi=Σ(zijij)/J により計算し、計算した加重平均miが最小であるクラ
    スに前記新たな入力パターンベクトルを分配し、 前記出力処理部は、前記新たな入力パターンベクトルが
    分配されたクラスについて次式 【数2】 により出力yk’を計算する、請求項5乃至8に記載の
    行動制御装置。
  10. 【請求項10】センサの取得する入力と制御対象への出
    力を要素とする学習用の入力パターンベクトルと目標出
    力の組の集合に基づいて学習を行い、学習結果に従って
    新たな入力パターンベクトルに対する適切な出力を計算
    して前記制御対象に与える行動制御方法であって、 前記学習用入力パターンベクトルと目標出力の組を作成
    し、 前記目標出力に基づいて、前記学習用入力パターンベク
    トルと目標出力の組を2以上のクラスの何れかに分配
    し、 該分配されたクラス内において、学習用入力パターンベ
    クトルの各要素と目標出力との対応関係を学習し、 該学習結果に従って、前記新たな入力パターンベクトル
    を前記クラスの何れかに分配し、 該分配されたクラス内において、前記学習結果に従っ
    て、前記新たな入力パターンベクトルに対応する出力を
    計算することを含む行動制御方法。
  11. 【請求項11】前記2以上のクラスは予め設定されてい
    る、請求項10に記載の行動制御方法。
  12. 【請求項12】前記2以上のクラスは、前記目標出力の
    分布の度合いに基づいて自己組織化マップにより自動で
    決定される、請求項10に記載の行動制御方法。
  13. 【請求項13】前記学習用入力パターンベクトルは、現
    時点で前記センサが取得する入力と前記制御対象への出
    力、現時点より前の時点で前記センサが取得する入力と
    前記制御対象への出力を要素として含む、請求項10乃
    至12に記載の行動制御方法。
  14. 【請求項14】前記学習ステップは、各クラスに分配さ
    れた学習用入力パターンベクトルの各要素及び目標出力
    をそれぞれ格納し、各データの集合の正規分布の平均値
    と分散を計算することを含み、 前記新たな入力パターンベクトルを分配するステップ
    は、前記新たな入力パターンベクトルの各要素につい
    て、前記各正規分布の平均値からの距離を計算し、該距
    離の平均が最小であるクラスに前記新たな入力パターン
    ベクトルを分配することを含む、請求項10乃至13に
    記載の行動制御方法。
  15. 【請求項15】前記距離の平均は、前記学習用入力パタ
    ーンベクトルの各要素の目標出力に対する重みによる加
    重平均である、請求項14に記載の行動制御方法。
  16. 【請求項16】前記重みは、前記目標出力を教師信号と
    したニューラルネットワークによる学習で計算される、
    請求項15に記載の行動制御方法。
  17. 【請求項17】前記出力ステップは、前記新たな入力テ
    ストパターンベクトルが分配されたクラス内の各正規分
    布の平均値と前記新たなテストパターンベクトルの各要
    素の間の距離の加重平均を求め、前記目標出力の正規分
    布の平均値から該加重平均に相当する距離にある値を出
    力することを含む、請求項10乃至16に記載の行動制
    御方法。
  18. 【請求項18】前記新たな入力テストパターンベクトル
    の各要素をxkj(k=1,…,K、j=1,…,J)、前記
    目標出力をyk、新たな入力テストパターンベクトルに
    対応する出力をyk’、クラスをi(i=1〜I)、ク
    ラスiにおける前記各データの集合の正規分布の平均値
    と分散をそれぞれμij、σij、重みをw ij、及びクラス
    iにおける目標出力ykの正規分布の平均値と分散をそ
    れぞれ以下のようにするとき、 【数3】 前記新たな入力パターンベクトルを分配するステップ
    は、前記新たな入力パターンベクトルの各要素xkjにつ
    いて前記各正規分布の平均値からの距離zijを次式 zij=(xkjij)/σij により計算し、計算した距離zijの加重平均miを次式 mi=Σ(zijij)/J により計算し、計算した加重平均miが最小であるクラ
    スに前記新たな入力パターンベクトルを分配し、 前記出力ステップは、前記新たな入力パターンベクトル
    が分配されたクラスについて次式 【数4】 により出力yk’を計算する、請求項14乃至17に記
    載の行動制御方法。
JP2002105773A 2002-04-08 2002-04-08 行動制御装置及び方法 Expired - Fee Related JP3946562B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2002105773A JP3946562B2 (ja) 2002-04-08 2002-04-08 行動制御装置及び方法
US10/411,485 US7133855B2 (en) 2002-04-08 2003-04-07 Behavior control apparatus and method
EP03008183A EP1353293A3 (en) 2002-04-08 2003-04-08 Behavior control apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002105773A JP3946562B2 (ja) 2002-04-08 2002-04-08 行動制御装置及び方法

Publications (2)

Publication Number Publication Date
JP2003303329A true JP2003303329A (ja) 2003-10-24
JP3946562B2 JP3946562B2 (ja) 2007-07-18

Family

ID=28449912

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002105773A Expired - Fee Related JP3946562B2 (ja) 2002-04-08 2002-04-08 行動制御装置及び方法

Country Status (3)

Country Link
US (1) US7133855B2 (ja)
EP (1) EP1353293A3 (ja)
JP (1) JP3946562B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012122449A (ja) * 2010-12-10 2012-06-28 Denso Corp 制御装置
JP2015045963A (ja) * 2013-08-27 2015-03-12 国立大学法人 千葉大学 自律制御方法及び自律制御装置並びにこれを搭載した機器
JP2017120647A (ja) * 2015-12-31 2017-07-06 ダッソー システムズDassault Systemes 機械学習システムの更新
US11176481B2 (en) 2015-12-31 2021-11-16 Dassault Systemes Evaluation of a training set

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7766111B2 (en) * 2004-10-29 2010-08-03 Daimler Trucks North America Llc Selective closing of at least one vehicle opening at a front portion of a vehicle
JP4201012B2 (ja) * 2006-04-06 2008-12-24 ソニー株式会社 データ処理装置、データ処理方法、およびプログラム
EP2048603A4 (en) * 2006-08-03 2012-04-25 Panasonic Electric Works Sunx METHOD FOR OPTIMIZING LEARNING DATA SETS FOR A SIGNAL DETECTION DEVICE AND SIGNAL DETECTION DEVICE WITH LEARNING DATA SET OPTIMIZATION
US11875251B2 (en) * 2018-05-03 2024-01-16 Samsung Electronics Co., Ltd. Neural network method and apparatus
WO2020248211A1 (en) * 2019-06-14 2020-12-17 Beijing Didi Infinity Technology And Development Co., Ltd. Hierarchical coarse-coded spatiotemporal embedding for value function evaluation in online order dispatching

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05158907A (ja) 1991-03-15 1993-06-25 Fujitsu Ltd 適応型制御装置の自己学習処理方式
JP2598582B2 (ja) 1991-06-28 1997-04-09 株式会社クボタ 苗移植機
JPH05204405A (ja) 1992-01-23 1993-08-13 Matsushita Electric Ind Co Ltd 入出力関係推定装置
JPH05346915A (ja) 1992-01-30 1993-12-27 Ricoh Co Ltd 学習機械並びにニューラルネットワークおよびデータ分析装置並びにデータ分析方法
JPH05257919A (ja) 1992-03-13 1993-10-08 Fujitsu Ltd 適応型制御装置の学習処理方式
JPH06301664A (ja) 1993-04-16 1994-10-28 Meidensha Corp データ処理装置
JPH0793296A (ja) 1993-09-20 1995-04-07 Atr Ningen Joho Tsushin Kenkyusho:Kk 多価関数学習方法
JPH09245012A (ja) 1996-03-08 1997-09-19 Mitsubishi Electric Corp 学習制御方法
JP3561096B2 (ja) 1996-09-10 2004-09-02 株式会社東芝 関数学習装置
JPH11353295A (ja) 1998-06-09 1999-12-24 Fujitsu Ltd 内部モデル学習方法及び装置
US6212466B1 (en) * 2000-01-18 2001-04-03 Yamaha Hatsudoki Kabushiki Kaisha Optimization control method for shock absorber
US6701236B2 (en) * 2001-10-19 2004-03-02 Yamaha Hatsudoki Kabushiki Kaisha Intelligent mechatronic control suspension system based on soft computing

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012122449A (ja) * 2010-12-10 2012-06-28 Denso Corp 制御装置
JP2015045963A (ja) * 2013-08-27 2015-03-12 国立大学法人 千葉大学 自律制御方法及び自律制御装置並びにこれを搭載した機器
JP2017120647A (ja) * 2015-12-31 2017-07-06 ダッソー システムズDassault Systemes 機械学習システムの更新
US11176481B2 (en) 2015-12-31 2021-11-16 Dassault Systemes Evaluation of a training set
US11308423B2 (en) 2015-12-31 2022-04-19 Dassault Systemes Update of a machine learning system

Also Published As

Publication number Publication date
JP3946562B2 (ja) 2007-07-18
US20030225464A1 (en) 2003-12-04
US7133855B2 (en) 2006-11-07
EP1353293A3 (en) 2008-07-09
EP1353293A2 (en) 2003-10-15

Similar Documents

Publication Publication Date Title
US20230330848A1 (en) Reinforcement and imitation learning for a task
CN106873585B (zh) 一种导航寻路方法、机器人及系统
Doya Reinforcement learning in continuous time and space
US9146546B2 (en) Systems and apparatus for implementing task-specific learning using spiking neurons
CN110941272B (zh) 自动驾驶控制方法和设备
CN110442129B (zh) 一种多智能体编队的控制方法和系统
CN110076783B (zh) 一种基于模糊控制和李雅普诺夫函数的平面欠驱动机械臂位置控制方法
JP2004249812A (ja) 車両運動モデルの生成装置および車両運動モデルの生成方法
KR20110124646A (ko) 자율이동차량의 조향제어장치, 이를 구비하는 자율이동차량 및 자율이동차량의 조향제어방법
WO2019111608A1 (ja) 制御装置、無人システム、制御方法及びプログラム
JP3946562B2 (ja) 行動制御装置及び方法
CN111880574B (zh) 一种无人机避撞方法及系统
US20040162647A1 (en) Behavior control apparatus and method
CN113015982A (zh) 具有竞争性奖励调节脉冲时间依赖的可塑性的人工神经网络及其训练方法
CN116242364A (zh) 一种基于深度强化学习的多无人机智能导航方法
CN116301051A (zh) 一种无人机集群控制与避障方法和装置
Liang et al. Hierarchical reinforcement learning with opponent modeling for distributed multi-agent cooperation
Isaacs et al. Development of a memetic algorithm for dynamic multi-objective optimization and its applications for online neural network modeling of UAVs
CN115665757A (zh) 分布式未知时变区域多自主体最优覆盖方法与系统
CN114020018B (zh) 导弹控制策略的确定方法、装置、存储介质及电子设备
CN116009583A (zh) 基于纯粹视觉的分布式无人机协同运动控制方法和装置
CN113433960A (zh) 一种固定翼集群队形生成方法
US11834066B2 (en) Vehicle control using neural network controller in combination with model-based controller
Milford et al. Simultaneous localization and mapping from natural landmarks using RatSLAM
WO2021189215A1 (zh) 可移动平台的控制方法、装置、可移动平台及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070410

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070411

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110420

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110420

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120420

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130420

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees