JPH11126198A - データ処理装置および方法、並びに伝送媒体 - Google Patents

データ処理装置および方法、並びに伝送媒体

Info

Publication number
JPH11126198A
JPH11126198A JP9289692A JP28969297A JPH11126198A JP H11126198 A JPH11126198 A JP H11126198A JP 9289692 A JP9289692 A JP 9289692A JP 28969297 A JP28969297 A JP 28969297A JP H11126198 A JPH11126198 A JP H11126198A
Authority
JP
Japan
Prior art keywords
gate
pattern
judging
series data
steps
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9289692A
Other languages
English (en)
Other versions
JP3922407B2 (ja
Inventor
Atsushi Tani
淳 谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP28969297A priority Critical patent/JP3922407B2/ja
Publication of JPH11126198A publication Critical patent/JPH11126198A/ja
Application granted granted Critical
Publication of JP3922407B2 publication Critical patent/JP3922407B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【課題】 時系列データのパターンを自動的に文節化で
きるようにする。 【解決手段】 リカレント型ニューラルネットワーク1
−1乃至1−nに、時系列データの所定のパターンを選
択的に記憶させ、入力された時系列データに学習したパ
ターンが現れたとき、その検出信号を出力させる。この
検出信号は、ゲート2−1乃至2−nを介して合成回路
3で合成される。ゲート2−1乃至2−nの開放状態に
対応するゲートシーケンスは、上位の階層のリカレント
型ニューラルネットワーク11−1乃至11−nに入力
される。各リカレント型ニューラルネットワーク11−
1乃至11−nは、記憶したパターンを検出すると、そ
の検出信号をゲート12−1乃至12−nを介して出力
する。このように、ネットワークを階層構造にすること
により、時系列データを自動的に文節化することができ
る。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、データ処理装置お
よび方法、並びに伝送媒体に関し、特に、時系列データ
を自動的に文節化し、処理することができるようにし
た、データ処理装置および方法、並びに伝送媒体に関す
る。
【0002】
【従来の技術】データを処理する手法の中に、数理解
析、統計的手法、ニューラルネットなどがある。ジャコ
ブス(R.A.Jacobs)と、ジョーダン(M.I.Jordan)は、
module of experts networkにより、多様な空間的なパ
ターンを有限数のエキスパートに自動的に割り当てる形
で問題を分割し、かつ階層的に学習することを提案して
いる(Adaptive mixtures of local experts. Neural C
omputation, vol. 3, No.1,pp. 79-87,1991)。
【0003】
【発明が解決しようとする課題】しかしながら、上記し
た提案においては、入力されたデータを時間方向に、自
動的に文節化する手段が開示されておらず、ロボットの
センサモータに代表される連続時系列データから、文節
化の構造を学習したり、その学習した構造から、元の時
系列を再構成することができないという課題があった。
【0004】本発明はこのような状況に鑑みてなされた
ものであり、時系列データのパターンを階層的に学習
し、生成することができるようにするものである。
【0005】
【課題を解決するための手段】請求項1に記載のデータ
処理装置は、入力される時系列データのパターンを判定
する複数の判定手段と、複数の判定手段の判定結果をそ
れぞれゲートする複数のゲート手段と、複数のゲート手
段の出力を合成する合成手段とを備えることを特徴とす
る。
【0006】請求項5に記載のデータ処理方法は、入力
される時系列データのパターンを判定する複数の判定ス
テップと、複数の判定ステップの判定結果をそれぞれゲ
ートする複数のゲートステップと、複数のゲートステッ
プの出力を合成する合成ステップとを備えることを特徴
とする。
【0007】請求項6に記載の伝送媒体は、入力される
時系列データのパターンを判定する複数の判定ステップ
と、複数の判定ステップの判定結果をそれぞれゲートす
る複数のゲートステップと、複数のゲートステップの出
力を合成する合成ステップとを備えるコンピュータプロ
グラムを伝送することを特徴とする。
【0008】請求項1に記載のデータ処理装置、請求項
5に記載のデータ処理方法、および請求項6に記載の伝
送媒体においては、入力される時系列データのパターン
が判定され、判定結果がゲートされる。そして、ゲート
後の出力が合成される。
【0009】
【発明の実施の形態】以下に本発明の実施の形態を説明
するが、特許請求の範囲に記載の発明の各手段と以下の
実施の形態との対応関係を明らかにするために、各手段
の後の括弧内に、対応する実施の形態(但し一例)を付
加して本発明の特徴を記述すると、次のようになる。但
し勿論この記載は、各手段を記載したものに限定するこ
とを意味するものではない。
【0010】請求項1に記載のデータ処理装置は、入力
される時系列データのパターンを判定する複数の判定手
段(例えば、図1のリカレント型ニューラルネットワー
ク1−1乃至1−n)と、複数の判定手段の判定結果を
それぞれゲートする複数のゲート手段(例えば、図1の
ゲート2−1乃至2−n)と、複数のゲート手段の出力
を合成する合成手段(例えば、図1の合成回路3)とを
備えることを特徴とする。
【0011】図1は、本発明を適用したデータ処理装置
の構成例を示している。このデータ処理装置は、例え
ば、ロボットなどに組み込まれるものである。そのロボ
ットには、障害物を検出するセンサと、ロボットを移動
させるために駆動されるモータ(いずれも図示せず)が
具備されている。
【0012】n個のリカレント型ニューラルネットワー
ク(RNN)1−1乃至1−nには、センサとモータの状
態に対応する入力xtが入力されている。
【0013】図2は、リカレント型ニューラルネットワ
ーク1−1の構成例を表している。なお、図示は省略す
るが、他のリカレント型ニューラルネットワーク1−2
乃至1−nも、リカレント型ニューラルネットワーク1
−1と同様に構成されている。
【0014】図2に示すように、リカレント型ニューラ
ルネットワーク1−1は、所定の数の入力層のニューロ
ン31を有し、このニューロン31に、センサの状態に
対応する入力stと、モータの状態に対応する入力mt
入力されている。ニューロン31の出力は、中間層のニ
ューロン32を介して、出力層のニューロン33に供給
されるようになされている。そして、出力層のニューロ
ン33からは、リカレント型ニューラルネットワーク1
−1のセンサの状態に対応する出力st+1と、モータの
状態に対応する出力mt+1が出力されるようになされて
いる。また、出力の一部は、コンテキスト(context)
tとして、入力層のニューロン31にフィードバック
されるようになされている。
【0015】リカレント型ニューラルネットワーク1−
1乃至1−nの出力は、対応するゲート2−1乃至2−
nを介して合成回路3に入力され、合成され、予測出力
t+ 1が出力されるようになされている。
【0016】学習時においては、教師信号としての目標
値y* t+1と、各RNN1−1乃至1−nの出力の誤差が、
対応するゲート2−1乃至2−nの状態を制御するよう
になされている。
【0017】以上の下位のRNN1−1乃至1−n、ゲー
ト2−1乃至2−n、および合成回路3と同様の構成
が、より上位の階層にも形成されている。すなわち、上
位の階層には、RNN11−1乃至11−n、ゲート12
−1乃至12−n、および合成回路13が設けられてい
る。そして、RNN11−1乃至11−nには、下位の階
層のゲート2−1乃至2−nの導通状態(開閉度)に対
応するシーケンス(ゲートシーケンス)Gtが入力され
るようになされている。そして、各RNN11−1乃至1
1−nからは、出力G1 T+1乃至Gn T+1が出力され、合成
回路13からは、予測出力GT+1が出力されるようにな
されている。また、学習時においては、教師信号とし
て、目標値G* T+1が入力されている。
【0018】なお、図1には、2つの階層だけが示され
ているが、必要に応じて、さらに、より上位の階層を設
けることも可能である。
【0019】図3は、上位の階層のRNN11−1の構成
を表している。なお、他のRNN11−2乃至11−n
も、RNN11−1と同様の構成とされている。
【0020】図3に示すように、RNN11−1は、基本
的に、図2に示したRNN1−1と同様に構成されてお
り、入力層には複数のニューロン41が、中間層には複
数のニューロン42が、そして出力層には複数のニュー
ロン43が配置されている。入力層には、ゲート2−1
乃至2−nの導通状態に対応する信号g1 T乃至gn Tが入
力されるとともに、ゲートの導通(開放)している周期
(時間)ITが入力される。出力層からは、これらの入
力に対応して、出力g1 T+1乃至gn T+1と、IT+1が出力
される。また、出力層の出力の一部は、コンテキストC
Tとして入力層にフィードバックされている。
【0021】ここで、RNN1−1乃至1−nのアルゴリ
ズムについて説明する。ゲートの導通状態は、ソフトマ
ックス(soft-max)のアクティベーションファンクショ
ンを用いて、次式で示すように表される。
【0022】
【数1】
【0023】ここで、giは、i番目のゲートの導通状
態に対応するゲート係数を表し、siは、i番目のゲー
トの導通状態の内部状態に対応する値を表している。従
って、合成回路3の出力yt+1は、次式で表される。
【0024】
【数2】
【0025】ここで、予測学習時に最大の値となる次式
で示す尤度関数を定義する。
【0026】
【数3】
【0027】なお、ここで、σは、スケーリングパラメ
ータを表している。
【0028】学習時、RNN1−1乃至1−nの重み係数
とゲート係数gは、尤度関数が最大となるように同時に
更新される。認識時においては、ゲート係数だけが更新
される。
【0029】これらの重み係数とゲート係数を更新する
ルールを確立するために、尤度関数の指数関数の内部変
数siに関する傾きと、i番目のRNNの出力yiに関する
傾きを次式のように求める。
【0030】
【数4】
【0031】ここで、g(i|xt,y* t+1)は、i番
目のRNNが入力xtのとき、目標出力y* t+1を発生する事
象後確率を意味し、次式で表される。
【0032】
【数5】
【0033】ここで、||y* t+1−yj t+1||2は、現在の
予測の自乗誤差を表している。
【0034】上記(4)式は、siを更新する方向を表
している。また、(5)式に示されるように、尤度関数
の指数関数のyi t+1に関する傾きは、誤差条件y* t+1
i t +1の誤差項を含んでいる。この誤差項は、i番目の
RNNの事象後確率により重み付けされている。
【0035】このように、RNN1−1乃至1−nの重み
係数は、事象後確率にのみ比例して、i番目のRNNの出
力と目標値の誤差を補正するように調整される。これに
よりn個のRNNのうち、1つのエキスパートRNNだけが、
与えられたトレーニングパターンを排他的に学習するよ
うになされる。各RNNの誤差は、次式で表される。
【0036】
【数6】
【0037】RNN1−1乃至1−nの実際の学習は、上
記式で得られた誤差に基づいてバックプロパゲーション
法により実行される。
【0038】これにより、RNN1−1乃至1−nは、入
力xtのうち、それぞれ他と異なる所定の時系列パター
ンを識別することができるエキスパートとなるように、
学習が行われる。
【0039】以上のことは、より上位の階層におけるRN
N11−1乃至11−nにおいても同様である。ただ
し、この場合における入力は、ゲートシーケンスGT
あり、その出力は、Gi T+1となる。
【0040】このように構成したロボット51で、図4
または図5に示すようなルームAまたはルームBを移動
させる実験を行った。図6は、図4のルームAを20方
向の距離センサを持つロボット51が移動した場合にお
ける20次元の距離センサの状態の時系列的な変化を表
している。図6においては、四角形の各ドットの大きさ
が、障害物までの距離の近さを表している(四角形が大
きいほど、距離が近い)。
【0041】ロボット51はルームAとルームBを移動
し、その間に下位層を自己組織化する。さらに、下位の
階層のネットワークにおける自己組織化を調べるため
に、図7に示すように、異なる形状のルームCとルーム
Dが、ドア52を介して連結されている空間を、ロボッ
ト51に移動させる実験を行った。なお、ロボット51
の各階層のRNN1−1乃至1−nとRNN11−1乃至11
−nの数は、それぞれ5個(n=5)とされている。
【0042】図8は、ロボット51がルームCを移動し
た場合のモータへの入力(実線)と、5個のゲートの変
化を表している。同様に、図9は、ロボット51がルー
ムDを移動した場合のモータの入力と、各ゲートの変化
を表している。
【0043】図8に示すように、ルームCにおいては、
ゲート2−2は、ロボット51が直進するとき開閉度が
高くなり、ゲート2−5は、ロボット51が分岐点を通
過するとき開閉度が高くなり、ゲート2−1は、ロボッ
ト51が左方向に曲がるとき開閉度が高くなる。図7に
示すように、ルームCにおいては、ロボット51は、最
初に直進するのでゲート2−2が先ず開放し、次に、分
岐点を通過するのでゲート4が開放し、次に、左方向に
曲がるのでゲート2−1が開放し、さらに、直進するの
でゲート2−2が開放し、また、左方向に曲がるのでゲ
ート2−1が開放し、直進するのでゲート2−2が開放
し、左に曲がるのでゲート2−1が開放し、さらに、直
進するのでゲート2−2が開放をする。以上により、ロ
ボット51がルームCを1周したことになる。
【0044】従って、この場合は、RNN1−1が左に曲
がるパターンを記憶し、RNN1−2が直進するパターン
を記憶し、RNN1−5が分岐点のパターンを記憶してい
ることになる。
【0045】一方、図9に示すように、ルームDにおい
ては、ゲート2−1とゲート2−2は、図8におけるル
ームCの場合と同様に、それぞれ左へ曲がる場合、また
は直進する場合にそれぞれ開放し、ゲート2−4は、右
に曲がる場合に開放する。従って、RNN1−4は、右に
曲がる場合のパターンを記憶していることになる。
【0046】図10は、上位の階層のゲート12−1乃
至12−5の開放状態を表している。同図に示すよう
に、ルームCにおけるロボット51の移動は、ゲート1
2−2とゲート12−4の開放の繰り返しとして認識さ
れ、ルームDにおける移動は、ゲート12−5の開放と
して認識されている。
【0047】このように、より上位の階層のRNN11−
1乃至11−nでは、ルーム単位の識別も可能となる。
【0048】図11は、各ゲートの開放している周期I
T(実線)と予測誤差(破線)の変化を表している。ル
ームCからルームDに、ステップS36で移動すると
き、予測誤差が大きくなっているが、それより前、ある
いはそれより後においては、予測誤差の値は小さくなっ
ている。
【0049】上位の階層のRNN11−1乃至11−n
で、ゲート係数の時系列を学習させる場合、ゲート係数
の時系列データは滑らかに変化するので、その特徴を抽
出し、学習させてもよい。また、ゲートの開放する時間
を学習させるようにしてもよい。
【0050】例えば、ゲート12−1乃至12−3の開
閉度が、図12に示すように、時間の経過にともなって
変化するとき、、各ゲートのうち、1つのゲートがウィ
ナーとなったとき、そのウィナーとなっている時間をテ
ーブルに表すと、図13に示すようになる。同図に示す
ように、ステップS1においては、ゲート12−1がウ
ィナーとなり、その時間は20秒である。また、ステッ
プS2において、ゲート12−2がウィナーとなり、そ
の時間は30秒であり、ステップS3においては、ゲー
ト12−3がウィナーとなり、その継続時間は40秒で
ある。
【0051】この図13のデータは、図14に示すよう
に、正規化して表すことができる。同図において、ゲー
トのウィナーは1.0で表され、時間は、単位時間(1
00秒)に対する割合として示されている。
【0052】このような絶対時間または正規化した時間
を学習させるようにしてもよい。
【0053】上記実施の形態においては、RNNを用い
て、時系列データのパターンを判定(記憶)するように
したが、例えば、図15に示すように、RNN1−1乃至
1−nに代えて、回帰型多変量解析の処理を行うモジュ
ール61−1乃至61−nを用いるようにしてもよい。
すなわち、モジュール61−iは、次式を演算する。
【0054】
【数7】
【0055】ここで、fは非線形関数であり、Wは所定
の係数である。
【0056】例えば、xt+1=ax2 t+bxt+cの式で
表すこともできる。この場合、a,b,cが、係数Wに
対応する。
【0057】あるいはまた、各モジュールの行う演算式
を(9)式のように、差分方程式で表したり、(10)
式で示すように、微分方程式で表現することもできる。
【0058】
【数8】
【数9】
【0059】以上の実施の形態においては、時系列に出
力されるロボットのデータを処理する場合を例として説
明したが、例えば、図16に示すように、時々刻々と変
化する楽音信号を、各パターンP1,P2,P1,P
3,P2のように、自動的に順次文節化することができ
る。すなわち、上記した各RNN1−1乃至1−nが、こ
れらのパターンP1,P2,P3,・・・をそれぞれ選
択的に記憶し、入力される時系列データから記憶したパ
ターンを検出したとき、検出信号を対応するゲートを介
して出力することになる。このようにして、例えば、音
楽の所定のフレーズを学習し、これを検出することが可
能となる。
【0060】また、以上の原理を利用して、楽音信号を
合成することも可能である。図17は、この場合の構成
例を表している。
【0061】すなわち、同図に示すように、この構成例
においては、合成回路3の出力が、RNN1−1乃至1−
nに帰還されている。また、上位の階層においても、合
成回路13の出力が、RNN11−1乃至11−nに帰還
されている。そして、下位のゲート2−1乃至2−n
は、上位の階層の合成回路13の出力で、その開閉度が
制御される。RNN1−1乃至1−n,11−1乃至11
−nに所定のパターンを記憶させることで、例えば、図
16に示したパターンP1をRNN1−1に発生させ、パ
ターンP2をRNN1−2に発生させ、パターンP3をRNN
1−3(図示せず)に発生させることができる。いずれ
のパターンを発生させるかは、上位の階層のゲートシー
ケンスで制御される。
【0062】この図17の構成をロボットに応用すれ
ば、そのロボットは、実際に移動を行わなくても、移動
を連想することができることになる。
【0063】本発明は、このほか、例えば、人間の動き
を学習し、コンピュータシステム上のエージェントに学
習させ、同一の動きを生成する場合にも、応用すること
が可能である。
【0064】なお、上記したような処理を行うコンピュ
ータプログラムをユーザに伝送する伝送媒体としては、
磁気ディスク、CD-ROM、固体メモリなどの記録媒体の
他、ネットワーク、衛星などの通信媒体を利用すること
ができる。
【0065】
【発明の効果】以上の如く、請求項1に記載のデータ処
理装置、請求項5に記載のデータ処理方法、および請求
項6に記載の伝送媒体によれば、入力される時系列デー
タのパターンを判定し、その判定結果をゲートし、ゲー
ト後の出力を合成するようにしたので、時系列データの
パターンを時間方向に文節化し、検出処理することが可
能となる。
【図面の簡単な説明】
【図1】本発明のデータ処理装置の構成例を示すブロッ
ク図である。
【図2】図1のRNN1−1の構成例を示す図である。
【図3】図1のRNN11−1の構成例を示す図である。
【図4】ロボットの移動するルームの例を示す図であ
る。
【図5】ロボットの移動するルームの例を示す図であ
る。
【図6】ロボットの移動に対応して発生する時系列のデ
ータを示す図である。
【図7】ロボットの移動するルームの例を示す図であ
る。
【図8】ロボットが図7のルームCを移動した場合のゲ
ートの変化を示す図である。
【図9】ロボットが図7のルームDを移動した場合のゲ
ートの変化を示す図である。
【図10】ロボットが図7のルームCとルームDを移動
した場合の上位の階層のゲートの開閉度の変化を示す図
である。
【図11】ロボットが図7のルームCとルームDを移動
した場合のゲートの開放している時間の周期の変化と予
測誤差の変化を示す図である。
【図12】ゲートの開閉度の変化を示す図である。
【図13】図12の開放しているゲートとその開放時間
の対応関係を表す図である。
【図14】図13の対応関係を正規化した状態を示す図
である。
【図15】本発明のデータ処理装置の他の構成例を示す
図である。
【図16】音声データの変化を示す図である。
【図17】本発明のデータ処理装置のさらに他の構成例
を示すブロック図である。
【符号の説明】
1−1乃至1−n リカレント型ニューラルネットワー
ク, 2−1乃至2−n ゲート, 3 合成回路,
11−1乃至11−n リカレント型ニューラルネット
ワーク, 12−1乃至12−n ゲート, 13 合
成回路

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 入力される時系列データのパターンを判
    定する複数の判定手段と、 複数の前記判定手段の判定結果をそれぞれゲートする複
    数のゲート手段と、 複数の前記ゲート手段の出力を合成する合成手段とを備
    えることを特徴とするデータ処理装置。
  2. 【請求項2】 前記判定手段、ゲート手段、および合成
    手段は、階層構造とされていることを特徴とする請求項
    1に記載のデータ処理装置。
  3. 【請求項3】 前記判定手段は、リカレント型ニューラ
    ルネットワークであることを特徴とする請求項1に記載
    のデータ処理装置。
  4. 【請求項4】 前記判定手段は、回帰型多変量解析によ
    り判定を行うことを特徴とする請求項1に記載のデータ
    処理装置。
  5. 【請求項5】 入力される時系列データのパターンを判
    定する複数の判定ステップと、 複数の前記判定ステップの判定結果をそれぞれゲートす
    る複数のゲートステップと、 複数の前記ゲートステップの出力を合成する合成ステッ
    プとを備えることを特徴とするデータ処理方法。
  6. 【請求項6】 入力される時系列データのパターンを判
    定する複数の判定ステップと、 複数の前記判定ステップの判定結果をそれぞれゲートす
    る複数のゲートステップと、 複数の前記ゲートステップの出力を合成する合成ステッ
    プとを備えるコンピュータプログラムを伝送することを
    特徴とする伝送媒体。
JP28969297A 1997-10-22 1997-10-22 データ処理装置および方法 Expired - Fee Related JP3922407B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28969297A JP3922407B2 (ja) 1997-10-22 1997-10-22 データ処理装置および方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28969297A JP3922407B2 (ja) 1997-10-22 1997-10-22 データ処理装置および方法

Publications (2)

Publication Number Publication Date
JPH11126198A true JPH11126198A (ja) 1999-05-11
JP3922407B2 JP3922407B2 (ja) 2007-05-30

Family

ID=17746522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28969297A Expired - Fee Related JP3922407B2 (ja) 1997-10-22 1997-10-22 データ処理装置および方法

Country Status (1)

Country Link
JP (1) JP3922407B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002081157A1 (fr) * 2001-04-03 2002-10-17 Sony Corporation Robot mobile a deux jambes, procede de commande de mouvement et support de stockage
JP2005056340A (ja) * 2003-08-07 2005-03-03 Sony Corp 情報処理装置および方法、プログラム格納媒体、並びにプログラム
US7725412B2 (en) 2006-04-06 2010-05-25 Sony Corporation Identifying temporal sequences using a recurrent self organizing map
US7877338B2 (en) 2006-05-15 2011-01-25 Sony Corporation Information processing apparatus, method, and program using recurrent neural networks
US7953683B2 (en) 2006-04-06 2011-05-31 Sony Corporation Learning apparatus, learning method, and program for efficiently learning dynamics

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002081157A1 (fr) * 2001-04-03 2002-10-17 Sony Corporation Robot mobile a deux jambes, procede de commande de mouvement et support de stockage
US7024276B2 (en) 2001-04-03 2006-04-04 Sony Corporation Legged mobile robot and its motion teaching method, and storage medium
JP2005056340A (ja) * 2003-08-07 2005-03-03 Sony Corp 情報処理装置および方法、プログラム格納媒体、並びにプログラム
US7725412B2 (en) 2006-04-06 2010-05-25 Sony Corporation Identifying temporal sequences using a recurrent self organizing map
US7953683B2 (en) 2006-04-06 2011-05-31 Sony Corporation Learning apparatus, learning method, and program for efficiently learning dynamics
US7877338B2 (en) 2006-05-15 2011-01-25 Sony Corporation Information processing apparatus, method, and program using recurrent neural networks

Also Published As

Publication number Publication date
JP3922407B2 (ja) 2007-05-30

Similar Documents

Publication Publication Date Title
Bengio et al. Learning a synaptic learning rule
Levin Word recognition using hidden control neural architecture
CN109131348B (zh) 一种基于生成式对抗网络的智能车驾驶决策方法
CN106897268A (zh) 文本语义理解方法、装置和系统
WO2005024718A1 (en) An artificial neural network
KR100306848B1 (ko) 신경회로망을 이용한 선택적 주의집중 방법
Nauck Beyond neuro-fuzzy: perspectives and directions
Santini et al. Block-structured recurrent neural networks
JPH11126198A (ja) データ処理装置および方法、並びに伝送媒体
Su et al. Incremental learning with balanced update on receptive fields for multi-sensor data fusion
Xue et al. Analyses of the hidden units of the multi-layer perceptron and its application in acoustic-to-articulatory mapping
Lockett et al. Temporal convolution machines for sequence learning
Artuñedo et al. Machine learning based motion planning approach for intelligent vehicles
Guo et al. Temporal difference learning applied to sequential detection
Stavrakoudis et al. A recurrent fuzzy neural network for adaptive speech prediction
Bakker et al. Neural learning of chaotic dynamics: the error propagation algorithm
JPH06175998A (ja) 時系列予測方法
JPH09138786A (ja) ニューラルネットワークの学習装置
Tomar et al. Deep Learning Classifiers used in Speech Processing: A Literature Review
Wahab et al. HCMAC amplitude spectral subtraction for noise cancellation
Sudharsanan Equilibrium characterization for a class of dynamical neural networks with applications to learning and synthesis
Tlemsani et al. A Hybrid Evolutionary Neural Networks Training applied to Phonetic Classification
TW202328983A (zh) 基於混合神經網絡的目標跟蹤學習方法及系統
Ecimovic et al. Delay-driven contrast enhancement using a cellular neural network with state-dependent delay
Apolloni et al. Processing of instrumentation tracks via Recurrent Neural Networks

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060615

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070214

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100302

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110302

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120302

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees