JPH11126198A - データ処理装置および方法、並びに伝送媒体 - Google Patents
データ処理装置および方法、並びに伝送媒体Info
- Publication number
- JPH11126198A JPH11126198A JP9289692A JP28969297A JPH11126198A JP H11126198 A JPH11126198 A JP H11126198A JP 9289692 A JP9289692 A JP 9289692A JP 28969297 A JP28969297 A JP 28969297A JP H11126198 A JPH11126198 A JP H11126198A
- Authority
- JP
- Japan
- Prior art keywords
- gate
- pattern
- judging
- series data
- steps
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
- Feedback Control In General (AREA)
Abstract
きるようにする。 【解決手段】 リカレント型ニューラルネットワーク1
−1乃至1−nに、時系列データの所定のパターンを選
択的に記憶させ、入力された時系列データに学習したパ
ターンが現れたとき、その検出信号を出力させる。この
検出信号は、ゲート2−1乃至2−nを介して合成回路
3で合成される。ゲート2−1乃至2−nの開放状態に
対応するゲートシーケンスは、上位の階層のリカレント
型ニューラルネットワーク11−1乃至11−nに入力
される。各リカレント型ニューラルネットワーク11−
1乃至11−nは、記憶したパターンを検出すると、そ
の検出信号をゲート12−1乃至12−nを介して出力
する。このように、ネットワークを階層構造にすること
により、時系列データを自動的に文節化することができ
る。
Description
よび方法、並びに伝送媒体に関し、特に、時系列データ
を自動的に文節化し、処理することができるようにし
た、データ処理装置および方法、並びに伝送媒体に関す
る。
析、統計的手法、ニューラルネットなどがある。ジャコ
ブス(R.A.Jacobs)と、ジョーダン(M.I.Jordan)は、
module of experts networkにより、多様な空間的なパ
ターンを有限数のエキスパートに自動的に割り当てる形
で問題を分割し、かつ階層的に学習することを提案して
いる(Adaptive mixtures of local experts. Neural C
omputation, vol. 3, No.1,pp. 79-87,1991)。
た提案においては、入力されたデータを時間方向に、自
動的に文節化する手段が開示されておらず、ロボットの
センサモータに代表される連続時系列データから、文節
化の構造を学習したり、その学習した構造から、元の時
系列を再構成することができないという課題があった。
ものであり、時系列データのパターンを階層的に学習
し、生成することができるようにするものである。
処理装置は、入力される時系列データのパターンを判定
する複数の判定手段と、複数の判定手段の判定結果をそ
れぞれゲートする複数のゲート手段と、複数のゲート手
段の出力を合成する合成手段とを備えることを特徴とす
る。
される時系列データのパターンを判定する複数の判定ス
テップと、複数の判定ステップの判定結果をそれぞれゲ
ートする複数のゲートステップと、複数のゲートステッ
プの出力を合成する合成ステップとを備えることを特徴
とする。
時系列データのパターンを判定する複数の判定ステップ
と、複数の判定ステップの判定結果をそれぞれゲートす
る複数のゲートステップと、複数のゲートステップの出
力を合成する合成ステップとを備えるコンピュータプロ
グラムを伝送することを特徴とする。
5に記載のデータ処理方法、および請求項6に記載の伝
送媒体においては、入力される時系列データのパターン
が判定され、判定結果がゲートされる。そして、ゲート
後の出力が合成される。
するが、特許請求の範囲に記載の発明の各手段と以下の
実施の形態との対応関係を明らかにするために、各手段
の後の括弧内に、対応する実施の形態(但し一例)を付
加して本発明の特徴を記述すると、次のようになる。但
し勿論この記載は、各手段を記載したものに限定するこ
とを意味するものではない。
される時系列データのパターンを判定する複数の判定手
段(例えば、図1のリカレント型ニューラルネットワー
ク1−1乃至1−n)と、複数の判定手段の判定結果を
それぞれゲートする複数のゲート手段(例えば、図1の
ゲート2−1乃至2−n)と、複数のゲート手段の出力
を合成する合成手段(例えば、図1の合成回路3)とを
備えることを特徴とする。
の構成例を示している。このデータ処理装置は、例え
ば、ロボットなどに組み込まれるものである。そのロボ
ットには、障害物を検出するセンサと、ロボットを移動
させるために駆動されるモータ(いずれも図示せず)が
具備されている。
ク(RNN)1−1乃至1−nには、センサとモータの状
態に対応する入力xtが入力されている。
ーク1−1の構成例を表している。なお、図示は省略す
るが、他のリカレント型ニューラルネットワーク1−2
乃至1−nも、リカレント型ニューラルネットワーク1
−1と同様に構成されている。
ルネットワーク1−1は、所定の数の入力層のニューロ
ン31を有し、このニューロン31に、センサの状態に
対応する入力stと、モータの状態に対応する入力mtが
入力されている。ニューロン31の出力は、中間層のニ
ューロン32を介して、出力層のニューロン33に供給
されるようになされている。そして、出力層のニューロ
ン33からは、リカレント型ニューラルネットワーク1
−1のセンサの状態に対応する出力st+1と、モータの
状態に対応する出力mt+1が出力されるようになされて
いる。また、出力の一部は、コンテキスト(context)
Ctとして、入力層のニューロン31にフィードバック
されるようになされている。
1乃至1−nの出力は、対応するゲート2−1乃至2−
nを介して合成回路3に入力され、合成され、予測出力
yt+ 1が出力されるようになされている。
値y* t+1と、各RNN1−1乃至1−nの出力の誤差が、
対応するゲート2−1乃至2−nの状態を制御するよう
になされている。
ト2−1乃至2−n、および合成回路3と同様の構成
が、より上位の階層にも形成されている。すなわち、上
位の階層には、RNN11−1乃至11−n、ゲート12
−1乃至12−n、および合成回路13が設けられてい
る。そして、RNN11−1乃至11−nには、下位の階
層のゲート2−1乃至2−nの導通状態(開閉度)に対
応するシーケンス(ゲートシーケンス)Gtが入力され
るようになされている。そして、各RNN11−1乃至1
1−nからは、出力G1 T+1乃至Gn T+1が出力され、合成
回路13からは、予測出力GT+1が出力されるようにな
されている。また、学習時においては、教師信号とし
て、目標値G* T+1が入力されている。
ているが、必要に応じて、さらに、より上位の階層を設
けることも可能である。
を表している。なお、他のRNN11−2乃至11−n
も、RNN11−1と同様の構成とされている。
的に、図2に示したRNN1−1と同様に構成されてお
り、入力層には複数のニューロン41が、中間層には複
数のニューロン42が、そして出力層には複数のニュー
ロン43が配置されている。入力層には、ゲート2−1
乃至2−nの導通状態に対応する信号g1 T乃至gn Tが入
力されるとともに、ゲートの導通(開放)している周期
(時間)ITが入力される。出力層からは、これらの入
力に対応して、出力g1 T+1乃至gn T+1と、IT+1が出力
される。また、出力層の出力の一部は、コンテキストC
Tとして入力層にフィードバックされている。
ズムについて説明する。ゲートの導通状態は、ソフトマ
ックス(soft-max)のアクティベーションファンクショ
ンを用いて、次式で示すように表される。
態に対応するゲート係数を表し、siは、i番目のゲー
トの導通状態の内部状態に対応する値を表している。従
って、合成回路3の出力yt+1は、次式で表される。
で示す尤度関数を定義する。
ータを表している。
とゲート係数gは、尤度関数が最大となるように同時に
更新される。認識時においては、ゲート係数だけが更新
される。
ルールを確立するために、尤度関数の指数関数の内部変
数siに関する傾きと、i番目のRNNの出力yiに関する
傾きを次式のように求める。
目のRNNが入力xtのとき、目標出力y* t+1を発生する事
象後確率を意味し、次式で表される。
予測の自乗誤差を表している。
している。また、(5)式に示されるように、尤度関数
の指数関数のyi t+1に関する傾きは、誤差条件y* t+1−
yi t +1の誤差項を含んでいる。この誤差項は、i番目の
RNNの事象後確率により重み付けされている。
係数は、事象後確率にのみ比例して、i番目のRNNの出
力と目標値の誤差を補正するように調整される。これに
よりn個のRNNのうち、1つのエキスパートRNNだけが、
与えられたトレーニングパターンを排他的に学習するよ
うになされる。各RNNの誤差は、次式で表される。
記式で得られた誤差に基づいてバックプロパゲーション
法により実行される。
力xtのうち、それぞれ他と異なる所定の時系列パター
ンを識別することができるエキスパートとなるように、
学習が行われる。
N11−1乃至11−nにおいても同様である。ただ
し、この場合における入力は、ゲートシーケンスGTで
あり、その出力は、Gi T+1となる。
または図5に示すようなルームAまたはルームBを移動
させる実験を行った。図6は、図4のルームAを20方
向の距離センサを持つロボット51が移動した場合にお
ける20次元の距離センサの状態の時系列的な変化を表
している。図6においては、四角形の各ドットの大きさ
が、障害物までの距離の近さを表している(四角形が大
きいほど、距離が近い)。
し、その間に下位層を自己組織化する。さらに、下位の
階層のネットワークにおける自己組織化を調べるため
に、図7に示すように、異なる形状のルームCとルーム
Dが、ドア52を介して連結されている空間を、ロボッ
ト51に移動させる実験を行った。なお、ロボット51
の各階層のRNN1−1乃至1−nとRNN11−1乃至11
−nの数は、それぞれ5個(n=5)とされている。
た場合のモータへの入力(実線)と、5個のゲートの変
化を表している。同様に、図9は、ロボット51がルー
ムDを移動した場合のモータの入力と、各ゲートの変化
を表している。
ゲート2−2は、ロボット51が直進するとき開閉度が
高くなり、ゲート2−5は、ロボット51が分岐点を通
過するとき開閉度が高くなり、ゲート2−1は、ロボッ
ト51が左方向に曲がるとき開閉度が高くなる。図7に
示すように、ルームCにおいては、ロボット51は、最
初に直進するのでゲート2−2が先ず開放し、次に、分
岐点を通過するのでゲート4が開放し、次に、左方向に
曲がるのでゲート2−1が開放し、さらに、直進するの
でゲート2−2が開放し、また、左方向に曲がるのでゲ
ート2−1が開放し、直進するのでゲート2−2が開放
し、左に曲がるのでゲート2−1が開放し、さらに、直
進するのでゲート2−2が開放をする。以上により、ロ
ボット51がルームCを1周したことになる。
がるパターンを記憶し、RNN1−2が直進するパターン
を記憶し、RNN1−5が分岐点のパターンを記憶してい
ることになる。
ては、ゲート2−1とゲート2−2は、図8におけるル
ームCの場合と同様に、それぞれ左へ曲がる場合、また
は直進する場合にそれぞれ開放し、ゲート2−4は、右
に曲がる場合に開放する。従って、RNN1−4は、右に
曲がる場合のパターンを記憶していることになる。
至12−5の開放状態を表している。同図に示すよう
に、ルームCにおけるロボット51の移動は、ゲート1
2−2とゲート12−4の開放の繰り返しとして認識さ
れ、ルームDにおける移動は、ゲート12−5の開放と
して認識されている。
1乃至11−nでは、ルーム単位の識別も可能となる。
T(実線)と予測誤差(破線)の変化を表している。ル
ームCからルームDに、ステップS36で移動すると
き、予測誤差が大きくなっているが、それより前、ある
いはそれより後においては、予測誤差の値は小さくなっ
ている。
で、ゲート係数の時系列を学習させる場合、ゲート係数
の時系列データは滑らかに変化するので、その特徴を抽
出し、学習させてもよい。また、ゲートの開放する時間
を学習させるようにしてもよい。
閉度が、図12に示すように、時間の経過にともなって
変化するとき、、各ゲートのうち、1つのゲートがウィ
ナーとなったとき、そのウィナーとなっている時間をテ
ーブルに表すと、図13に示すようになる。同図に示す
ように、ステップS1においては、ゲート12−1がウ
ィナーとなり、その時間は20秒である。また、ステッ
プS2において、ゲート12−2がウィナーとなり、そ
の時間は30秒であり、ステップS3においては、ゲー
ト12−3がウィナーとなり、その継続時間は40秒で
ある。
に、正規化して表すことができる。同図において、ゲー
トのウィナーは1.0で表され、時間は、単位時間(1
00秒)に対する割合として示されている。
を学習させるようにしてもよい。
て、時系列データのパターンを判定(記憶)するように
したが、例えば、図15に示すように、RNN1−1乃至
1−nに代えて、回帰型多変量解析の処理を行うモジュ
ール61−1乃至61−nを用いるようにしてもよい。
すなわち、モジュール61−iは、次式を演算する。
の係数である。
表すこともできる。この場合、a,b,cが、係数Wに
対応する。
を(9)式のように、差分方程式で表したり、(10)
式で示すように、微分方程式で表現することもできる。
力されるロボットのデータを処理する場合を例として説
明したが、例えば、図16に示すように、時々刻々と変
化する楽音信号を、各パターンP1,P2,P1,P
3,P2のように、自動的に順次文節化することができ
る。すなわち、上記した各RNN1−1乃至1−nが、こ
れらのパターンP1,P2,P3,・・・をそれぞれ選
択的に記憶し、入力される時系列データから記憶したパ
ターンを検出したとき、検出信号を対応するゲートを介
して出力することになる。このようにして、例えば、音
楽の所定のフレーズを学習し、これを検出することが可
能となる。
合成することも可能である。図17は、この場合の構成
例を表している。
においては、合成回路3の出力が、RNN1−1乃至1−
nに帰還されている。また、上位の階層においても、合
成回路13の出力が、RNN11−1乃至11−nに帰還
されている。そして、下位のゲート2−1乃至2−n
は、上位の階層の合成回路13の出力で、その開閉度が
制御される。RNN1−1乃至1−n,11−1乃至11
−nに所定のパターンを記憶させることで、例えば、図
16に示したパターンP1をRNN1−1に発生させ、パ
ターンP2をRNN1−2に発生させ、パターンP3をRNN
1−3(図示せず)に発生させることができる。いずれ
のパターンを発生させるかは、上位の階層のゲートシー
ケンスで制御される。
ば、そのロボットは、実際に移動を行わなくても、移動
を連想することができることになる。
を学習し、コンピュータシステム上のエージェントに学
習させ、同一の動きを生成する場合にも、応用すること
が可能である。
ータプログラムをユーザに伝送する伝送媒体としては、
磁気ディスク、CD-ROM、固体メモリなどの記録媒体の
他、ネットワーク、衛星などの通信媒体を利用すること
ができる。
理装置、請求項5に記載のデータ処理方法、および請求
項6に記載の伝送媒体によれば、入力される時系列デー
タのパターンを判定し、その判定結果をゲートし、ゲー
ト後の出力を合成するようにしたので、時系列データの
パターンを時間方向に文節化し、検出処理することが可
能となる。
ク図である。
る。
る。
ータを示す図である。
る。
ートの変化を示す図である。
ートの変化を示す図である。
した場合の上位の階層のゲートの開閉度の変化を示す図
である。
した場合のゲートの開放している時間の周期の変化と予
測誤差の変化を示す図である。
の対応関係を表す図である。
である。
図である。
を示すブロック図である。
ク, 2−1乃至2−n ゲート, 3 合成回路,
11−1乃至11−n リカレント型ニューラルネット
ワーク, 12−1乃至12−n ゲート, 13 合
成回路
Claims (6)
- 【請求項1】 入力される時系列データのパターンを判
定する複数の判定手段と、 複数の前記判定手段の判定結果をそれぞれゲートする複
数のゲート手段と、 複数の前記ゲート手段の出力を合成する合成手段とを備
えることを特徴とするデータ処理装置。 - 【請求項2】 前記判定手段、ゲート手段、および合成
手段は、階層構造とされていることを特徴とする請求項
1に記載のデータ処理装置。 - 【請求項3】 前記判定手段は、リカレント型ニューラ
ルネットワークであることを特徴とする請求項1に記載
のデータ処理装置。 - 【請求項4】 前記判定手段は、回帰型多変量解析によ
り判定を行うことを特徴とする請求項1に記載のデータ
処理装置。 - 【請求項5】 入力される時系列データのパターンを判
定する複数の判定ステップと、 複数の前記判定ステップの判定結果をそれぞれゲートす
る複数のゲートステップと、 複数の前記ゲートステップの出力を合成する合成ステッ
プとを備えることを特徴とするデータ処理方法。 - 【請求項6】 入力される時系列データのパターンを判
定する複数の判定ステップと、 複数の前記判定ステップの判定結果をそれぞれゲートす
る複数のゲートステップと、 複数の前記ゲートステップの出力を合成する合成ステッ
プとを備えるコンピュータプログラムを伝送することを
特徴とする伝送媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP28969297A JP3922407B2 (ja) | 1997-10-22 | 1997-10-22 | データ処理装置および方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP28969297A JP3922407B2 (ja) | 1997-10-22 | 1997-10-22 | データ処理装置および方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11126198A true JPH11126198A (ja) | 1999-05-11 |
JP3922407B2 JP3922407B2 (ja) | 2007-05-30 |
Family
ID=17746522
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP28969297A Expired - Fee Related JP3922407B2 (ja) | 1997-10-22 | 1997-10-22 | データ処理装置および方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3922407B2 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002081157A1 (fr) * | 2001-04-03 | 2002-10-17 | Sony Corporation | Robot mobile a deux jambes, procede de commande de mouvement et support de stockage |
JP2005056340A (ja) * | 2003-08-07 | 2005-03-03 | Sony Corp | 情報処理装置および方法、プログラム格納媒体、並びにプログラム |
US7725412B2 (en) | 2006-04-06 | 2010-05-25 | Sony Corporation | Identifying temporal sequences using a recurrent self organizing map |
US7877338B2 (en) | 2006-05-15 | 2011-01-25 | Sony Corporation | Information processing apparatus, method, and program using recurrent neural networks |
US7953683B2 (en) | 2006-04-06 | 2011-05-31 | Sony Corporation | Learning apparatus, learning method, and program for efficiently learning dynamics |
-
1997
- 1997-10-22 JP JP28969297A patent/JP3922407B2/ja not_active Expired - Fee Related
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002081157A1 (fr) * | 2001-04-03 | 2002-10-17 | Sony Corporation | Robot mobile a deux jambes, procede de commande de mouvement et support de stockage |
US7024276B2 (en) | 2001-04-03 | 2006-04-04 | Sony Corporation | Legged mobile robot and its motion teaching method, and storage medium |
JP2005056340A (ja) * | 2003-08-07 | 2005-03-03 | Sony Corp | 情報処理装置および方法、プログラム格納媒体、並びにプログラム |
US7725412B2 (en) | 2006-04-06 | 2010-05-25 | Sony Corporation | Identifying temporal sequences using a recurrent self organizing map |
US7953683B2 (en) | 2006-04-06 | 2011-05-31 | Sony Corporation | Learning apparatus, learning method, and program for efficiently learning dynamics |
US7877338B2 (en) | 2006-05-15 | 2011-01-25 | Sony Corporation | Information processing apparatus, method, and program using recurrent neural networks |
Also Published As
Publication number | Publication date |
---|---|
JP3922407B2 (ja) | 2007-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Bengio et al. | Learning a synaptic learning rule | |
Levin | Word recognition using hidden control neural architecture | |
CN109131348B (zh) | 一种基于生成式对抗网络的智能车驾驶决策方法 | |
CN106897268A (zh) | 文本语义理解方法、装置和系统 | |
WO2005024718A1 (en) | An artificial neural network | |
KR100306848B1 (ko) | 신경회로망을 이용한 선택적 주의집중 방법 | |
Nauck | Beyond neuro-fuzzy: perspectives and directions | |
Santini et al. | Block-structured recurrent neural networks | |
JPH11126198A (ja) | データ処理装置および方法、並びに伝送媒体 | |
Su et al. | Incremental learning with balanced update on receptive fields for multi-sensor data fusion | |
Xue et al. | Analyses of the hidden units of the multi-layer perceptron and its application in acoustic-to-articulatory mapping | |
Lockett et al. | Temporal convolution machines for sequence learning | |
Artuñedo et al. | Machine learning based motion planning approach for intelligent vehicles | |
Guo et al. | Temporal difference learning applied to sequential detection | |
Stavrakoudis et al. | A recurrent fuzzy neural network for adaptive speech prediction | |
Bakker et al. | Neural learning of chaotic dynamics: the error propagation algorithm | |
JPH06175998A (ja) | 時系列予測方法 | |
JPH09138786A (ja) | ニューラルネットワークの学習装置 | |
Tomar et al. | Deep Learning Classifiers used in Speech Processing: A Literature Review | |
Wahab et al. | HCMAC amplitude spectral subtraction for noise cancellation | |
Sudharsanan | Equilibrium characterization for a class of dynamical neural networks with applications to learning and synthesis | |
Tlemsani et al. | A Hybrid Evolutionary Neural Networks Training applied to Phonetic Classification | |
TW202328983A (zh) | 基於混合神經網絡的目標跟蹤學習方法及系統 | |
Ecimovic et al. | Delay-driven contrast enhancement using a cellular neural network with state-dependent delay | |
Apolloni et al. | Processing of instrumentation tracks via Recurrent Neural Networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20051227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060223 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060417 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060615 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20061107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070201 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070214 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100302 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110302 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120302 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |