JP2002236904A - データ処理装置および方法、記録媒体、並びにプログラム - Google Patents

データ処理装置および方法、記録媒体、並びにプログラム

Info

Publication number
JP2002236904A
JP2002236904A JP2001031788A JP2001031788A JP2002236904A JP 2002236904 A JP2002236904 A JP 2002236904A JP 2001031788 A JP2001031788 A JP 2001031788A JP 2001031788 A JP2001031788 A JP 2001031788A JP 2002236904 A JP2002236904 A JP 2002236904A
Authority
JP
Japan
Prior art keywords
data
neural network
processing
input
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2001031788A
Other languages
English (en)
Inventor
Atsushi Tani
淳 谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2001031788A priority Critical patent/JP2002236904A/ja
Priority to US10/072,333 priority patent/US6792413B2/en
Publication of JP2002236904A publication Critical patent/JP2002236904A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/049Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【課題】 より複雑な時系列データを記憶し、想起でき
るようにする。 【解決手段】 上位の階層のリカレント型ニューラルネ
ットワーク(RNN)42により、周期の長いパラメータ
Tを生成し、演算部43を介して下位の階層のRNN41
の入力層51に供給させる。RNN41は、この入力をパ
ラメータとして、周期の短い他の入力xtを演算する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、データ処理装置お
よび方法、記録媒体、並びにプログラムに関し、特に、
複雑な時系列データを簡単かつ確実に記憶させ、想起さ
せることができるようにした、データ処理装置および方
法、記録媒体、並びにプログラムに関する。
【0002】
【従来の技術】本出願人は、特開平11−126198
号公報として、リカレント型ニューラルネットワークを
用いて、時系列データを発生させることを先に提案し
た。
【0003】この提案においては、図1に示されるよう
に、装置が、基本的に、リカレント型ニューラルネット
ワーク(RNN)1−1乃至1−nを有する下位の階層の
ネットワークと、RNN11−1乃至11−nを有する上
位の階層のネットワークとで構成される。
【0004】上位の階層のネットワークにおいては、RN
N1−1乃至1−nの出力が、それぞれ対応するゲート
2−1乃至2−nを介して、合成回路3に供給され、合
成される。
【0005】上位の階層のネットワークにおいても、RN
N11−1乃至11−nの出力が、対応するゲート12
−1乃至12−nを介して合成回路13に供給され、合
成される。そして、上位の階層の合成回路13の出力に
基づいて、下位の階層のゲート2−1乃至2−nのオ
ン、オフが制御される。
【0006】下位の階層のRNN1−1乃至1−nに、そ
れぞれパターンP1乃至Pnを発生させ、上位の階層の
合成回路13の出力に基づいて、下位の階層のゲート2
−1乃至2−nのうちの所定のものをオンまたはオフさ
せるようにすることで、合成回路3からRNN1−1乃至
1−nのうちの所定のものが発生したパターンP1乃至
Pnのいずれかを選択的に出力させることができる。
【0007】これにより、例えば、図2に示されるよう
に、所定の時間、パターンP1を発生させた後、次の所
定の時間、パターンP2を発生させ、さらに、その次の
所定の時間、再びパターンP1を発生させるなどして、
時系列的に変化するパターンを発生させることができ
る。
【0008】
【発明が解決しようとする課題】しかしながら、先の提
案は、ゲート2−1乃至2−nにより、いわゆるウィナ
ーテイクオール(Winner-take-all)の動作を実行させ
るようにしているため、複雑なパターンを記憶し、発生
させることが困難である課題があった。
【0009】本発明はこのような状況に鑑みてなされた
ものであり、複雑なパターンでも、簡単かつ確実に記憶
し、発生させることができるようにするものである。
【0010】
【課題を解決するための手段】本発明のデータ処理装置
は、入力端子から入力されるデータに対して非線形の所
定の関数を適用する処理を行う第1のリカレント型ニュ
ーラルネットワークを含み、第1のリカレント型ニュー
ラルネットワークの入力端子に、時系列データで構成さ
れる第1のデータと、時系列データで構成される第2の
データの入力を受けて処理する処理手段と、入力端子か
ら入力されるデータに対して非線形の所定の関数を適用
して第2のデータを生成する処理を行う第2のリカレン
ト型ニューラルネットワークを含む生成手段と、第2の
データと、第1のリカレント型ニューラルネットワーク
のエラーバックプロパゲーション処理により生成された
第3のデータとを演算し、第4のデータを生成する演算
手段とを備えることを特徴とする。
【0011】前記生成手段は、第1のデータに較べて、
より長い周期で変化する第2のデータを生成するように
することができる。
【0012】前記演算手段は、学習時、第1のリカレン
ト型ニューラルネットワークのバックプロパゲーション
処理により生成されたデータを用いて演算を行うように
することができる。
【0013】前記演算手段は、シグモイド関数を用いて
演算を行うようにすることができる。
【0014】前記演算手段は、学習時、第1のリカレン
ト型ニューラルネットワークのバックプロパゲーション
処理により生成されたデータを利用した第1の演算と、
隣接する時空間におけるスムージングのための第2の演
算を含む演算を行うようにすることができる。
【0015】前記演算手段は、将来の予測処理時、第2
のデータの第1の演算と、隣接する時空間におけるスム
ージングのための第2の演算を含む演算を行うようにす
ることができる。前記演算手段は、過去を想起すると
き、第2のデータの第1の演算、第1のリカレント型ニ
ューラルネットワークのバックプロパゲーション処理に
より生成されたデータを利用した第2の演算、並びに、
隣接する時空間におけるスムージングのための第3の演
算を含む演算を行うようにすることができる。
【0016】本発明のデータ処理方法は、入力端子から
入力されるデータに対して非線形の所定の関数を適用す
る処理を行う第1のリカレント型ニューラルネットワー
クの入力端子に、時系列データで構成される第1のデー
タと、時系列データで構成される第2のデータの入力を
受けて処理する処理ステップと、入力端子から入力され
るデータに対して非線形の所定の関数を適用して第2の
データを生成する処理を行う第2のリカレント型ニュー
ラルネットワークを含む生成ステップと、第2のデータ
と、第1のリカレント型ニューラルネットワークのエラ
ーバックプロパゲーション処理により生成された第3の
データとを演算し、第4のデータを生成する演算ステッ
プとを含むことを特徴とする。
【0017】本発明の記録媒体のプログラムは、入力端
子から入力されるデータに対して非線形の所定の関数を
適用する処理を行う第1のリカレント型ニューラルネッ
トワークの入力端子に、時系列データで構成される第1
のデータと、時系列データで構成される第2のデータの
入力を受けて処理する処理ステップと、入力端子から入
力されるデータに対して非線形の所定の関数を適用して
第2のデータを生成する処理を行う第2のリカレント型
ニューラルネットワークを含む生成ステップと、第2の
データと、第1のリカレント型ニューラルネットワーク
のエラーバックプロパゲーション処理により生成された
第3のデータとを演算し、第4のデータを生成する演算
ステップとを含むことを特徴とする。
【0018】本発明のプログラムは、入力端子から入力
されるデータに対して非線形の所定の関数を適用する処
理を行う第1のリカレント型ニューラルネットワークの
入力端子に、時系列データで構成される第1のデータ
と、時系列データで構成される第2のデータの入力を受
けて処理する処理ステップと、入力端子から入力される
データに対して非線形の所定の関数を適用して第2のデ
ータを生成する処理を行う第2のリカレント型ニューラ
ルネットワークを含む生成ステップと、第2のデータ
と、第1のリカレント型ニューラルネットワークのエラ
ーバックプロパゲーション処理により生成された第3の
データとを演算し、第4のデータを生成する演算ステッ
プとをコンピュータに実行させる。
【0019】本発明のデータ処理装置および方法、並び
にプログラムにおいては、第2のリカレント型ニューラ
ルネットワークにより生成された第2のデータが、第1
のリカレント型ニューラルネットワークの入力端子に供
給され、第1のデータとともに処理される。
【0020】
【発明の実施の形態】図3は、本発明を適用したデータ
処理装置の構成例を表している。この装置は、基本的
に、下位の階層のリカレント型ニューラルネットワーク
(RNN)41と、上位の階層のRNN42とで構成されてい
る。そして、RNN41とRNN42の間には、演算部43が
配置されている。
【0021】RNN41は、任意の数のニューロンからな
る入力層51を有し、この入力層51に、処理対象とし
てのデータ(例えば、ロボットに装着されているセンサ
の状態に対応する入力や、モータの状態に対応する入
力)が、データxtとして入力されている。
【0022】入力層51にはまた、RNN42により生成
されたデータXTが、演算部43を介して、データXt
して入力されている。
【0023】中間層52は、入力層51から入力された
データxt,Xtに対して、所定の重み付け係数に対応す
る演算処理(非線形関数に基づく演算処理)を行った
後、任意の数のニューロンからなる出力層53に供給さ
れ、出力層53に出力する。出力層53からは、RNN4
1により、所定の非線形関数に基づく処理が行われた演
算結果としての出力x* t+1が出力される。
【0024】出力層53の出力の一部は、RNN41の内
部状態を表すコンテキスト(context)Ct+1として、入
力層51にフィードバックされる。
【0025】この出力x* t+1は、必要に応じて、誤差演
算部61に供給される。誤差演算部61は、出力x* t+1
と、図示せぬ装置から供給される教師データxt+1の差
分を演算して、予測誤差成分を生成する。誤差演算部6
1により生成された予測誤差成分は、出力層53から、
中間層52を介して入力層51に供給される(いわゆる
エラーバックプロパゲーション法による処理が行われ
る)。このときの入力層51からの出力Xtは、演算部
43に供給される。
【0026】RNN42も、基本的にRNN41と同様に構成
されており、入力層71より入力されたデータXTは、
中間層72により、所定の重み付け係数に基づく演算
(非線形関数に基づく演算)が施された後、出力層73
から出力X* T+1として出力される。
【0027】出力層73の出力の一部は、コンテキスト
T+1として、入力層71にフィードバックされる。
【0028】また、誤差演算部81は、必要に応じて、
演算部43より供給されるデータX T+1を、出力層73
の出力X* T+1から減算して、予測誤差成分を生成する。
この予測誤差成分は出力層73から、中間層72を介し
て入力層71に供給される(エラーバックプロパゲーシ
ョン法による処理が行われる)。
【0029】演算部43においては、第1項乃至第3項
の演算を含む式(1)に基づいた演算(最急降下法によ
る演算)が行われる。第1項は、RNN42により生成さ
れたデータXTに基づく演算である。第2項は、RNN1の
エラーバックプロパゲーションにより生成された成分X
bptを含む演算である。第3項は、隣接する時空間にお
けるスムージングのための(フィルタリングのための)
演算である。
【0030】
【数1】
【0031】式(1)におけるXUtは、式(2)で表
され、式(2)におけるXUtを、式(3)のシグモイ
ド関数に従って処理することで、Xtが求められる。
【0032】
【数2】
【0033】
【数3】
【0034】次に、この装置を用いて、例えばロボット
装置91(後述する図8)を制御する場合の動作につい
て説明する。この場合の処理は、過去を想起するリグレ
ッション(regression)処理と、その後に実行される将
来を予測する処理とで構成される。最初に図4のフロー
チャートを参照して、regression処理について説明す
る。
【0035】ステップS1において、RNN41は、所定
の時刻(タイミング)tの入力xtを取り込む。また、
このとき、演算部43より出力されるデータXtが同時
に取り込まれる。このデータXtは、演算部43がRNN4
2の出力層73から出力されたデータXTを、そのまま
出力したものである。すなわち、この場合、Xt=XT
ある。
【0036】RNN41は、ステップS2において、入力
されたデータxtとXtを演算し、予測値x* t+1を演算す
る。
【0037】すなわち、このとき、RNN41は、式
(4)で表されるように、Xtをパラメータとして、デ
ータxtに対して、所定の非線形の関数fを適用する。
【0038】
【数4】
【0039】なお、上記した式(4)においては、予測
値であることを表す*のマークは省略されている。
【0040】次に、ステップS3において、RNN41の
誤差演算部61は、次の時刻(タイミング)の入力x
t+1を教師データとして取り込み、ステップS4におい
て、ステップS2の処理で演算された予測値x* t+1と、
ステップS3の処理で取り込まれた教師データxt+1
の差分を演算することで、予測誤差を生成する。
【0041】RNN41は、ステップS5において、ステ
ップS4の処理で演算された予測誤差を利用して、いわ
ゆるエラーバックプロパゲーション法に基づく処理を行
う。すなわち、予測誤差が出力層53から取り込まれ、
中間層52で、所定の係数の重み付け処理が行われた
後、入力層51から出力される。このエラーバックプロ
パゲーションによる演算結果として、データdX
bptが、演算部43に供給される。
【0042】RNN42は、ステップS6において、演算
部43から供給されたデータXTを取り込むと、ステッ
プS7において、予測値X* T+1を演算する。
【0043】すなわち、このときRNN42は、データXT
に対して、式(5)で表される非線形の関数Fを適用し
て、データXT+1を演算する。
【0044】
【数5】
【0045】なお、上記式(5)においては、予測値で
あること表す*のマークは省略されている。
【0046】ステップS8において、演算部43は、入
力層51から入力された演算結果dXbptに対して、式
(3)で示されるような、シグモイド関数を適用して、
1または0のデータで構成されるデータXTを演算し、R
NN42の誤差演算部81に供給する。
【0047】ステップS8において、演算部43は、RN
N41から供給された、ステップS5の処理の結果得ら
れたデータdxbptと、ステップS7の処理で演算され
た予測値X* T+1とに基づいて、式(1)を用いてdXu
tを演算する。このとき、式(1)の第1項乃至第3項
のすべてが用いられる。
【0048】演算部43は、さらに式(2)を用いて最
急降下法により演算を行い、Xtを求める。
【0049】演算部43は、次に、ステップS9におい
て、時系列のデータXtに対して、式(3)で示される
シグモイド関数を適用して文節化し(1と0のデータに
変換し)、時系列データXTを求める。
【0050】例えば、0.5を閾値とした場合、時系列
データxtとしてのデータ(0.2,0.4,0.3,
0.6,0.7,0.8,0.4,0.3)は、時系列
データXTとしてのデータ(0,0,0,1,1,1,
0,0)となる。
【0051】以上のようなステップS1乃至ステップS
9の処理が繰り返し実行される。
【0052】過去を想起するregression処理が完了する
と、次に、将来を予測するplan処理が実行される。この
予測処理も基本的に、図4に示した場合と同様の処理と
なるが、エラーバックプロパゲーション処理は行われな
い。従って、ステップS3乃至S5の処理はスキップさ
れる。また、ステップS8の処理では、RNN42の予測
値X* T+1だけを用いた(RNN41のエラーバックプロパ
ゲーションの演算結果dXbptは用いずに)演算が行わ
れる。すなわち、式(1)の第1項と第3項を用いた処
理が行われる(第2項の演算は行われない)。
【0053】図5は、ステップS9の処理を模式的に表
している。図5Aに示されるデータxtは、時刻t毎に
所定の値に変化するが、データXTは、図5Bに示され
るように、データxtを所定の値で閾値処理すること
で、1または0の値に変換される。
【0054】図6は、RNN41により生成されるデータ
xの変化(図6における実線)と、RNN42において生
成されるデータXT(図6における点線)を模式的に表
している。同図に示されるように、データxtは、比較
的短い周期で変化するが、データXTは、比較的長い周
期で変化する。すなわち、比較的長い周期を有する関数
(パラメータ)をRNN42で規定し、比較的短い周期を
有する関数をRNN41で規定することができ、両者によ
り、複雑な時系列パターンを記憶させることができる。
【0055】すなわち、図3の例においては、上位の階
層の処理モジュールとしてのRNN42で生成されたデー
タXTが、下位の階層の処理モジュールとしてのRNN41
の入力端子に直接供給されているので、RNN41とRNN4
2により、より複雑なパターンを学習、記憶させること
が可能になる。
【0056】この点、図1に示した従来の例において
は、上位の階層の出力が、下位の階層の処理モジュール
としてのRNNに供給されるのではなく、RNNの出力を選択
するゲート制御するのに用いられるだけなので、複雑な
パターンを学習、記憶させることが困難であるのと対比
的である。
【0057】次に、図7のフローチャートを参照して、
図3の装置の学習処理について説明する。そのステップ
S21乃至S27と、ステップS31,S32の処理
は、基本的に、図4のステップS1乃至S9の処理と同
様の処理である。ただし、ステップS25の処理で、RN
N41は、エラーバックプロパゲーション法により学習
を行う。
【0058】さらに、図7では、ステップS27とS3
1の間に、ステップS28乃至S30の処理が挿入され
ている。この処理は、RNN42の学習のための処理であ
る。
【0059】すなわち、ステップS28において、RNN
42の誤差演算部81は、次の時刻の入力XT+1を教師
データとして、演算部43から取り込む。
【0060】そして、ステップS29において、誤差演
算部81は、教師データとしての入力XT+1と、予測値
* T+1の誤差を演算する。ステップS30において、RN
N42は、ステップS29の処理で生成された予測誤差
をエラーバックプロパゲーション法により学習する。
【0061】このようなステップS21乃至S32の処
理が繰り返されて、RNN41,42の各ニューロンの重
み付け係数が所定の値に設定され、式(4)と式(5)
に示される関数f,Fが規定される。
【0062】図8は、本発明を適用したロボット装置の
構成例を表している。このロボット装置91は、上述し
た図3に示されるデータ処理装置を内部に有する制御部
101、物体に作用するアーム102、アーム102を
駆動するモータ群103、並びにアーム102が保持す
る物体をモニタするモニタ部104により構成される。
【0063】モータ群103は、モータ121−1乃至
12−4の4個のモータを内蔵しており、これらのモー
タにより、アーム102の各部を駆動する。
【0064】アーム102は、その先端に、ハンド10
2A(図9)を有し、そこには、物体151(図9)に
接触したことを検出する左右のセンサ112−1,11
2−2が取り付けられている。アーム102のハンド1
02Aにはまた、物体151を撮像するビデオカメラ1
13を有している。ビデオカメラ113により取り込ま
れた画像上における物体151のx座標とy座標の位置
は、センサ111−1とセンサ111−2により検出さ
れる。
【0065】モニタ部104は、物体151をモニタす
るビデオカメラ132と、ビデオカメラ132により取
り込まれた物体151の画像のx座標とy座標を検出す
るセンサ131−1と131−2を有している。
【0066】図9に示されるように、図8に示される構
成のうち、ハンド102Aを有するアーム102以外の
部分は、本体141に内蔵されている。アーム102
は、モータ群103により駆動され、その先端のハンド
102Aにより、物体151を保持し、本体141の方
向に引き寄せる動作を行う。この動作が、図3に示され
る構成を内蔵する制御部101により制御される。
【0067】図10と図11は、図8と図9に示したロ
ボット装置91によるテストの動作結果を表している。
図10は、第1のシーケンスの処理の例を表し、図11
は、それと異なる第2のシーケンスの処理の例を表して
いる。
【0068】これらの図において、横軸はいずれも時刻
(time)を表している。縦軸のhighは、RNN42により
生成されたデータXTを表している。この例の場合、デ
ータX Tは、4ビットで表されており、highの各行は、
各ビットの値が1であるのか0であるのかを表してい
る。
【0069】lowは、RNN42のコンテキストCTを表し
ている。この例の場合、コンテキストは10ビットで表
されている。
【0070】motorには、4個のモータ121−1乃至
121−4の動作が4本の線でそれぞれ表されている。
【0071】sensoryには、センサ111−1,111
−2,112−1,112−2,131−1,131−
2の6個のセンサの出力が、6本の線で、それぞれ表さ
れている。
【0072】motorとsensoryは、具体的には、RNN41
の出力層53から出力されるものである。
【0073】cnter to objは、アーム102が、テーブ
ル(図示せず)のセンタに配置されている物体151に
近づいて行く動作を表し、push objは、ハンド102A
が、物体151を押圧する動作を表し、drawは、アーム
102が物体151を本体141の方向に引き寄せる動
作を表し、homingは、アーム102がテーブルの端部の
ホームポジションに移動する動作を表し、centering
は、アーム102が中心に移動する処理を表している。
Cは、アーム102がアルファベット文字Cのような形
状になることを表し、invCは、文字Cと逆の形状になる
ことを表している。touch objは、ハンド102Aが物
体151に接触する動作を表している。
【0074】図10と図11に示されるいずれのシーケ
ンスの場合にも、特に、その6個のセンサの出力から明
らかなように、cnter to obj,push obj,draw,homin
g,centering,C,invC,touch objといった、比較的
長い周期の処理単位毎に文節化が行われていることがわ
かる。
【0075】また、それにより、RNN41はそのままと
し(新たな学習はせず)、RNN42だけを再学習させる
ことで、過去にRNN41に学習させた動きを組み合わせ
て、新たな動きを行うことが可能となる。
【0076】RNN41とRNN42に、上述したような関数
fと関数Fをそれぞれ規定すると、実際の処理を行わず
に、想起または予測処理だけを行うことが可能である。
図12は、この場合の処理例を表している。図12の例
においては、未来(future)の処理の予測と、過去(pa
st)の処理の想起が行われている。この例の場合、過去
の処理で、制御の途中で、新たなセンサモータデータの
教師データ(seOutTch)が供給され、目標が変更されて
いる(図12において、Goal changeとしてこのタイミ
ングが図示されている)。
【0077】上述したように、過去の想起処理は、上記
した式(1)の第1項、第2項、および第3項を利用し
て行われるが、未来の予測処理は、第1項と第3項のみ
を利用して行われる。
【0078】また、式(1)を用いて演算処理を行うよ
うにすると、動作の途中で外乱が発生したような場合に
おいても制御処理が破綻するようなことが抑制される。
【0079】すなわち、通常、予期せぬ外乱が発生する
と、それ以後の制御動作が不可能になってしまうことが
多い。しかしながら、上記した式(1)に基づいた制御
処理が行われると、例えば、アーム102で、物体15
1を引き寄せる制御処理を実行している最中に、人間が
アーム102を手でもって、その動作を妨害したような
場合においても、物体151を引き寄せる処理は、なお
実行するように制御が行われる。このとき、アーム10
2が人間により保持されているため、結果的に、それを
実現することができない。しかしながら、人間がアーム
102を解放すると、再び、物体151を引き寄せる操
作を再開することが可能である。
【0080】上述した一連の処理は、ハードウエアによ
り実行させることもできるが、ソフトウエアにより実行
させることもできる。この場合、例えば、図13に示さ
れるようなパーソナルコンピュータ160が用いられ
る。
【0081】図13において、CPU(Central Processin
g Unit)161は、ROM(Read OnlyMemory)162に記
憶されているプログラム、または記憶部168からRAM
(Random Access Memory)163にロードされたプログ
ラムに従って各種の処理を実行する。RAM163にはま
た、CPU161が各種の処理を実行する上において必要
なデータなども適宜記憶される。
【0082】CPU161、ROM162、およびRAM163
は、バス164を介して相互に接続されている。このバ
ス164にはまた、入出力インタフェース165も接続
されている。
【0083】入出力インタフェース165には、キーボ
ード、マウスなどよりなる入力部166、CRT,LCDなど
よりなるディスプレイ、並びにスピーカなどよりなる出
力部167、ハードディスクなどより構成される記憶部
168、モデム、ターミナルアダプタなどより構成され
る通信部169が接続されている。通信部169は、ネ
ットワークを介しての通信処理を行う。
【0084】入出力インタフェース165にはまた、必
要に応じてドライブ170が接続され、磁気ディスク1
71、光ディスク172、光磁気ディスク173、或い
は半導体メモリ174などが適宜装着され、それらから
読み出されたコンピュータプログラムが、必要に応じて
記憶部168にインストールされる。
【0085】一連の処理をソフトウエアにより実行させ
る場合には、そのソフトウエアを構成するプログラム
が、パーソナルコンピュータ151に、ネットワークや
記録媒体からインストールされる。
【0086】この記録媒体は、図13に示すように、装
置本体とは別に、ユーザにプログラムを提供するために
配布される、プログラムが記録されている磁気ディスク
171(フロッピディスクを含む)、光ディスク172
(CD-ROM(Compact Disk-ReadOnly Memory),DVD(Digital
Versatile Disk)を含む)、光磁気ディスク173(M
D(Mini-Disk)を含む)、もしくは半導体メモリ17
4などよりなるパッケージメディアにより構成されるだ
けでなく、装置本体に予め組み込まれた状態でユーザに
提供される、プログラムが記録されているROM162
や、記憶部168に含まれるハードディスクなどで構成
される。
【0087】なお、本明細書において、記録媒体に記録
されるプログラムを記述するステップは、記載された順
序に沿って時系列的に行われる処理はもちろん、必ずし
も時系列的に処理されなくとも、並列的あるいは個別に
実行される処理をも含むものである。
【0088】
【発明の効果】以上の如く、本発明のデータ処理装置お
よび方法、並びにプログラムによれば、第2のリカレン
ト型ニューラルネットワークで生成した第2のデータ
を、第1のリカレント型ニューラルネットワークの入力
端子に供給し、第1のデータとともに処理させるように
したので、複雑な時系列パターンを学習、記憶させ、想
起させることが可能となる。
【図面の簡単な説明】
【図1】従来のデータ処理装置の構成を示すブロック図
である。
【図2】図1の装置において発生するパターンの変化の
例を示す図である。
【図3】本発明を適用したデータ処理装置の構成を示す
ブロック図である。
【図4】図3の装置の動作を説明するフローチャートで
ある。
【図5】文節化を説明する図である。
【図6】図3の装置の動作を模式的に表す図である。
【図7】図3の装置の学習時の動作を説明するフローチ
ャートである。
【図8】本発明を適用したロボット装置の構成を示すブ
ロック図である。
【図9】図8のロボット装置の形状を説明する図であ
る。
【図10】図8のロボット装置のテストの結果の例を示
す図である。
【図11】図8のロボット装置のテストの結果の例を示
す図である。
【図12】図8のロボット装置のテストの結果の例を示
す図である。
【図13】本発明を適用したパーソナルコンピュータの
構成を示すブロック図である。
【符号の説明】
41,42 リカレント型ニューラルネットワーク,
43 演算部, 51入力層, 52 中間層, 53
出力層, 61 誤差演算部, 71 入力層, 7
2 中間層, 73 出力層, 81 誤差演算部

Claims (10)

    【特許請求の範囲】
  1. 【請求項1】 入力端子から入力されるデータに対して
    非線形の所定の関数を適用する処理を行う第1のリカレ
    ント型ニューラルネットワークを含み、前記第1のリカ
    レント型ニューラルネットワークの前記入力端子に、時
    系列データで構成される第1のデータと、時系列データ
    で構成される第2のデータの入力を受けて処理する処理
    手段と、 入力端子から入力されるデータに対して非線形の所定の
    関数を適用して前記第2のデータを生成する処理を行う
    第2のリカレント型ニューラルネットワークを含む生成
    手段と、 前記第2のデータと、前記第1のリカレント型ニューラ
    ルネットワークのエラーバックプロパゲーション処理に
    より生成された第3のデータとを演算し、第4のデータ
    を生成する演算手段とを備えることを特徴とするデータ
    処理装置。
  2. 【請求項2】 前記生成手段は、前記第1のデータに較
    べて、より長い周期で変化する前記第2のデータを生成
    することを特徴とする請求項1に記載のデータ処理装
    置。
  3. 【請求項3】 前記演算手段は、学習時、前記第1のリ
    カレント型ニューラルネットワークのバックプロパゲー
    ション処理により生成されたデータを用いて演算を行う
    ことを特徴とする請求項1に記載のデータ処理装置。
  4. 【請求項4】 前記演算手段は、シグモイド関数を用い
    て演算を行うことを特徴とする請求項1に記載のデータ
    処理装置。
  5. 【請求項5】 前記演算手段は、学習時、前記第1のリ
    カレント型ニューラルネットワークのバックプロパゲー
    ション処理により生成されたデータを利用した第1の演
    算と、隣接する時空間におけるスムージングのための第
    2の演算を含む演算を行うことを特徴とする請求項1に
    記載のデータ処理装置。
  6. 【請求項6】 前記演算手段は、将来の予測処理時、前
    記第2のデータの第1の演算と、隣接する時空間におけ
    るスムージングのための第2の演算を含む演算を行うこ
    とを特徴とする請求項1に記載のデータ処理装置。
  7. 【請求項7】 前記演算手段は、過去を想起するとき、
    前記第2のデータの第1の演算、前記第1のリカレント
    型ニューラルネットワークのバックプロパゲーション処
    理により生成されたデータを利用した第2の演算、並び
    に、隣接する時空間におけるスムージングのための第3
    の演算を含む演算を行うことを特徴とする請求項1に記
    載のデータ処理装置。
  8. 【請求項8】 入力端子から入力されるデータに対して
    非線形の所定の関数を適用する処理を行う第1のリカレ
    ント型ニューラルネットワークの前記入力端子に、時系
    列データで構成される第1のデータと、時系列データで
    構成される第2のデータの入力を受けて処理する処理ス
    テップと、 入力端子から入力されるデータに対して非線形の所定の
    関数を適用して前記第2のデータを生成する処理を行う
    第2のリカレント型ニューラルネットワークを含む生成
    ステップと、 前記第2のデータと、前記第1のリカレント型ニューラ
    ルネットワークのエラーバックプロパゲーション処理に
    より生成された第3のデータとを演算し、第4のデータ
    を生成する演算ステップとを含むことを特徴とするデー
    タ処理方法。
  9. 【請求項9】 入力端子から入力されるデータに対して
    非線形の所定の関数を適用する処理を行う第1のリカレ
    ント型ニューラルネットワークの前記入力端子に、時系
    列データで構成される第1のデータと、時系列データで
    構成される第2のデータの入力を受けて処理する処理ス
    テップと、 入力端子から入力されるデータに対して非線形の所定の
    関数を適用して前記第2のデータを生成する処理を行う
    第2のリカレント型ニューラルネットワークを含む生成
    ステップと、 前記第2のデータと、前記第1のリカレント型ニューラ
    ルネットワークのエラーバックプロパゲーション処理に
    より生成された第3のデータとを演算し、第4のデータ
    を生成する演算ステップとを含むことを特徴とするコン
    ピュータが読み取り可能なプログラムが記録されている
    記録媒体。
  10. 【請求項10】 入力端子から入力されるデータに対し
    て非線形の所定の関数を適用する処理を行う第1のリカ
    レント型ニューラルネットワークの前記入力端子に、時
    系列データで構成される第1のデータと、時系列データ
    で構成される第2のデータの入力を受けて処理する処理
    ステップと、 入力端子から入力されるデータに対して非線形の所定の
    関数を適用して前記第2のデータを生成する処理を行う
    第2のリカレント型ニューラルネットワークを含む生成
    ステップと、 前記第2のデータと、前記第1のリカレント型ニューラ
    ルネットワークのエラーバックプロパゲーション処理に
    より生成された第3のデータとを演算し、第4のデータ
    を生成する演算ステップとをコンピュータに実行させる
    プログラム。
JP2001031788A 2001-02-08 2001-02-08 データ処理装置および方法、記録媒体、並びにプログラム Withdrawn JP2002236904A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2001031788A JP2002236904A (ja) 2001-02-08 2001-02-08 データ処理装置および方法、記録媒体、並びにプログラム
US10/072,333 US6792413B2 (en) 2001-02-08 2002-02-06 Data processing apparatus and method, recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001031788A JP2002236904A (ja) 2001-02-08 2001-02-08 データ処理装置および方法、記録媒体、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2002236904A true JP2002236904A (ja) 2002-08-23

Family

ID=18895819

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001031788A Withdrawn JP2002236904A (ja) 2001-02-08 2001-02-08 データ処理装置および方法、記録媒体、並びにプログラム

Country Status (2)

Country Link
US (1) US6792413B2 (ja)
JP (1) JP2002236904A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005056340A (ja) * 2003-08-07 2005-03-03 Sony Corp 情報処理装置および方法、プログラム格納媒体、並びにプログラム
JP2018067039A (ja) * 2016-10-17 2018-04-26 日本電信電話株式会社 学習装置、学習方法および学習プログラム
CN113627496A (zh) * 2021-07-27 2021-11-09 交控科技股份有限公司 道岔转辙机故障预测方法、装置、电子设备和可读存储介质

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002024795A (ja) * 2000-07-04 2002-01-25 Sony Corp 情報処理装置および方法、並びに記録媒体
US8127075B2 (en) * 2007-07-20 2012-02-28 Seagate Technology Llc Non-linear stochastic processing storage device
JP4710933B2 (ja) * 2008-07-09 2011-06-29 ソニー株式会社 学習装置、学習方法、およびプログラム
US9015093B1 (en) 2010-10-26 2015-04-21 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8775341B1 (en) 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US9818431B2 (en) * 2015-12-21 2017-11-14 Microsoft Technoloogy Licensing, LLC Multi-speaker speech separation
US20180218262A1 (en) * 2017-01-31 2018-08-02 Panasonic Intellectual Property Corporation Of America Control device and control method
US10853724B2 (en) 2017-06-02 2020-12-01 Xerox Corporation Symbolic priors for recurrent neural network based semantic parsing
DE102020200165B4 (de) * 2020-01-09 2022-05-19 Robert Bosch Gesellschaft mit beschränkter Haftung Robotersteuereinrichtung und Verfahren zum Steuern eines Roboters

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5182794A (en) * 1990-07-12 1993-01-26 Allen-Bradley Company, Inc. Recurrent neural networks teaching system
US5485545A (en) * 1991-06-20 1996-01-16 Mitsubishi Denki Kabushiki Kaisha Control method using neural networks and a voltage/reactive-power controller for a power system using the control method
US5828812A (en) * 1993-03-24 1998-10-27 National Semiconductor Corporation Recurrent neural network-based fuzzy logic system and method
US5649065A (en) * 1993-05-28 1997-07-15 Maryland Technology Corporation Optimal filtering by neural networks with range extenders and/or reducers
KR20000052725A (ko) * 1996-10-23 2000-08-25 제이. 알. 드로우일래드 비트-시리얼에 근거한 회귀성 뉴로프로세서를 포함하는 차량용 엔진 불발 감지 장치
US5732382A (en) * 1996-11-06 1998-03-24 Ford Global Technologies, Inc. Method for identifying misfire events of an internal combustion engine
US6611824B1 (en) * 1997-01-31 2003-08-26 The United States Of America As Represented By The Secretary Of The Navy System for bearing-only contact state estimation using recurrent neural networks
JP2996926B2 (ja) * 1997-03-11 2000-01-11 株式会社エイ・ティ・アール音声翻訳通信研究所 音素シンボルの事後確率演算装置及び音声認識装置
US6434084B1 (en) * 1999-11-22 2002-08-13 Halliburton Energy Services, Inc. Adaptive acoustic channel equalizer & tuning method
US7324980B2 (en) * 2002-05-10 2008-01-29 Sony Corporation Information processing apparatus and method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005056340A (ja) * 2003-08-07 2005-03-03 Sony Corp 情報処理装置および方法、プログラム格納媒体、並びにプログラム
JP2018067039A (ja) * 2016-10-17 2018-04-26 日本電信電話株式会社 学習装置、学習方法および学習プログラム
CN113627496A (zh) * 2021-07-27 2021-11-09 交控科技股份有限公司 道岔转辙机故障预测方法、装置、电子设备和可读存储介质

Also Published As

Publication number Publication date
US20020178131A1 (en) 2002-11-28
US6792413B2 (en) 2004-09-14

Similar Documents

Publication Publication Date Title
US6499025B1 (en) System and method for tracking objects by fusing results of multiple sensing modalities
CN108363978B (zh) 采用深度学习和ukf的基于肢体语言的情感感知方法
EP1922696B1 (en) System and method of analyzing the movement of a user
JP2018152004A (ja) 情報処理装置及びプログラム
US20200397346A1 (en) Annotation method, annotation device, storage medium, and identification system
JP2002236904A (ja) データ処理装置および方法、記録媒体、並びにプログラム
US20050197984A1 (en) Information processing apparatus and method, and recording medium
JP7443002B2 (ja) 画像解析装置、画像解析方法、及びプログラム
JPH07168943A (ja) 局所異常の排除による動きベクトルフィールド生成装置およびその方法
CN111259735B (zh) 基于多级预测特征增强卷积神经网络的单人姿态估计方法
WO2022114822A1 (ko) 인공 신경망을 활용하여 혈관 초음파 영상에 대한 분석 정보를 제공하기 위한 방법 및 컴퓨팅 장치
CN114967937A (zh) 一种虚拟人运动生成方法与系统
CN117671787A (zh) 一种基于Transformer的康复动作评估方法
Setiyadi et al. Human Activity Detection Employing Full-Type 2D Blazepose Estimation with LSTM
JP7137150B2 (ja) 動作分析装置、動作分析方法及び動作分析プログラム
Li et al. A shape tracking algorithm for visual servoing
JP2005056340A (ja) 情報処理装置および方法、プログラム格納媒体、並びにプログラム
Gaikwad et al. Review and Trends on Hand Gesture Recognition of Sign Language based on Deep Learning Approaches
WO2024029411A1 (ja) 作業特徴量表示装置、作業特徴量表示方法、及び作業特徴量表示プログラム
CN118366225B (zh) 基于图像处理的手部康复锻炼监控方法及系统
JP2000122992A (ja) 情報処理装置および方法、並びに提供媒体
WO2024135885A1 (ko) 품질이 검증된 생체 데이터 확보를 위한 인공지능 기반의 생체 데이터 품질 평가 방법, 장치 및 컴퓨터프로그램
CN113255408B (zh) 行为识别方法、装置、电子设备及存储介质
Zhang et al. Shape predictions of a flexible rope manipulated by a robot arm
US20240257304A1 (en) Tactile pattern super resolution reconstruction method and acquisition system

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080513