JP2007157000A - 学習装置及び学習方法、並びにコンピュータ・プログラム - Google Patents

学習装置及び学習方法、並びにコンピュータ・プログラム Download PDF

Info

Publication number
JP2007157000A
JP2007157000A JP2005354113A JP2005354113A JP2007157000A JP 2007157000 A JP2007157000 A JP 2007157000A JP 2005354113 A JP2005354113 A JP 2005354113A JP 2005354113 A JP2005354113 A JP 2005354113A JP 2007157000 A JP2007157000 A JP 2007157000A
Authority
JP
Japan
Prior art keywords
prediction
learning
time
series
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005354113A
Other languages
English (en)
Inventor
Kenichi Hidai
健一 日台
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2005354113A priority Critical patent/JP2007157000A/ja
Publication of JP2007157000A publication Critical patent/JP2007157000A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】高精度の時系列予測モデル(力学系近似モデル)とその効率的な学習方法を提供する。
【解決手段】時系列信号の予測問題において、ある任意の予測モデルを用いて学習を行なう。通常、予測誤差が生じるが、その誤差の時系列を新たな時系列問題として捉え直す。このようなプロセスを再帰的に繰り返し、結果としてえら複数の予測モデルを組み合わせて、最終的な予測モデルとする。n次マルコフ過程の問題に対して、nが未知であるとき、m次マルコフ過程の予測モデル(但し、n>m)を組み合わせることで、学習を行なう。
【選択図】 図1

Description

本発明は、過去から現在に至る状態値からなる時系列データを引数として、次の時刻における状態値を出力する関数を近似する処理を行なう学習装置及び学習方法、並びにコンピュータ・プログラムに係り、特に、マルコフ過程に従わない(若しくはn次マルコフ過程の)時系列データを予測学習し、次の時刻における状態値を出力する関数を近似する処理を行なう学習装置及び学習方法、並びにコンピュータ・プログラムに関する。
さらに詳しくは、本発明は、リカレント・ニューラル・ネットワーク以外の手法により時系列予測モデルを用いて効率的な学習を行なう学習装置及び学習方法、並びにコンピュータ・プログラムに係り、特に、解の初期値に依存せず、解の収束安定性があるとともに学習時間を短縮する学習装置及び学習方法、並びにコンピュータ・プログラムに関する。
例えば、人間は同じような出来事を重ねて経験したり、同じような事実を繰り返し観測したりすると、また似たようなことが起こるのではないかと予測したり、何かこれを支配している既存が存在するのではないかと推測する。このように、過去の経験の上に立って新しい知識や技術を習得することを「学習」と言う。
情報技術(IT)が発展した昨今においては、このような学習のメカニズムをコンピュータ・システム上で実現する研究開発が広く行なわれている。例えば、現在時刻までの状態値を入力として学習を行ない、この学習結果を基に次の時刻における状態値を推測若しくは自動生成する。すなわち、学習器は、過去から現在に至る状態値からなる時系列データを引数として、次の時刻における状態値を出力する関数を近似する処理を行なっていることと等価である。
学習器の多くは、過去の履歴とは関係なく、現在の状態のみから未来の確率法則が決定される、というマルコフ過程のモデルを作成して学習を行なう。ところが、学習対象すなわち近似すべき関数がマルコフ過程に従わない(若しくは、2次以上のマルコフ過程である)場合がある。n次マルコフ過程に関しては、予測学習を行なうより他ないと思料される。
現在、高精度の時系列予測モデル(力学系近似モデル)とその効率的な学習方法は、さまざまな分野において利用が期待されている重要技術の1つである。従来の予測学習の手法には長所と短所があり、十分満足のいく性能を備えたものはないのが実情であり、解の収束安定性と学習時間に問題がある。
n次マルコフ過程を予測学習する学習メカニズムの代表例として、リカレント・ニューラル・ネットワーク(Recurrent Neural Network:再帰的ニューラル・ネットワーク)を挙げることができる(例えば、非特許文献1を参照のこと)。
例えば、学習機構としてリカレント・ニューラル・ネットワークを備えたロボットは、ロボット自身の持つ制御可能な部分によって外界の移動可能な対象物を動かし、知覚センサによって対象物の置かれている環境と、対象物の動きを知覚して、ロボットの各関節部の動かし方と対象物の動きとの関連を学習し、さらに対象物の動きを予測して、ノベルティ・リワーディングにより対象物を動かすモーションを自己学習することができる(例えば、特許文献1を参照のこと)。
リカレント・ニューラル・ネットワークは、最も利用される力学系近似手法の1つであり、ニューロンの素子数を増やすことで、理論的には任意の複雑度の力学系を近似することができる。しかしながら、リカレント・ニューラル・ネットワークは、解の初期値依存性が大きく、その収束が補償されないという問題がある。このため、安定した解を探索する学習を何度もやり直す必要がある。しかも、学習に要する時間が膨大であり、安定した解を求めるのは一般に難しい。
特開2002−59384号公報 Elman,J.L.著"Finding structure in time"(Cognitive Science,vol.14,1990,pp.179−211)
本発明の目的は、マルコフ過程に従わない(若しくはn次マルコフ過程の)時系列データを予測学習し、次の時刻における状態値を出力する関数を近似する処理を好適に行なうことができる、優れた学習装置及び学習方法、並びにコンピュータ・プログラムを提供することにある。
本発明のさらなる目的は、リカレント・ニューラル・ネットワーク以外の手法により時系列予測モデルを用いて効率的な学習を行なうことができる、優れた学習装置及び学習方法、並びにコンピュータ・プログラムを提供することにある。
本発明のさらなる目的は、解の初期値に依存せず、解の収束安定性があるとともに学習時間を短縮することができる、優れた学習装置及び学習方法、並びにコンピュータ・プログラムを提供することにある。
本発明は、上記課題を参酌してなされたものであり、その第1の側面は、時系列信号を予測学習する学習装置であって、時系列信号の予測問題をある任意の予測モデルを用いて学習を行なう第1の予測学習レイヤと、前記第1の予測学習レイヤにおいて生じる予測誤差の時系列を新たな時系列問題として捉え直し、任意の予測モデルを用いて学習を行なう第2の予測学習レイヤを備えることを特徴とする学習装置である。
学習器の多くはマルコフ過程のモデルを作成して学習を行なうが、n次マルコフ過程に関しては、予測学習を行なうより他ない。予測学習する学習メカニズムの代表例として、リカレント・ニューラル・ネットワークを挙げることができるが、解の初期値依存性が大きく、その収束が補償されないという問題がある。
これに対し、本発明に係る学習装置は、時系列信号の予測問題をある任意の予測モデルを用いて学習を行なう際に生じる予測誤差の時系列を新たな時系列問題として捉え直し、下位レイヤの予測誤差を上位レイヤが学習するという階層構造を備えている。すなわち、第l番目の予測学習レイヤにおいて生じる予測誤差の時系列を新たな時系列問題として捉え直してさらに学習を行なう第(l+1)番目の予測学習レイヤを備え(但し、l≧1)、lを1ずつ増分して予測学習のプロセスを再帰的に繰り返すようになっている。
このように、時系列信号を学習するプロセスを再帰的に繰り返し、結果として得た複数の予測モデルを組み合わせて、最終的な予測モデルを構成する。したがって、レイヤの数を調整することにより、予測誤差を任意に小さくすることができる。また、繰り返しの数を繰り返せば繰り返すほど訓練誤差は減るので、訓練誤差を繰り返し終了の判定基準に用い、繰り返し誤差を任意に減少させることができる。
また、本発明に係る再帰的な学習方法では、各レイヤで得られた予測誤差系列を、可逆な別の空間に写像して、それを次の時系列問題とする。また、あるレイヤで得られた予測誤差系列とその前段の予測モデルの内部変数を組み合わせ、それを可逆な別の空間に写像して、次の時系列問題とする。可逆変換は、例えばICAやPCAなどの線形変換を利用することができる。n次マルコフ過程の時系列予測問題でnが未知であるときは、ICAやPCAを用いて次元圧縮して、m次マルコフ過程の予測モデル(但し、n>m)を組み合わせることで学習することが可能である。
また、学習モデルの選択によっては、学習の初期値依存性がなくなったり、解の収束性が補償されたり、学習時間が短縮されたりする。例えば、各レイヤでは、短時間で大域解への収束が保証されるSVR(Support Vector Regression)などの連続値関数近似手法に基づく学習モデルを用いて、現在時刻tの内部状態から次の時刻t+1の予測値を得るための時系列予測関数を求めるようにしてもよい。
本発明に係る学習装置は、時系列信号の学習過程では、各レイヤlにおいて、
学習対象となる時系列信号{xt (l)}から特徴抽出して内部状態{st (l)}に変換する特徴変換部と、現時刻tにおける内部状態st (l)から次の時刻t+1における入力信号を予測するための時系列予測関数flを近似する関数近似部と、時系列予測関数flを用いて、現在時刻tにおける内部状態st (l)から次の時刻t+1における入力信号xt+1 (l)を予測する予測部と、前記予測部における予測結果と次の時刻t+1における入力信号との差分を算出する誤差計算部を備えている。そして、前記誤差計算部により算出された時系列の誤差信号を次のレイヤ(l+1)における学習対象の時系列信号として扱うようになっている。
ここで、前記特徴変換部は、ICA又はPCAに基づく成分解析により、学習対象となるn次元の時系列信号{xt (l)}を次元圧縮して、各時刻tにおけるm次元の内部状態{st (l)}を得ることができる(但し、n>m)。
また、前記関数近似部は、連続値関数近似手法に基づく学習モデルを用いて、現在時刻tの内部状態st (l)から次の時刻t+1の値xt+1 (l)を予測するための時系列予測関数flを求めることができる。
また、本発明に係る学習装置は、時刻tにおける時系列信号の予測実行過程では、各レイヤlにおいて、入力信号から特徴抽出して内部状態st (l)に変換する特徴変換部と、内部状態st (l)に対して、レイヤ毎に学習された時系列予測関数flを適用して、次時刻t+1の信号を予測する予測部を備えている。最下位のレイヤ0では、現在時刻tにおける当該装置への入力信号xt (l)を前記特徴変換部への入力信号とし、l≧1のレイヤlでは、直前の時刻t−1における下位レイヤ(l−1)から出力される内部状態st-1 (l)と、当該レイヤl内の予測部の予測結果を前記特徴変換部への入力とする。そして、すべてのレイヤにおける前記予測部における時刻毎の予測結果の合計を予測信号として出力するように構成されている。
ここで、前記特徴変換部は、ICA又はPCAに基づく成分解析により、入力信号{xt (l)}を次元圧縮して、各時刻tにおけるm次元の内部状態{st (l)}を得ることができる(但し、n>m)。
また、本発明の第2の側面は、時系列信号を予測学習するための処理をコンピュータ・システム上で実行するようにコンピュータ可読形式で記述されたコンピュータ・プログラムであって、前記コンピュータ・システムに対し、
時系列信号の予測問題をある任意の予測モデルを用いて学習を行なう第1の予測学習手順と、
前記第1の予測学習手順を実行して生じる予測誤差の時系列を新たな時系列問題として捉え直し、任意の予測モデルを用いて学習を行なう第2の予測学習手順を実行させ、
第l番目の予測学習レイヤにおいて生じる予測誤差の時系列を新たな時系列問題として捉え直してさらに学習を行なう第(l+1)番目の予測学習レイヤを備え(但し、l≧2)、第l番目の予測学習レイヤにおいて生じる予測誤差が十分小さくなるまで、lを1ずつ増分して予測学習手順を再帰的に実行させる、
を備えることを特徴とするコンピュータ・プログラムである。
本発明の第2の側面に係るコンピュータ・プログラムは、コンピュータ・システム上で所定の処理を実現するようにコンピュータ可読形式で記述されたコンピュータ・プログラムを定義したものである。換言すれば、本発明の第2の側面に係るコンピュータ・プログラムをコンピュータ・システムにインストールすることによって、コンピュータ・システム上では協働的作用が発揮され、本発明の第1の側面に係る学習装置と同様の作用効果を得ることができる。
本発明によれば、マルコフ過程に従わない(若しくはn次マルコフ過程の)時系列データを予測学習し、次の時刻における状態値を出力する関数を近似する処理を好適に行なうことができる、優れた学習装置及び学習方法、並びにコンピュータ・プログラムを提供することができる。
また、本発明によれば、リカレント・ニューラル・ネットワーク以外の手法により時系列予測モデルを用いて効率的な学習を行なうことができる、優れた学習装置及び学習方法、並びにコンピュータ・プログラムを提供することができる。
また、本発明によれば、解の初期値に依存せず、解の収束安定性があるとともに学習時間を短縮することができる、優れた学習装置及び学習方法、並びにコンピュータ・プログラムを提供することができる。
本発明に係る学習装置によれば、時系列信号の予測問題をある任意の予測モデルを用いて学習を行なう際に生じる予測誤差の時系列を新たな時系列問題として捉え直し、下位レイヤの予測誤差を上位レイヤが学習するという具合に、時系列信号の学習プロセスを再帰的に繰り返し、その結果として得た複数の予測モデルを組み合わせて、最終的な予測モデルを構成する。したがって、レイヤの数を調整することにより、予測誤差を任意に小さくすることができる。
本発明に係る再帰的な学習方法において、n次マルコフ過程の時系列予測問題でnが未知であるときは、m次マルコフ過程の予測モデル(但し、n>m)を組み合わせることで学習することが可能である。繰り返しの数を大きくするほど訓練誤差は減るので、訓練誤差を繰り返し終了の判定基準に用い、繰り返し誤差を任意に減少させることができる。また、学習モデルの選択によっては、学習の初期値依存性がなくなったり、解の収束性が補償されたり、学習時間が短縮されたりする。
本発明のさらに他の目的、特徴や利点は、後述する本発明の実施形態や添付する図面に基づくより詳細な説明によって明らかになるであろう。
以下、図面を参照しながら本発明の実施形態について詳解する。
本発明は、高精度の時系列予測モデル(力学系近似モデル)とその効率的な学習方法に関する。
n次マルコフ過程に関しては予測学習を行なうより他なく、予測学習するメカニズムとして、従来はリカレント・ニューラル・ネットワークが一般的である。ところが、リカレント・ニューラル・ネットワークは解の初期値依存性が大きく、その収束が補償されないという問題がある。
そこで、本発明では、n次マルコフ過程を予測する際の初期値依存性の問題を解決するために、リカレント・ニューラル・ネットワークに代えて、連続値関数近似手法を用いる。連続値関数近似手法によれば、短時間で大域解への収束が保証される。連続値関数近似手法の代表例としてSupport Vector Regression(以下、SVRとする)を挙げることができる。
SVRは単なる関数近似手法であるため、コンテキストを持つ(すなわち、非マルコフ過程の)力学系の近似を行なうためには、内部状態を持つ必要がある。一般には、この内部状態の設計方法が問題になる。本実施形態は、この内部状態として、SVRより得られた予測からの予測誤差の空間をそのまま利用するようにした。
そして、学習時に生じた予測誤差を、予測誤差の予測として捉えて、別のSVRが学習するように構成する。具体的には、各時刻t(但し、t=0…T)におけるn次元の情報信号{xt}を学習対象の時系列信号として入力し、SVR又はその他の連続値関数近似手法により、時系列予測関数fを学習する。すると、時刻tにおける入力信号xtから関数fを用いて次の時刻t+1の入力信号を予測することができるが、この予測結果と実際の時刻t+1における入力信号xt+1との間では以下に示す予測誤差Δxt+1が発生する。
Figure 2007157000
各時刻で発生する予測誤差{Δxt}を新たな時系列問題として捉えることができ、入力された時系列信号{xt}について時系列予測関数fの学習に用いたSVRとは別のSVRを用意して、予測誤差{Δxt}を学習するようにする。
このように、時系列信号の学習結果が持つ予測誤差を新たな時系列問題としてさらに学習するというプロセスを再帰的に行なうことができる。すなわち、連続値関数近似手法に基づく学習アルゴリズムに従って時系列予測関数を学習する学習器を複数の階層l(但し、l=0…L)だけ用意し、各階層lの学習器では、入力された時系列信号{xt (l)}から時系列予測関数flを学習する。ここで、レイヤ0において入力される時系列信号{xt (0)}は学習対象となる時系列信号であるが、l≧1のレイヤlで入力される時系列信号{xt (l)}は、直近下位のレイヤ(l−1)において、入力した時系列信号{xt (l)}から時系列予測関数flを学習する際に生じた予測誤差{Δxt (l-1)}である。レイヤ(l−1)において時刻tに発生する予測誤差Δxt (l-1)は、時刻t−1における当該レイヤの入力信号xt (l-1)から関数fl-1を用いて予測される次の時刻tの予測結果と実際の時刻tにおける入力信号xt (l-1)との相違であり、下式で示される。
Figure 2007157000
このように誤差予測を重層的すなわち階層的に行なうことで、最終的には予測誤差を任意に小さくすることが可能である。このような予測学習の手法によれば、連続値関数近似手法であるSVRが持つ下位の収束が安定しているという特性から、非常に高速な学習を実現することができる。また、予測誤差を再帰的プロセスにより学習するレイヤの数を調整することにより、訓練誤差を任意に小さくすることができる。
本実施形態に係る学習装置における誤差予測ネットワークの学習アルゴリズムを以下にまとめた。これに基づいて、本実施形態に係る学習装置における学習の流れについて説明する。
Figure 2007157000
学習対象として入力される時系列信号{xt (l)}はn次元であるが、nは未知数である。ステップ2では、行列B(l)を用いて可逆な別の空間に写像して、m次の時系列信号{st (l)}に次元圧縮し、m次マルコフ過程の予測モデルを組み合わせることで、学習を行なう。
ここで、n次元ベクトルxtとm次元ベクトルstの間には、m×nの実数行列Aによって、xt=Astという線型の関係がある。xt (l)をst (l)に写像すなわち次元圧縮することは、信号源xt (l)から特徴を抽出することに相当する。xt (l)をst (l)に写像する行列B(l)は、例えば、ICA(Independent Component Analysis:独立成分解析)やPCA(Principal Component Analysis:主成分解析)といった多次元信号の解析手法を用いて求めることができる。ICAやPCAは信号処理分野において周知なのでここでは詳細な説明を省略する。
以下では、アルゴリズムにおける行列B(l)をICAにより求め、時系列連続値関数近似手法の1つであるSVRを用いて予測関数flを求めるものとする。変換行列B(l)にICA基底を用いることは、関数近似の前処理としての特徴抽出器としての役割を持つことに相当する。
レイヤ0では、学習対象となるn次元の時系列信号{xt (0)}が入力されると、まず、ICA基底からなる変換行列B(0)を用いて、m次元の内部状態{st (0)}に次元圧縮する(図1を参照のこと)。
次いで、SVR又はその他の連続値関数近似手法により、このレイヤ0において、現時刻tにおける内部状態st (0)から次の時刻t+1における入力信号を予測する時系列予測関数f0を学習する。そして、各時刻tにおける内部状態{st (0) }から、時系列予測関数f0を用いることによって、次の時刻t+1における入力信号(=f0(st (0)))を予測することができる(図2を参照のこと)。
Figure 2007157000
このとき、時刻tにおける入力信号xt (0)から予測される結果と、実際の時刻t+1における入力信号xt+1 (0)との間では予測誤差Δxt+1 (0)が発生するが、これを直近上位のレイヤ1における新たな時系列問題として扱う。本実施形態では、ICAを用いて写像した別の空間上で予測誤差系列を学習するので、各時刻tにおける内部状態st (0)を、直近上位のレイヤ1における次の時刻t+1の内部状態st+1 (1)に入力する(図3を参照のこと)。
レイヤ1では、直近下位のレイヤ0における予測誤差の時系列信号{Δxt (0)}を新たな時系列問題として扱う。本実施形態では、ICAを用いて写像した別の空間上で予測誤差系列を学習するので、各時刻tにおける内部状態st (1)は、直前の時刻t−1におけるn次元の入力信号xt-1 (1)並びに直近下位のレイヤ0からのm次元の内部状態st-1 (0)を入力とし、これらをICA基底からなる変換行列B(0)を用いて次元圧縮されたm次元ベクトルである(図4を参照のこと)。
そして、このレイヤ1において、SVR又はその他の連続値関数近似手法により、現時刻tに内部状態st (1)から次の時刻t+1における入力信号を予測する時系列予測関数f1を学習する。したがって、各時刻tにおける内部状態st (1)から、時系列予測関数f1を用いることによって、次の時刻t+1における入力信号(=f1(st (1)))を予測することができる(図5を参照のこと)。
Figure 2007157000
このとき、時刻tにおける内部状態st (1)から予測される結果と、実際の時刻t+1における入力信号xt+1 (1)との間では予測誤差Δxt+1 (1)が発生するが、これをさらに直近上位のレイヤ2における新たな時系列問題として扱う。本実施形態では、ICAを用いて写像した別の空間上で予測誤差系列を学習するので、各時刻tにおける内部状態st (1)を、直近上位のレイヤ1における次の時刻t+1の内部状態st+1 (2)に入力する(図6を参照のこと)。
このような時系列信号の学習結果が持つ予測誤差を新たな時系列問題としてさらに学習するというプロセスを再帰的に行なうと、図7に示すようなデータの流れとなる。再帰的プロセスは、予測誤差が十分小さくなるまで繰り返される。
図8には、レイヤlにおいて学習処理を行なうための機能的構成を模式的に示している。
レイヤlには、学習対象となる時系列信号{xt (l)}が入力される。まず、特徴変換部11が、ICA基底からなる変換行列B(l)を用いて、n次元入力信号xt (l)をm次元の内部状態st (l)に次元圧縮する。続いて、関数近似部12が、SVR又はその他の連続値関数近似手法により、現時刻tにおける内部状態st (l)から次の時刻t+1における入力信号を予測する時系列予測関数flを学習する。そして、得られた時系列予測関数flは、予測関数格納部13に保存される。
予測部14は、時系列予測関数flを用いて、現在時刻tにおける内部状態st (l)から次の時刻t+1における入力信号xt+1 (l)を予測する。この予測結果は、遅延器15により1演算周期だけ遅延され、誤差計算部16では、次の時刻t+1における入力信号xt+1 (l)との差分がとられ、予測誤差Δxt (l-1)が算出される。
レイヤ1における出力は予測誤差{Δxt (l)}となるが、これはその上位レイヤl+1における学習対象の時系列信号{xt (l+1)}として扱われ、同様の学習器により予測学習が行なわれる。
続いて、上述した予測学習した結果を実行する場合について考察してみる。あるレイヤlの時刻t+1における信号は、その直前の時刻tにおける内部状態st (l)から時系列予測関数flを用いて予測することができる。このとき、予測値には予測誤差が含まれるが、この予測誤差はさらに上位のレイヤ(l+1)において予測学習されているので、下式に示すように、同時刻における上位レイヤ(l+1)の予測結果を加算すればよいことになる。
Figure 2007157000
図7に示したような、時系列信号の予測学習時に生じる予測誤差の時系列を再帰的プロセスにより予測学習を繰り返していくと、あるレイヤlにおける予測誤差はその上位レイヤ(l+1)から順次得ることができる。したがって、レイヤ0の時刻tでは、同時刻におけるすべてのレイヤにおける予測値を合計することにより入力信号を予測することができる(図9を参照のこと)。
Figure 2007157000
すなわち、最終的な予測関数Fは、下式として得られる。
Figure 2007157000
本実施形態に係る学習装置における誤差予測ネットワークの実行アルゴリズムを以下にまとめた。これに基づいて、本実施形態に係る学習装置における学習実行の流れについて説明する。
Figure 2007157000
時刻tにおいて、レイヤ0に訓練信号としてn次元の時系列信号xt (0)が入力されると、ICA基底からなる変換行列B(0)を用いて、m次元の内部状態{st (0)}に次元圧縮する(図10を参照のこと)。そして、各時刻tにおける内部状態st (0)を、直近上位のレイヤ1における次の時刻t+1の内部状態st+1 (1)に入力する(図11を参照のこと)。
レイヤ1では、時刻tにおいて、直前の時刻t−1におけるn次元の入力信号xt-1 (1)並びに直近下位のレイヤ0からのm次元の内部状態st-1 (0)を入力とし、これらをICA基底からなる変換行列B(0)を用いて次元圧縮することにより、m次元ベクトルからなる内部状態st (1)を得ることができる(図12を参照のこと)。
そして、このような操作を各レイヤで繰り返すことによって、時刻tにおいてレイヤ毎の内部状態{st (l)}が求まる(図13を参照のこと)。そして、上述した学習アルゴリズムでレイヤl毎に得られた時系列予測関数flを用いて、内部状態st (1)から次時刻t+1の入力信号の予測を行なう(図14を参照のこと)。
Figure 2007157000
上式(6)に示したように、レイヤ0の時刻tにおける時系列信号は、同時刻のすべてのレイヤにおける予測値を合計することにより予測することができる(図15を参照のこと)。そして、このような操作をすべての時刻tにおいて実施することによって、レイヤ0において時系列の予測信号を得ることができる。
図16には、学習結果に基づいて予測処理を行なうための機能的構成を模式的に示している。レイヤ毎に予測モデルが設けられ、各予測モデルlは、上述した学習アルゴリズムにおいて得られた時系列予測関数flが予測関数格納部22−lに格納されている。
レイヤ0の予測モデル0では、時系列信号{xt (0)}が入力されると、まず、特徴変換部21−0が、ICA基底からなる変換行列B(0)を用いて、n次元入力信号xt (0)をm次元の内部状態st (0)に次元圧縮する。また、特徴変換部21−0は、算出した内部状態st (0)を、直近上位のレイヤ1の予測モデル1に出力する。遅延器26−1は、これを1演算周期の遅延を以って入力する。
続いて、予測部23−0は、予測関数格納部22−0から当該レイヤにおける時系列予測関数flを取り出し、これを内部状態st (0)に適用して、次時刻t+1の信号を予測して、予測出力部24−0を介して出力する。
また、レイヤlの予測モデルlでは(但し、l≧1とする)、直近下位のレイヤl−1の特徴変換部21−(l−1)から内部状態st-1 (l-1)を受け取ると、まず、特徴変換部21−lが、直前の時刻t−1における入力信号の予測結果と直前の時刻t−1における下位レイヤl−1の内部状態st-1 (l-1)を、ICA基底からなる変換行列B(l)を用いて次元圧縮し、m次元ベクトルからなる現時刻tの内部状態st (l)を得る。また、特徴変換部21−lは、算出した内部状態st (l)を、直近上位のレイヤl+1の予測モデルl+1に出力する。
続いて、予測部23−lは、予測関数格納部22−lから当該レイヤにおける時系列予測関数fl+1を取り出し、これを内部状態st (l)に適用して、次時刻t+1の信号を予測して、予測出力部24−lを介して出力する。
そして、最終予測出力部25は、各レイヤlの予測出力部24−lからの予測出力を加算して、各時刻tにおける時系列予測信号を得る。
本実施形態に係る予測学習の手法によれば、初期値がランダムな内部状態{st (l)|l=1,2,3,…}に対して一定の引き込ませ期間を設けることで、その後は完全な自己ループに入り、時系列データを繰り返す(rehearse)することができる。本発明者らは、上述した予測学習の手法を用いて、3つの異なるダイナミクスを有する時系列データの学習を行ない、その結果、3つのダイナミクスが交わることなく学習されていることを、定性的に確認することができた。
図17には、学習に用いた時系列データを示している。全部で6シーケンスの時系列データを用意し、3つの異なる力学系に分類することができ、それぞれの力学系毎に2つずつのシーケンスが割り当てられている。各シーケンスは12次元で48フレームである。
図18は、図17に示した時系列データに対する予測学習の実行結果を示している。t=1からt=10まで、時系列データ{xt (0)}を与え、t=11以降は時系列データを与えなかったときの実行結果である。与えたデータは、図17の対応する学習データのt=20からt=29までを用いた。
図18を見ると、図17と同じ形の波形を生成できていることが判る。このことから、3つの異なる力学系が正しく学習されていると言うことができる。
また、図19には、レイヤ数を変化させたとき、最終的な予測結果の誤差を示している。左上がレイヤ数1で、右上がレイヤ数2、右下がレイヤ数10である。レイヤ数を増やすことで、予測誤差が減少していくことが判る。
以上、特定の実施形態を参照しながら、本発明について詳解してきた。しかしながら、本発明の要旨を逸脱しない範囲で当業者が該実施形態の修正や代用を成し得ることは自明である。
本明細書では、主にSVRに従って予測関数Fの学習を行なう実施形態を中心に説明してきたが、本発明の要旨はこれに限定されるものではない。例えばSVR以外の連続値関数近似手法に基づく学習アルゴリズムや、それ以外の学習アルゴリズムを適用する学習装置に対しても、同様に本発明を適用することができる。
要するに、例示という形態で本発明を開示してきたのであり、本明細書の記載内容を限定的に解釈するべきではない。本発明の要旨を判断するためには、特許請求の範囲を参酌すべきである。
図1は、本発明に係る学習装置における学習の流れを説明するための図である。 図2は、本発明に係る学習装置における学習の流れを説明するための図である。 図3は、本発明に係る学習装置における学習の流れを説明するための図である。 図4は、本発明に係る学習装置における学習の流れを説明するための図である。 図5は、本発明に係る学習装置における学習の流れを説明するための図である。 図6は、本発明に係る学習装置における学習の流れを説明するための図である。 図7は、本発明に係る学習装置における学習の流れを説明するための図である。 図8は、レイヤlにおいて学習処理を行なうための機能的構成を模式的に示した図である。 図9は、本発明に係る学習装置において、最終的な予測関数を得る仕組みを説明するための図である。 図10は、本発明に係る学習装置における予測の流れを説明するための図である。 図11は、本発明に係る学習装置における予測の流れを説明するための図である。 図12は、本発明に係る学習装置における予測の流れを説明するための図である。 図13は、本発明に係る学習装置における予測の流れを説明するための図である。 図14は、本発明に係る学習装置における予測の流れを説明するための図である。 図15は、本発明に係る学習装置における予測の流れを説明するための図である。 図16は、学習結果に基づいて予測処理を行なうための機能的構成を模式的に示した図である。 図17は、学習に用いた、3つの異なる力学系に分類される時系列データの例を示した図である。 図18は、図17に示した時系列データに対する予測学習の実行結果を示した図である。 図19は、レイヤ数を変化させたときの最終的な予測結果の誤差の変化を示した図である。
符号の説明
11…特徴変換部
12…関数近似部
13…予測関数格納部
14…予測部
15…遅延器
16…誤差計算部
21…特徴変換部
22…予測関数格納部
23…予測部
24…予測出力部
25…最終予測出力部

Claims (18)

  1. 時系列信号を予測学習する学習装置であって、
    時系列信号の予測問題をある任意の予測モデルを用いて学習を行なう第1の予測学習レイヤと、
    前記第1の予測学習レイヤにおいて生じる予測誤差の時系列を新たな時系列問題として捉え直し、任意の予測モデルを用いて学習を行なう第2の予測学習レイヤと、
    を備えることを特徴とする学習装置。
  2. 第l番目の予測学習レイヤにおいて生じる予測誤差の時系列を新たな時系列問題として捉え直してさらに学習を行なう第(l+1)番目の予測学習レイヤを備え(但し、l≧2)、
    第l番目の予測学習レイヤにおいて生じる予測誤差が十分小さくなるまで、lを1ずつ増分して予測学習のプロセスを再帰的に繰り返す、
    ことを特徴とする請求項1に記載の学習装置。
  3. n次マルコフ過程の時系列予測問題でnが未知であるときは、m次マルコフ過程の予測モデル(但し、n>m)を組み合わせることで学習する、
    ことを特徴とする請求項1に記載の学習装置。
  4. 各予測学習レイヤでは、学習対象となる時系列信号をICA又はPCAを用いて次元圧縮してm次マルコフ過程の時系列予測問題とする、
    ことを特徴とする請求項1に記載の学習装置。
  5. 各予測学習レイヤでは、連続値関数近似手法に基づく学習モデルを用いて、現在時刻tの内部状態から次の時刻t+1の予測値を得るための時系列予測関数を求める、
    ことを特徴とする請求項1に記載の学習装置。
  6. 時系列信号の学習過程では、第l番目の予測学習レイヤにおいて、
    学習対象となる時系列信号{xt (l)}から特徴抽出して内部状態{st (l)}に変換する特徴変換部と、
    現時刻tにおける内部状態st (l)から次の時刻t+1における入力信号を予測するための時系列予測関数flを近似する関数近似部と、
    時系列予測関数flを用いて、現在時刻tにおける内部状態st (l)から次の時刻t+1における入力信号xt+1 (l)を予測する予測部と、
    前記予測部における予測結果と次の時刻t+1における入力信号との差分を算出する誤差計算部を備え、
    前記誤差計算部により算出された時系列の誤差信号を第(l+1)番目の予測学習レイヤにおける学習対象の時系列信号とする、
    ことを特徴とする請求項1に記載の学習装置。
  7. 前記特徴変換部は、ICA又はPCAに基づく成分解析を用いて、入力信号{xt (l)}を次元圧縮して、各時刻tにおける内部状態{st (l)}を得る、
    ことを特徴とする請求項6に記載の学習装置。
  8. 前記関数近似部は、連続値関数近似手法に基づく学習モデルを用いて、現在時刻tの内部状態st (l)から次の時刻t+1の値xt+1 (l)を予測するための時系列予測関数flを求める、
    ことを特徴とする請求項6に記載の学習装置。
  9. 時刻tにおける時系列信号の予測実行過程では、第l番目の予測学習レイヤにおいて、
    入力信号から特徴抽出して内部状態st (l)に変換する特徴変換部と、
    内部状態st (l)に対して、レイヤ毎に学習された時系列予測関数flを適用して、次時刻t+1の信号を予測する予測部を備え、
    最下位の予測学習レイヤでは、現在時刻tにおける当該装置への入力信号xt (l)を当該予測学習レイヤ内の前記特徴変換部への入力信号とし、第l番目の予測学習レイヤ(但し、l≧2)では、直前の時刻t−1における第(l−1)番目の予測学習レイヤから出力される内部状態st-1 (l)と、当該予測学習レイヤ内の前記予測部による現在時刻tにおける予測結果を前記特徴変換部への入力とし、
    すべての予測学習レイヤにおける前記予測部における時刻毎の予測結果の合計を予測信号として出力する、
    ことを特徴とする請求項1に記載の学習装置。
  10. 前記特徴変換部は、ICA又はPCAに基づく成分解析により、入力信号を次元圧縮して、各時刻tにおける内部状態{st (l)}を得る、
    ことを特徴とする請求項9に記載の学習装置。
  11. 時系列信号を予測学習する学習方法であって、
    時系列信号の予測問題をある任意の予測モデルを用いて学習を行なう第1の予測学習ステップと、
    前記第1の予測学習ステップにおいて生じる予測誤差の時系列を新たな時系列問題として捉え直し、任意の予測モデルを用いて学習を行なう第2の予測学習ステップと、
    を備えることを特徴とする学習方法。
  12. 第l番目の予測学習ステップにおいて生じる予測誤差の時系列を新たな時系列問題として捉え直してさらに学習を行なう第(l+1)番目の予測学習ステップを備え(但し、l≧2)、
    第l番目の予測学習ステップにおいて生じる予測誤差が十分小さくなるまで、lを1ずつ増分して予測学習ステップを再帰的に実行する、
    ことを特徴とする請求項11に記載の学習方法。
  13. 時系列信号の学習過程では、第l番目の予測学習ステップにおいて、
    学習対象となる時系列信号{xt (l)}から特徴抽出して内部状態{st (l)}に変換する特徴変換サブステップと、
    現時刻tにおける内部状態st (l)から次の時刻t+1における入力信号を予測するための時系列予測関数flを近似する関数近似サブステップと、
    時系列予測関数flを用いて、現在時刻tにおける内部状態st (l)から次の時刻t+1における入力信号xt+1 (l)を予測する予測サブステップと、
    前記予測サブステップにおける予測結果と次の時刻t+1における入力信号との差分を算出する誤差計算サブステップを備え、
    前記誤差計算サブステップにおいて算出された時系列の誤差信号を第(l+1)番目の予測学習ステップにおける学習対象の時系列信号とする、
    ことを特徴とする請求項11に記載の学習方法。
  14. 前記特徴変換サブステップでは、ICA又はPCAに基づく成分解析により、入力信号を次元圧縮して、各時刻tにおける内部状態{st (l)}を得る、
    ことを特徴とする請求項13に記載の学習方法。
  15. 前記関数近似サブステップでは、連続値関数近似手法に基づく学習モデルを用いて、現在時刻tの内部状態st (l)から次の時刻t+1の値xt+1 (l)を予測するための時系列予測関数flを求める、
    ことを特徴とする請求項13に記載の学習方法。
  16. 時刻tにおける時系列信号の予測実行過程では、第l番目の予測学習ステップにおいて、
    入力信号から特徴抽出して内部状態st (l)に変換する特徴変換サブステップと、
    内部状態st (l)に対して、レイヤ毎に学習された時系列予測関数flを適用して、次時刻t+1の信号を予測する予測サブステップを備え、
    最下位の予測学習ステップでは、現在時刻tに投入された入力信号xt (l)を前記特徴変換サブステップに対する入力信号とし、第l番目の予測学習ステップ(但し、l≧2)では、直前の時刻t−1における第(l−1)番目の予測学習ステップから得られる内部状態st-1 (l)と、当該予測学習ステップ内の前記予測サブステップにより求められた現在時刻tにおける予測結果を前記特徴変換ステップに対する入力とし、
    すべての予測学習ステップの前記予測サブステップにおける時刻毎の予測結果の合計を予測信号として出力する、
    ことを特徴とする請求項11に記載の学習方法。
  17. 前記特徴変換サブステップは、ICA又はPCAに基づく成分解析により、入力信号{xt (l)}を次元圧縮して、各時刻tにおける内部状態{st (l)}を得る、
    ことを特徴とする請求項16に記載の学習方法。
  18. 時系列信号を予測学習するための処理をコンピュータ・システム上で実行するようにコンピュータ可読形式で記述されたコンピュータ・プログラムであって、前記コンピュータ・システムに対し、
    時系列信号の予測問題をある任意の予測モデルを用いて学習を行なう第1の予測学習手順と、
    前記第1の予測学習手順を実行して生じる予測誤差の時系列を新たな時系列問題として捉え直し、任意の予測モデルを用いて学習を行なう第2の予測学習手順を実行させ、
    第l番目の予測学習レイヤにおいて生じる予測誤差の時系列を新たな時系列問題として捉え直してさらに学習を行なう第(l+1)番目の予測学習レイヤを備え(但し、l≧2)、第l番目の予測学習レイヤにおいて生じる予測誤差が十分小さくなるまで、lを1ずつ増分して予測学習手順を再帰的に実行させる、
    ことを特徴とするコンピュータ・プログラム。
JP2005354113A 2005-12-07 2005-12-07 学習装置及び学習方法、並びにコンピュータ・プログラム Pending JP2007157000A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005354113A JP2007157000A (ja) 2005-12-07 2005-12-07 学習装置及び学習方法、並びにコンピュータ・プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005354113A JP2007157000A (ja) 2005-12-07 2005-12-07 学習装置及び学習方法、並びにコンピュータ・プログラム

Publications (1)

Publication Number Publication Date
JP2007157000A true JP2007157000A (ja) 2007-06-21

Family

ID=38241260

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005354113A Pending JP2007157000A (ja) 2005-12-07 2005-12-07 学習装置及び学習方法、並びにコンピュータ・プログラム

Country Status (1)

Country Link
JP (1) JP2007157000A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008028322A1 (de) 2007-06-14 2008-12-24 Hitachi, Ltd. Veränderliche Pumpe
JP2009245236A (ja) * 2008-03-31 2009-10-22 Institute Of Physical & Chemical Research 情報処理装置、情報処理方法、およびプログラム
JP2010256328A (ja) * 2009-04-22 2010-11-11 Korea Electric Power Corp 発電所計測器性能監視予測方法
KR20190093712A (ko) * 2014-11-13 2019-08-09 미즈호 죠호 소켄 가부시키가이샤 정보 예측을 위한 시스템, 방법 및 프로그램
EP4109351A1 (en) 2021-06-23 2022-12-28 Fujitsu Limited Inference program, inference method, and information processing apparatus

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008028322A1 (de) 2007-06-14 2008-12-24 Hitachi, Ltd. Veränderliche Pumpe
JP2009245236A (ja) * 2008-03-31 2009-10-22 Institute Of Physical & Chemical Research 情報処理装置、情報処理方法、およびプログラム
JP2010256328A (ja) * 2009-04-22 2010-11-11 Korea Electric Power Corp 発電所計測器性能監視予測方法
KR20190093712A (ko) * 2014-11-13 2019-08-09 미즈호 죠호 소켄 가부시키가이샤 정보 예측을 위한 시스템, 방법 및 프로그램
KR102178654B1 (ko) * 2014-11-13 2020-11-13 미즈호 죠호 소켄 가부시키가이샤 정보 예측을 위한 시스템, 방법 및 프로그램
US11144837B2 (en) 2014-11-13 2021-10-12 Mizuho Research & Technologies, Ltd. System, method, and program for predicting information
EP4109351A1 (en) 2021-06-23 2022-12-28 Fujitsu Limited Inference program, inference method, and information processing apparatus

Similar Documents

Publication Publication Date Title
US11663441B2 (en) Action selection neural network training using imitation learning in latent space
KR101880907B1 (ko) 비정상 세션 감지 방법
CN111488807A (zh) 基于图卷积网络的视频描述生成系统
CN112614071B (zh) 基于自注意力的多样点云补全方法和装置
JP2022550326A (ja) 言語タスクのための対照事前トレーニング
US12051232B2 (en) Anomaly detection apparatus, anomaly detection method, and program
JP7181415B2 (ja) 観測値の尤度を使用して環境を探索するためのエージェントを制御すること
EP3916641A1 (en) Continuous time self attention for improved computational predictions
US20180197082A1 (en) Learning apparatus and method for bidirectional learning of predictive model based on data sequence
KR20190045038A (ko) 음성 인식 방법 및 장치
US20210073645A1 (en) Learning apparatus and method, and program
JP2007157000A (ja) 学習装置及び学習方法、並びにコンピュータ・プログラム
JP6955233B2 (ja) 予測モデル作成装置、予測モデル作成方法、および予測モデル作成プログラム
CA3117833A1 (en) Regularization of recurrent machine-learned architectures
Kang et al. Real-time multiple people tracking using competitive condensation
KR20220098991A (ko) 음성 신호에 기반한 감정 인식 장치 및 방법
JP7559256B2 (ja) 適応勾配クリッピングを用いるニューラルネットワーク
WO2019171925A1 (ja) 言語モデルを利用する装置、方法及びプログラム
Galata et al. Learning behaviour models of human activities
US20200134498A1 (en) Dynamic boltzmann machine for predicting general distributions of time series datasets
CN117151121A (zh) 一种基于波动阈值与分割化的多意图口语理解方法
JP5130934B2 (ja) 認識システム、情報処理装置、設計装置、及び、プログラム
JP4887661B2 (ja) 学習装置及び学習方法、並びにコンピュータ・プログラム
Junior et al. A speech recognition system for embedded applications using the SOM and TS-SOM networks
JP7455000B2 (ja) 変換装置、学習装置、およびプログラム