JP2016071697A - 学習装置、処理装置、予測システム、学習方法、処理方法、およびプログラム - Google Patents

学習装置、処理装置、予測システム、学習方法、処理方法、およびプログラム Download PDF

Info

Publication number
JP2016071697A
JP2016071697A JP2014201518A JP2014201518A JP2016071697A JP 2016071697 A JP2016071697 A JP 2016071697A JP 2014201518 A JP2014201518 A JP 2014201518A JP 2014201518 A JP2014201518 A JP 2014201518A JP 2016071697 A JP2016071697 A JP 2016071697A
Authority
JP
Japan
Prior art keywords
input data
time
series
learning
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014201518A
Other languages
English (en)
Other versions
JP5943358B2 (ja
Inventor
貴行 恐神
Takayuki Osogami
貴行 恐神
大塚 誠
Makoto Otsuka
誠 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Priority to JP2014201518A priority Critical patent/JP5943358B2/ja
Priority to US14/852,943 priority patent/US10755164B2/en
Priority to US14/967,637 priority patent/US9547818B2/en
Publication of JP2016071697A publication Critical patent/JP2016071697A/ja
Application granted granted Critical
Publication of JP5943358B2 publication Critical patent/JP5943358B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

【課題】学習可能な時間発展を考慮した動的ボルツマンマシンを提供する。【解決手段】時系列入力データを取得する取得部と、時系列入力データにおける一の時点の入力データに対応する複数の入力値をモデルが有する複数のノードに供給する供給部と、時系列入力データにおける一の時点より前の入力データ系列と、モデルにおける入力データ系列中の入力データに対応する複数の入力値のそれぞれと複数のノードのそれぞれとの間の重みパラメータとに基づいて、入力データ系列が発生した条件下における一の時点の各入力値の条件付確率を算出する算出部と、重みパラメータを調整して、入力データ系列が発生した条件の下で一の時点の入力データが発生する条件付確率をより高める学習処理部と、を備える学習装置を提供する。【選択図】図1

Description

本発明は、学習装置、処理装置、予測システム、学習方法、処理方法、およびプログラムに関する。
従来、静止画像の分類等は、ボルツマンマシンを用いて機械学習することで、高い性能を達成できることが知られている(例えば、特許文献1参照)。このようなボルツマンマシンを、時系列データに適用した動的ボルツマンマシンが提案されていた(例えば、非特許文献1〜3参照)。
非特許文献1 G. E. Hinton and A. D. Brown, Spiking Boltzmann machines, In Advances in Neural Information Processing Systems, pages 122-128, 1999
非特許文献2 I. Sutskever and G. E. Hinton, Learning multilevel distributed representations for highdimensional sequences, In International Conference on Artificial Intelligence and Statistics, pages 548-555, 2007
非特許文献3 I. Sutskever, G. E. Hinton, and G. W. Taylor, The recurrent temporal restricted Boltzmann machine, In Advances in Neural Information Processing Systems, pages 1601-1608, 2008
特許文献1 特開平6−162234号公報
しかしながら、このような時間発展を考慮するボルツマンマシンは、学習することが困難であり、時系列予測等に応用することができなかった。
本発明の第1の態様においては、時系列入力データに対応するモデルを学習するための学習装置であって、時系列入力データを取得する取得部と、時系列入力データにおける一の時点の入力データに対応する複数の入力値をモデルが有する複数のノードに供給する供給部と、時系列入力データにおける一の時点より前の入力データ系列と、モデルにおける入力データ系列中の入力データに対応する複数の入力値のそれぞれと複数のノードのそれぞれとの間の重みパラメータとに基づいて、入力データ系列が発生した条件下における一の時点の各入力値の条件付確率を算出する算出部と、重みパラメータを調整して、入力データ系列が発生した条件の下で一の時点の入力データが発生する条件付確率をより高める学習処理部と、を備える学習装置、学習方法、およびプログラムを提供する。
本発明の第2の態様においては、時系列入力データに対応するモデルを用いて時系列入力データから次の入力データを予測する処理装置であって、時系列入力データを取得する取得部と、予測対象時点に対応する複数の入力値をモデルが有する複数のノードに供給する供給部と、時系列入力データにおける予測対象時点より前の入力データ系列と、モデルにおける入力データ系列中の入力データに対応する複数の入力値のそれぞれと複数のノードのそれぞれとの間の重みパラメータとに基づいて、入力データ系列が発生した条件下において予測対象時点に対応する各入力値となる条件付確率を算出するノード算出部と、予測対象時点に対応する各入力値の条件付確率に基づいて、時系列入力データが発生した条件の下で次の入力データが予め定められた値となる条件付確率を算出するデータ算出部と、を備える処理装置、処理方法、およびプログラムを提供する。
本発明の第3の態様においては、第1の態様の学習装置と、第2の態様の処理装置と、を備える予測システムを提供する。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
本実施形態に係る学習装置100の構成例を示す。 本実施形態に係るモデル10の構成例を示す。 本実施形態に係る学習装置100の動作フローを示す。 本実施形態に係る時系列データと、学習に用いる訓練データの構成例を示す。 本実施形態に係る学習装置100の変形例を示す。 本実施形態に係るモデル10の変形例を示す。 本実施形態に係る更新パラメータγi,lの時間的な推移の一例を示す。 本実施形態に係る更新パラメータαi,j,kの時間的な推移の一例を示す。 本実施形態に係る処理装置200の構成例を示す。 本実施形態に係る処理装置200の動作フローを示す。 コンピュータ1900のハードウェア構成の一例を示す。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、本実施形態に係る学習装置100の構成例を示す。学習装置100は、時系列入力データに対応するモデルを学習するための学習装置である。学習装置100は、時系列データをボルツマンマシンに基づくモデルのノードに供給して、当該モデルを学習する。学習装置100は、取得部110と、供給部120と、算出部130と、学習処理部140と、を備える。
取得部110は、時系列入力データを取得する。時系列入力データは、一例として、動画像データ等のように、時間軸に対応した複数のデータが配列されたデータ列である。取得部110は、ユーザが操作する装置または時系列データを検出して出力する装置(センサ)等に接続され、時系列入力データを取得してよい。また、取得部110は、記憶装置等に予め定められた形式で記憶された時系列入力データを読み出して取得してよい。また、取得部110は、ネットワーク等に接続され、当該ネットワークを介して時系列入力データを取得してもよい。また、取得部110は、取得した時系列入力データを、学習装置100内部の記憶装置等に記憶してよい。
供給部120は、時系列入力データにおける一の時点の入力データに対応する複数の入力値をモデルが有する複数のノードに供給する。供給部120は、取得部110に接続され、受けとった時系列入力データのうち、一の時点の入力データを教師データとし、当該一の時点の入力値をモデルの対応するノードに供給する。ここで、一の時点の入力データは、学習に用いる訓練データのうち時間的に最も新しいデータでよい。これに代えて、一の時点の入力データは、学習に用いる訓練データのうち時間的に途中のデータを用いてもよい。即ち、一の時点の入力データは、時系列データの中から任意に選択してよい。
算出部130は、入力データ系列が発生した条件下における一の時点の各入力値の条件付確率を算出する。ここで、学習装置100が用いるモデルは、後述するが、入力データ系列中の入力データに対応する複数の入力値のそれぞれと複数のノードのそれぞれとの間に重みパラメータを有する。算出部130は、時系列入力データにおける一の時点より前の入力データ系列と、モデルにおける当該重みパラメータとに基づいて、一の時点の各入力値の条件付確率を算出する。
学習処理部140は、算出部130に接続され、モデルにおける重みパラメータを調整して、入力データ系列が発生した条件の下で一の時点の入力データが発生する条件付確率をより高める。学習処理部140は、モデルにおける複数のノードのそれぞれに与えられたバイアスパラメータを更に調整する。学習処理部140は、モデルにおける重みパラメータおよびバイアスパラメータを調節した結果を、外部のデータベース1000等の記憶装置に供給して記憶させる。
以上の本実施形態に係る学習装置100は、時系列入力データにおける一の時点の入力データに基づき、モデルの重みパラメータおよびバイアスパラメータを調節して当該モデルを学習する。本実施形態に係るモデルについて、図2を用いて説明する。
図2は、本実施形態に係るモデル10の構成例を示す。モデル10は、複数の層を備えるモデルであり、図2は、合計Tの層を備える例を示す。モデル10は、有限の層を有してよく、これに代えて、無限の層を有してもよい。第0層は、時系列データにおける一の時点の入力データに対応する層であり、本実施形態では、当該入力データが有する入力値の数に応じた数のノードを有する例を説明する。なお、入力値の数よりも多くのノードを有するようにして、入力値に対応しないノードを補助的に用いてもよい。
複数の層のうち第0層以外の合計T−1の層は、時系列入力データのうち、一の時点より前の入力データ系列に対応する層である。例えば、第−1層は、一の時点の入力データよりも時間的に1つ前の時点の入力データに対応し、第−δ層は、一の時点の入力データよりも時間的にδ前の時点の入力データに対応する。即ち、第0層以外の合計T−1の層は、一例として、第0層と同数のノードをそれぞれ有し、対応する入力データ系列の入力値がそれぞれ供給される。
例えば、時系列入力データが動画像データの場合、第0層には動画像データの最後の画像データが対応し、第0層の複数のノードのそれぞれは、当該画像データのピクセルデータのそれぞれが対応して入力される。また、第−1層には最後から1つ前の画像データが対応して供給され、第−1層の複数のノードのそれぞれは、当該1つ前の画像データのピクセルデータのそれぞれが対応して入力される。同様に、第−δ層の複数のノードのそれぞれは、δ前の画像データのピクセルデータのそれぞれが対応して入力される。
第0層が有する複数のノードは、それぞれバイアスパラメータを有する。例えば、j番目のノードjは、バイアスパラメータbを有する。また、各層において、複数のノード間には、重みパラメータを有さない。一方、第0層が有する複数のノードは、一の時点より前の入力データ系列に対応する層が有するノードとの間に、重みパラメータを有する。図2は、第0層のノードjと、第−δ層のノードiとの間の重みパラメータWij [δ]の概念を示した。
重みパラメータWij [δ]は、具体的に次式で示される。
Figure 2016071697
ここで、ui,j,kおよびvi,j,lは、学習対象となる学習パラメータである。λ t1およびμ t2は、入力データ系列中の入力データと一の時点の入力データとの間の時点差δに応じて予め定められた変化をする規定パラメータである(t1=δ−dij、t2=−δ)。即ち、重みパラメータWij [δ]は、学習パラメータui,j,kおよびvi,j,lと、規定パラメータλ t1およびμ t2とに基づくパラメータである。
重みパラメータWij [δ]は、第1の学習パラメータui,j,kおよび第1の規定パラメータλ t1の積に基づく正の値と、第2の学習パラメータvi,j,lおよび第2の規定パラメータμ t2の積に基づく負の値とに基づくパラメータである。具体的には、重みパラメータWij [δ]は、時点差δが予め定められた遅延定数dij以上の場合、第1の学習パラメータui,j,kおよび第1の規定パラメータλ t1の積に基づく正の値をとる。また、重みパラメータWij [δ]は、当該時点差δが遅延定数dij未満かつ0でない場合に第2の学習パラメータvi,j,lおよび第2の規定パラメータμ t2の積に基づく負の値をとる。また、重みパラメータWij [δ]は、当該時点差δが0の場合、0となる。
また、重みパラメータWij [δ]は、時点差δが予め定められた遅延定数dij以上の場合、複数の第1の学習パラメータui,j,kおよび複数の第1の規定パラメータλ t1における複数組の第1の学習パラメータui,j,kおよび第1の規定パラメータλ t1の積ui,j,k・λ t1に基づく複数の正の値に基づく。また、重みパラメータWij [δ]は、当該時点差δが遅延定数dij未満かつ0でない場合、複数の第2の学習パラメータvi,j,lおよび複数の第2の規定パラメータμ t2における複数組の第2の学習パラメータvi,j,lおよび第2の規定パラメータμ t2の積vi,j,l・μ t2に基づく複数の負の値とに基づく。
ここで、規定パラメータは、予め定められた定数を時点差δに基づく数分累乗した値に基づくパラメータである。第1規定パラメータλ t1は、一例として、時点差δが大きくなるにしたがって値が漸減するパラメータである。この場合、第1の規定パラメータλ t1は、0より大きく1より小さい第1定数λを、時点差δから予め定められた遅延定数dijを減じた数(δ−dij=t1)分累乗した値をとる。また、第2規定パラメータμ t2は、一例として、時点差δが大きくなるにしたがって値が漸減するパラメータである。この場合、第2の規定パラメータμ t2は、0より大きく1より小さい第2定数μを、時点差δのマイナス値(−δ=t2)分累乗した値をとる。
以上の本実施形態に係るモデル10は、ボルツマンマシンを構成する。即ち、モデル10は、時系列データを適用したボルツマンマシンとなる。本実施形態に係る学習装置100は、モデル10の第0層に供給された一の時点の入力データを教師データとして、学習パラメータui,j,kおよびvi,j,lとバイアスパラメータbとを調節して当該モデル10を学習する。学習装置100の学習動作について、図3を用いて説明する。
図3は、本実施形態に係る学習装置100の動作フローを示す。本実施形態において、学習装置100は、S310〜S350の処理を実行することにより、時系列入力データに対応するモデル10を学習して、学習パラメータui,j,kおよびvi,j,lとバイアスパラメータbとを決定する。
まず、取得部110は、時系列データを取得する(S310)。取得部110は、モデル10の第0層から第−T+1層までの合計T層に相当する期間の時系列データを取得してよい。取得部110は、一例として、動画像データを構成する時系列に並ぶT個の画像データを取得する。
次に、供給部120は、時系列入力データにおける一の時点の入力データに対応する複数の入力値を、モデル10の対応する第0層が有する複数のノードにそれぞれ供給する(S320)。ここで、第0層に供給される入力データをx[0]とする。供給部120は、例えば、時系列入力データのうち時間的に最新の時点の入力データx[0]に対応する複数の入力値x [0]を、第0層の対応するノードjに供給する。供給部120は、一例として、動画像データを構成する時系列に並ぶT個の画像データのうち、最後の画像データの複数のピクセルデータを、第0層の複数のノードに供給する。ただし、時系列の長さがTに満たない場合には、第0層から時系列の長さ分の層にデータを供給し、残りの層のノードには、例えば、値0を供給する。
次に、算出部130は、一の時点より前の入力データ系列に対応する複数の入力値を、モデル10の対応する第−1層から第−T+1層がそれぞれ有する複数のノードにそれぞれ供給する。ここで、第−1層から第−T+1層に供給される入力データをx(−T,−1]とする。なお、記号(−T,−1]は、第−T+1層から−1層までを意味する。即ち、時系列データにおける入力データx(−T,−1]は、入力データx[0]に至るまでの履歴となる。
算出部130は、例えば、時系列入力データのうち時間的にδ番目に新しい時点の入力データに対応する複数の入力値を、第−δ層の複数のノードに供給する。算出部130は、一例として、動画像データを構成する時系列に並ぶT個の画像データのうち、第1番目からT−1番目に並ぶ画像データの複数のピクセルデータを、対応する第−T+1層から第−1層の複数のノードにそれぞれ供給する。
そして、算出部130は、第−T+1層から第−1層の複数のノードに供給された入力データ系列に対応する複数の入力値のそれぞれと、重みパラメータWij [δ]に基づいて、一の時点の各入力値の条件付確率を算出する(S330)。算出部130は、入力データの履歴x(−T,−1]に基づき、第0層のj番目のノードの入力値x [0]が1となる確率<x [0]θを、次式のx [0]に1を代入して算出する。なお、本実施形態において、各ノードの入力値x [0]は、1または0の2値である例を説明するが、当該入力値x [0]の値はこれに限定されない。
Figure 2016071697
(数2)式は、ボルツマンマシンとして既知の確率式から導かれる。ここで、θは、算出すべきパラメータの集合であり、θ=(b,ui,j,k,vi,j,l)である。また、τは、ボルツマンマシンとして既知の「システムの温度」に依存し、ユーザ等によって予め設定されるパラメータである。(数2)式のEθ,j(x [0]|x (−∞,−1])は、次式を用いて算出される。
Figure 2016071697
ここで、「T'」は転置行列を示す。また、「:」は、ノード数をnとした場合の1からnを示し、「:,j」は、j列を抜き出すことに相当する。即ち、(数3)式の右辺の第2項は、次式のように示される。
Figure 2016071697
ここで、αi,j,k、βi,j,l、およびγi,lは、次式で示される。
Figure 2016071697
Figure 2016071697
Figure 2016071697
即ち、(数2)式のx [0]に1を代入したPθ,j(1|x (−T,−1])は、(数3)から(数5)式のx [0]に1を代入して算出することができる。なお、θ=(b,ui,j,k,vi,j,l)は、予め定められた初期値(一例として、0等)を代入してよい。これにより、算出部130は、(数2)式で示される一の時点の各入力値x [0]の条件付確率<x [0]θを算出することができる。
次に、学習処理部140は、パラメータθ=(b,ui,j,k,vi,j,l)を調整する(S340)。学習処理部140は、バイアスパラメータbを調整する場合、当該バイアスパラメータbの変化の方向を次式によって定める。
Figure 2016071697
ここで、(数8)式の右辺のx [0]は、教師データとして供給部120が供給した入力値であり、右辺の<x [0]θは、(数2)式で算出される確率である。(数8)式より、バイアスパラメータbは、次式で示すように調整して更新される。なお、係数cは、ユーザ等によって予め定められるパラメータである。
Figure 2016071697
即ち、学習処理部140は、履歴x(−T,−1]である入力データ系列が発生した条件の下で、第0層のノードの入力値x [0]が発生する条件付確率を高めるように、バイアスパラメータbを調整する。学習処理部140は、(数9)式に示されたバイアスパラメータbの更新と(数2)式に示された確率<x [0]θの算出とを繰り返し、バイアスパラメータbを決定する。学習処理部140は、例えば、バイアスパラメータbの更新前と更新後の値の差が、予め定められた閾値以下の場合に、バイアスパラメータbの更新を停止して、バイアスパラメータbを決定する。
また、学習処理部140は、予め定められた回数だけバイアスパラメータbの更新を繰り返して、バイアスパラメータbを決定してもよい。なお、学習処理部140は、予め定められた回数だけバイアスパラメータbの更新を繰り返しても、バイアスパラメータbの更新前と更新後の値が予め定められた閾値以上の場合、バイアスパラメータbの更新を停止してパラメータが収束しないことをユーザに通知してよい。
同様に、学習処理部140は、学習パラメータui,j,kを更新する場合、当該学習パラメータui,j,kの変化の方向を次式によって定める。
Figure 2016071697
また、学習処理部140は、学習パラメータvi,j,lを更新する場合、当該学習パラメータvi,j,lの変化の方向を次式によって定める。
Figure 2016071697
学習処理部140は、バイアスパラメータbの更新と同様に、学習パラメータui,j,kおよびvi,j,lの更新と確率<x [0]θの算出をそれぞれ繰り返して、学習パラメータui,j,kおよびvi,j,lをそれぞれ定めてよい。これに代えて、学習処理部140は、パラメータθ=(b,ui,j,k,vi,j,l)をそれぞれ更新してから、(数2)式に示された確率<x [0]θを算出する動作を繰り返して、パラメータθ=(b,ui,j,k,vi,j,l)を定めてもよい。
以上のように、本実施形態に係る学習処理部140は、学習パラメータui,j,kおよびvi,j,lとバイアスパラメータbとを学習して決定することができる。学習装置100は、学習を継続するか否かを判断する(S350)。学習装置100は、予め定められた回数の学習処理に至るまで学習を継続してよく、これに代えて、ユーザの停止命令が入力されるまで学習を継続してよい。また、学習装置100は、取得できる時系列データがなくなるまで、学習を継続してよい。
学習装置100は、学習を継続する場合(S350:Yes)、ステップS310に戻り、取得部110が次の時系列データを取得して、当該次の時系列データに基づくモデルの学習を実行する。取得部110は、一例として、画像データの次の画像データを取得して0層に供給する。この際、t層(−T<t<0)に保持していた値は、t−1層に供給する。なお、Tが有限の場合には、−T+1層に保持していた値は削除される。学習装置100は0層から−T+1層に供給された画像データを教師データとして学習する。
このように、取得部110は、時系列入力データの新たな入力データを順次取得し、供給部120は、新たな入力データに応じた複数の入力値x [0]を複数のノードに順次供給する。そして、算出部130は、時系列入力データにおける新たな入力データより前の入力データ系列x(−T,−1]が発生した条件下における新たな入力データに対応する時点の入力値x [0]の条件付確率<x [0]θを算出する。学習処理部140は、重みパラメータを調整して、当該入力データ系列x(−T,−1]が発生した条件の下で新たな入力データが発生する条件付確率を高める。
学習処理部140は、学習を終了する場合(S350:No)、決定した学習パラメータui,j,kおよびvi,j,lとバイアスパラメータbとを出力して、外部のデータベース1000等に記憶する。
以上のように、本実施形態に係る学習装置100は、時系列に入力される時系列入力データに対して、一の時点を第0層とし、一の時点より前の入力データ系列をT−1層とした合計T層のモデルを適用することで、入力データ系列に基づき一の時点の入力データを予測する時間発展を考慮したボルツマンマシンを構成する。そして、学習装置100は、当該時間発展を考慮したモデルに対し、履歴である入力データ系列x(−T,−1]に基づき、一の時点の入力データが発生する条件付確率を算出することで、当該モデルを学習することができる。
以上の本実施形態に係る学習装置100は、時系列入力データの新たな入力データを順次取得し、取得した入力データ毎に重みパラメータを調整することを説明した。これに代えて、学習装置100は、予め定められた期間の時系列入力データを取得してから、重みパラメータを調整してもよい。例えば、学習処理部140は、D層分といった新たに複数時点分の入力データが取得されたことに応じて、重みパラメータを当該複数時点分まとめて調整する。
図4は、本実施形態に係る時系列データと、学習に用いる訓練データの構成例を示す。図4の横軸は、時間を示す。図4は、学習装置100が訓練データとして学習に用いる時系列データy[1,T]の期間Tよりも、長い期間Lの時系列データy[1,L]を学習装置100が用いる場合の一例を示す。
学習装置100は、まず、時系列データのうち、期間1からTの時系列データを第1訓練データとして、学習する。即ち、学習装置100は、時点Tのデータを一の時点の各入力値x [0]とし、期間1からT−1の時系列データを入力データ系列x(−T,−1](即ち、履歴)として、学習を実行する。
次に、学習装置100は、時系列データのうち、期間2からT+1の時系列データを第2訓練データとして、学習する。学習装置100は、時点T+D−1までのD個のデータを順次、一の時点の各入力値x [0]としてよい。この場合、学習装置100は、時点1からT―1までの期間から、1つずつ時点を将来の方向にずらして、時点DからT+D−2までのD個の期間の時系列データを履歴としてよい。学習装置100は、このように、D個の各入力値x [0]と、対応するD個の履歴に対して、D回のパラメータ調整を実行してよい。即ち、学習装置100は、x[0]をy[T+t]とし、x(−T,−1]をy(t,T+t−1]として、0からD−1までのtについて、(数8)から(数11)式で説明した学習方法を実行する確率的勾配法を用いてよい。
また、学習装置100は、期間D毎に時系列データを取得して、期間Lの時系列データから複数の訓練データを生成して、D層分の学習をまとめて実行してよい。即ち、学習装置100は、次式を用い、(数8)から(数11)式で説明した確率的勾配法をD層分まとめて実行してもよい。
Figure 2016071697
図5は、本実施形態に係る学習装置100の変形例を示す。図5に示す学習装置100において、図1に示された本実施形態に係る学習装置100の動作と略同一のものには同一の符号を付け、説明を省略する。本変形例の学習装置100は、図4で説明したように、期間Lの時系列データが与えられる場合に、FIFOメモリを用いてパラメータの更新を効率的に実行し、時系列入力データに対応するモデルを学習する。本変形例の学習装置100は、FIFOメモリ150と、更新部160とを更に備える。本実施形態においては、FIFOメモリを備えることで、−1層から−T+1層までの履歴を保持するノードは不要となる。また、本実施形態ではTが無限の場合を説明する。
FIFOメモリ150は、時系列入力データの新たな入力データにおける対応する入力値を順次格納して予め定められた時点数の後に出力する。FIFOメモリ150は、先に入力されて格納したデータから、先に出力する(FIFO:First In, First Out)メモリである。学習装置100は、モデルが有する複数のノードの数n以上の複数のFIFOメモリ150を備える。FIFOメモリ150は、複数のノードのそれぞれに1対1に対応して複数設けられることが望ましい。即ち、複数のFIFOメモリ150のそれぞれが、時系列入力データにおける過去の入力データに対応する複数の入力値のそれぞれと、複数のノードのそれぞれとの間に設けられる。
複数のFIFOメモリ150は、取得部110に接続され、時系列データの新たな入力データの対応する入力値を順次格納する。また、複数のFIFOメモリは、更新部160に接続され、格納したデータを当該更新部160に順次供給する。
更新部160は、時系列入力データにおける一の時点より前の入力データ系列に基づく複数の更新パラメータを、それぞれの更新パラメータの値および次に反映すべき入力データにおける対応する入力値に基づいて前の時点における値から一の時点の値へと更新する。更新部160は、FIFOメモリ150に入力した入力値と、FIFOメモリ150から出力された入力値を用いて更新パラメータを更新する。更新部160は、取得部110に接続され、FIFOメモリ150に入力した入力値を受け取ってよい。これに代えて、更新部160は、供給部120を介して、FIFOメモリ150に入力した入力値を取得部110から受け取ってよい。
ここで、更新パラメータは、(数5)および(数7)式に示したαi,j,kおよびγi,lである。即ち、更新パラメータは、入力データ系列中の各時点の入力データにおける対応する入力値と、当該入力値と対象とするノードiの間の重みパラメータWij [δ]における規定パラメータλ t1およびμ t2とに基づく。更新パラメータは、取得部110による時系列入力データの取得が順次実行される毎に、当該更新パラメータは更新される。以上の本変形例の学習装置100は、モデル10の変形例を学習する。モデル10の変形例について、図6を用いて説明する。
図6は、本実施形態に係るモデル10の変形例を示す。本変形例のモデル10は、図2のようなT層の層構造を有さない。図6は、1つのFIFOメモリ150に対応するモデルの例を示す。したがって、本変形例のモデル10の全体構成は、一例として、教師データを格納する図2の第0層に相当する記憶領域と、図6に示す構成をノードの数nだけ備えるモデルとなる。本変形例のモデル10の、ニューロンi、ニューロンj、およびFIFO列20を説明する。
ニューロンiは、FIFOメモリ150の入力側に相当し、入力データ系列中の各時点tの入力データにおける各ノードの入力値y [t]が、順次入力される。ニューロンiは、入力された入力値y [t]を今回入力された入力値とする。そして次に、時点t+1において、ニューロンiは、時点tにおいて入力された入力値y [t]を更新部160に供給するとともに、FIFO列20に前回の入力値として供給し、時点t+1の入力値y [t+1]を今回の入力値として保持する。
FIFO列20は、ニューロンiから受け取った直近のdij−1個の入力値を格納する。FIFO列20は、格納したdij−1個の入力値を更新部160に供給する。更新部160は、FIFO列から供給された入力値を用いて、(数6)式に示す更新パラメータの値を算出する。FIFO列20は、y [t−1]からy [t−dij+1]を保持する場合、次式のように示される。
Figure 2016071697
即ち、FIFO列20は、時点t1において入力値y [t1]がニューロンiに入力されると、時点t1の次の時点t2(=t1+1)から予め定められた時間間隔dij−1が経過した後の時点t3(=t1+dij―1)までの間、入力値y [t1]を格納する。FIFO列20は、次の時点t4(=t3+1=t1+dij)において、入力値y [t1]をニューロンjに受け渡す。時点t4においてニューロンjに受け渡された入力値y [t1]は、時点t4のうちに直ちに更新部160に受け渡される。ただし、時点t4においてニューロンjがFIFO列から受け取った入力値y [t1]は、ニューロンjの入力とはならず、時点t4においてニューロンjには入力値y [t4]が入力される。
ニューロンjは、FIFOメモリ150の出力側に相当し、ニューロンiの時点t1の入力値y [t1]を、FIFO列を経由して、時間間隔dijの後、すなわち時点t1+dijに受け取る。即ち、ニューロンiからFIFO列20を介してニューロンjに達するまでのモデル10は、dij個の入力データが格納されるFIFOメモリ150に対応することになる。また、本変形例のモデル10のニューロンiは、一例として、図2に示したモデル10の−δ層のノードiといった、入力データ系列のノードに対応し、ニューロンjは、一例として、第0層のノードjに対応する。時点t1+dijにおいて、ニューロンjは、受け取った入力値y [t1]を更新部160に供給する。
以上のように、本変形例のモデル10は、時点tにおいて、入力値y [t−1]および入力値y [t−dij]を更新部160に供給する。これにより、更新部160は、一の時点の前における更新パラメータに、次に反映すべき入力データにおける対応する入力値を加えてから予め定められた定数を乗じることによって、更新パラメータを更新することができる。ただし、(数8)式に示される更新パラメータは、更新部160に供給されたFIFO列に格納された入力値を用いて、(数8)式に従って算出する。
例えば、(数7)式に示される更新パラメータγi,lは、更新部160に供給される入力値と第2の規定パラメータμを用いて更新できる。すなわち、更新部160は、時点tにおいて、前回の更新パラメータγi,lと時点tにニューロンiから受け取る入力値y [t−1]とを用いて、次式のように計算することで、今回の学習に用いる更新パラメータγi,lを算出することができる。
Figure 2016071697
図7は、本実施形態に係る更新パラメータγi,lの時間的な推移の一例を示す。図7は、時点t−5、t−2、およびt−1において、0より大きい値(例えば1)が入力値としてニューロンiに入力され、これらの入力値が時点t−4、t−1、およびtにおい
て更新部160に供給された例を示す。第2規定パラメータμは、時点差が大きくなるにしたがって値が漸減するパラメータなので、更新部160が算出する更新パラメータγi,lは、入力値1が入力した時点から次の入力がある時点まで、時間の経過と共に減少する傾向が得られる。
また、(数5)式に示される更新パラメータαi,j,kは、更新部160に供給される入力値と第1の規定パラメータλを用いて更新できる。すなわち、更新部160は、時点tにおいて、前回の更新パラメータαi,j,kと時点tにニューロンjから受け取る入力値y [t−dij]を用いて、次式のように計算することで、今回の学習に用いる更新パラメータαi,j,kを算出することができる。
Figure 2016071697
図8は、本実施形態に係る更新パラメータαi,j,kの時間的な推移の一例を示す。図8は、時点t−3、t−1、およびtにおいて、0より大きい値(例えば1)が入力値としてニューロンjに受け渡された例を示す。第1規定パラメータλは、時点差が大きくなるにしたがって値が漸減するパラメータなので、更新部160が算出する更新パラメータαi,j,kは、入力値1が入力した時点から次の入力がある時点まで、時間の経過と共に減少する傾向が得られる。
以上のように、本変形例に係る学習装置100は、FIFOメモリ150および更新部160を用い、図6のモデル10を適用することで、更新パラメータαi,j,kおよびγi,lを更新することができる。なお、更新部160は、例えば、時点t−1の入力値x [t−1]をFIFOメモリ150に入力する入力データから取得し、時点t−dijの入力値x [t−dij]をFIFOメモリ150の出力から取得することで、本変形例のモデル10を適用することができる。
また、学習装置100は、パラメータβi,j,lの更新を、図3で説明した動作と略同一の動作で実行してよい。即ち、算出部130は、(数6)式に示されるように、時点t−1から時点t−dij+1における第2の規定パラメータμと入力値x(本変形例においてはy)との積を累積してパラメータβi,j,lを算出する。
以上より、本変形例の算出部130は、複数の更新パラメータを用いて入力データ系列が発生した条件下における一の時点の入力データ値の条件付確率を算出することができる。そして、学習処理部140は、図3で説明した動作と略同一の動作を実行することで、学習パラメータui,j,kおよびvi,j,lとバイアスパラメータbとを決定することができる。
以上のように、図5に示す本変形例に係る学習装置100は、図1に示す学習装置100と比較して、更新パラメータαi,j,kおよびγi,lの更新を容易に実行することができ、より記憶容量と計算コストを低減させて本変形例のモデル10を学習することができる。また、本変形例のモデル10は、FIFOメモリ150と容易に対応させることができるので、ハードウエアとして実装させることが容易であり、設計効率を高めることができる。例えば、ハードウェアとして実装する場合、更新部160を各ニューロンに分散して持たせることができる。この場合、ニューロンiに持たされた更新部160は、ニューロンiに入力または供給される入力値だけを用いて、ニューロンiに関連する更新パラメータを更新することができる。
図9は、本実施形態に係る処理装置200の構成例を示す。処理装置200は、時系列データに対応するモデルを用いて時系列入力データから次のデータを予測する。処理装置200は、取得部210と、パラメータ取得部212と、供給部220と、ノード算出部230と、データ算出部240と、を備える。
取得部210は、時系列入力データを取得する。取得部210は、ユーザが操作する装置等に接続され、時系列入力データを取得してよい。また、取得部210は、記憶装置等に予め定められた形式で記憶された時系列入力データを読み出して取得してよい。また、取得部210は、ネットワーク等に接続され、当該ネットワークを介して時系列入力データを取得してもよい。また、取得部210は、取得した時系列入力データを、処理装置200内部の記憶装置等に記憶してよい。
パラメータ取得部212は、予め学習によって決定されたパラメータを取得する。パラメータ取得部212は、外部の記憶装置等に接続され、以上で説明した学習装置100等によって学習により決定された学習パラメータui,j,kおよびvi,j,lとバイアスパラメータbとを取得してよい。また、パラメータ取得部212は、学習装置100等に接続されてよく、この場合、パラメータ取得部212は、一例として、学習処理部140に接続される。
供給部220は、対象時点に対応する複数の入力値をモデルが有する複数のノードに供給する。供給部220は、取得部210に接続され、受けとった時系列入力データにおける予測対象時点よりも前の入力データ系列を、モデルの対応するノードに供給する。
ノード算出部230は、時系列入力データにおける予測対象時点より前の入力データ系列と、モデルにおける入力データ系列中の入力データに対応する複数の入力値のそれぞれと複数のノードのそれぞれとの間の重みパラメータとに基づいて、入力データ系列が発生した条件下において予測対象時点に対応する各ノードのとる値に関する条件付確率を算出する。即ち、ノード算出部230は、パラメータ取得部212に接続され、受け取った学習パラメータui,j,kおよびvi,j,lとバイアスパラメータbとに基づき、第0層の各ノードの取る値の条件付確率を算出する。ノード算出部230は、算出した条件付確率をデータ算出部240に供給する。
データ算出部240は、第0層の各ノードのとる値に関する条件付確率に基づいて、第0層がとるベクトル値に関する条件付確率を算出する。データ算出部240は、ノード算出部230に接続され、受け取った条件付確率に基づき、例えば、次のデータが1または0となる条件付確率を算出する。データ算出部240は、算出した条件付確率をデータベース等の外部記憶装置に記憶する。これに代えて、データ算出部240は、算出した条件付確率を処理装置200内部の記憶装置に記憶してよい。
以上の本実施形態に係る処理装置200は、例えば、時点−1から時点−T+1までの入力データ系列を時系列入力データとして取得し、時点0におけるデータを予測する。処理装置200の予測動作について、図10を用いて説明する。
図10は、本実施形態に係る処理装置200の動作フローを示す。本実施形態において、処理装置200は、S410〜S450の処理を実行することにより、時系列入力データが発生した条件の下で次のデータの値を予測する。なお、処理装置200は、図2で示したモデル10を用いてデータの値を予測する例を説明する。
まず、取得部210は、時系列入力データを取得する(S410)。取得部110は、モデル10の第−1層から第−T+1層までの合計T−1層に相当する期間の時系列入力データを取得してよい。取得部110は、一例として、動画像データを構成する時系列に並ぶT−1個の画像データを取得する。
次に、パラメータ取得部212は、予め学習によって決定されたパラメータを取得する(S420)。パラメータ取得部212は、取得したパラメータをノード算出部230に供給する。
次に、供給部220は、入力データ系列のそれぞれの入力値を、データモデル10の第−1層から第−T+1層までの合計T−1層の対応するノードに供給する(S430)。
次に、ノード算出部230およびデータ算出部240は、第0層の条件付確率を算出する(S440)。ノード算出部230は、パラメータ取得部212から受け取った学習パラメータui,j,kおよびvi,j,lを(数1)に代入して、重みパラメータWij [δ]を算出する。そして、ノード算出部230は、受け取ったバイアスパラメータb、算出した重みパラメータWij [δ]、(数2)および(数3)式に基づき、入力データ系列が発生した条件下において第0層の各ノードjのとる値に関する条件付確率Pθ,j(x [0]|x(−∞,−1])を算出する。
そして、データ算出部240は、(数3)式で得られた条件付確率Pθ,j(x [0]|x(−∞,−1])を次式に代入して、時系列入力データが発生した条件の下で第0層がとるベクトル値に関する条件付確率Pθ,j(x[0]|x(−∞,−1])を算出する。
Figure 2016071697
データ算出部240は、(数16)式のように、時系列入力データが発生した条件の下で第0層がとるベクトル値に関する条件付確率Pθ(x[0]|x(−∞,−1])として、時系列入力データが発生した条件の下で第0層の各ノードjの値が予測対象時点に当該予め定められた値に対応する値となる条件付確率Pθ,j(x [0]|x(−∞,−1])を複数のノードjについて乗じた積を算出する。これによって、データ算出部240は、第0層のデータの値を予測することができる。処理装置200は、一例として、時系列に並ぶT−1個の画像データに基づき、次の時刻に配列される1つの画像データを予測して、合計T個の画像を含む動画像を生成できる。
次に、処理装置200は、予測処理を継続するか否かを判断する(S450)。処理装置200は、予め定められた回数の予測処理に至るまで予測を継続してよく、これに代えて、ユーザの停止命令が入力されるまで予測を継続してよい。
処理装置200は、予測を継続する場合(S450:Yes)、ステップS410の時系列データの取得に戻る。この場合、取得部210は、前回の予測結果を新たな時系列データとして取得し、前回の予測における第0層から第−T+2層の時系列データを、今回の予測における第−1層から第−T+1層の時系列データとする。そして、処理装置200は、第0層のデータの値を予測する。このように、処理装置200は、予測した結果に基づき、更に次の時点のデータの値を予測して、将来の時点の時系列データを順次予測する。データ算出部240は、予測処理を終了する場合(S450:No)、予測結果を外部のデータベース1000等に記憶して終了する。
処理装置200は、一例として、時系列に並ぶT−1個の画像データに基づき、次に配列される画像データを順次予測して、予測した回数Mに応じた合計T+M−1個の画像を含む動画像を生成できる。これにより、過去の動画像データに基づき、将来の動画像データを予測することができる。この場合、将来の動画像データと、実際に撮像を継続して取得した動画像とを比較することで、予測することが困難な異常画像等の検出を実行することができる。
以上のように、本実施形態に係る処理装置200は、図2に示すモデル10の時間発展を考慮したモデルに対し、履歴である入力データ系列x(−∞,−1]と学習装置100の学習結果とに基づき、一の時点の入力データが発生する条件付確率を算出することができる。このように、処理装置200は、時間発展を考慮するモデル10の学習結果に基づき、次の時点の時系列データを予測することができるので、学習装置100と組み合わせることで、時間発展を考慮するモデルを時系列予測等に応用することができる。
また、以上の本実施形態に係る学習装置100および処理装置200は、図2のモデル10の第0層が有する各ノードの処理を、独立に処理することができる。したがって、当該学習装置100および処理装置200を、ハードウェアおよび/またはソフトウェアに実装する場合において、独立に実装させることができ、分散処理および並列処理等をしてより高速に効率よく学習及び予測を実行することができる。
なお、本実施形態において、学習装置100および処理装置200は、別個独立に機能する装置である例を説明した。これに代えて、学習装置100および処理装置200は、1つの装置に備わってもよい。例えば、学習装置100と、処理装置200と、を備える予測システムが構成されてよい。この場合、処理装置200の取得部210は、学習装置100の学習処理部140に接続され、当該学習処理部140が学習によって決定したパラメータを取得してよい。
図11は、本実施形態に係る学習装置100および処理装置200として機能するコンピュータ1900のハードウェア構成の一例を示す。本実施形態に係るコンピュータ1900は、ホスト・コントローラ2082により相互に接続されるCPU2000、RAM2020、グラフィック・コントローラ2075、および表示装置2080を有するCPU周辺部と、入出力コントローラ2084によりホスト・コントローラ2082に接続される通信インターフェイス2030、ハードディスクドライブ2040、およびDVDドライブ2060を有する入出力部と、入出力コントローラ2084に接続されるROM2010、フレキシブルディスク・ドライブ2050、および入出力チップ2070を有するレガシー入出力部と、を備える。
ホスト・コントローラ2082は、RAM2020と、高い転送レートでRAM2020をアクセスするCPU2000およびグラフィック・コントローラ2075とを接続する。CPU2000は、ROM2010およびRAM2020に格納されたプログラムに基づいて動作し、各部の制御を行う。グラフィック・コントローラ2075は、CPU2000等がRAM2020内に設けたフレーム・バッファ上に生成する画像データを取得し、表示装置2080上に表示させる。これに代えて、グラフィック・コントローラ2075は、CPU2000等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。
入出力コントローラ2084は、ホスト・コントローラ2082と、比較的高速な入出力装置である通信インターフェイス2030、ハードディスクドライブ2040、DVDドライブ2060を接続する。通信インターフェイス2030は、ネットワークを介して他の装置と通信する。ハードディスクドライブ2040は、コンピュータ1900内のCPU2000が使用するプログラムおよびデータを格納する。DVDドライブ2060は、DVD−ROM2095からプログラムまたはデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。
また、入出力コントローラ2084には、ROM2010と、フレキシブルディスク・ドライブ2050、および入出力チップ2070の比較的低速な入出力装置とが接続される。ROM2010は、コンピュータ1900が起動時に実行するブート・プログラム、および/または、コンピュータ1900のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ2050は、フレキシブルディスク2090からプログラムまたはデータを読み取り、RAM2020を介してハードディスクドライブ2040に提供する。入出力チップ2070は、フレキシブルディスク・ドライブ2050を入出力コントローラ2084へと接続すると共に、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を入出力コントローラ2084へと接続する。
RAM2020を介してハードディスクドライブ2040に提供されるプログラムは、フレキシブルディスク2090、DVD−ROM2095、またはICカード等の記録媒体に格納されて利用者によって提供される。プログラムは、記録媒体から読み出され、RAM2020を介してコンピュータ1900内のハードディスクドライブ2040にインストールされ、CPU2000において実行される。
プログラムは、コンピュータ1900にインストールされ、コンピュータ1900を取得部110、供給部120、算出部130、学習処理部140、FIFOメモリ150、更新部160、取得部210、パラメータ取得部212、供給部220、ノード算出部230、およびデータ算出部240として機能させる。
プログラムに記述された情報処理は、コンピュータ1900に読込まれることにより、ソフトウェアと上述した各種のハードウェア資源とが協働した具体的手段である取得部110、供給部120、算出部130、学習処理部140、FIFOメモリ150、更新部160、取得部210、パラメータ取得部212、供給部220、ノード算出部230、およびデータ算出部240として機能する。そして、この具体的手段によって、本実施形態におけるコンピュータ1900の使用目的に応じた情報の演算または加工を実現することにより、使用目的に応じた特有の学習装置100および処理装置200が構築される。
一例として、コンピュータ1900と外部の装置等との間で通信を行う場合には、CPU2000は、RAM2020上にロードされた通信プログラムを実行し、通信プログラムに記述された処理内容に基づいて、通信インターフェイス2030に対して通信処理を指示する。通信インターフェイス2030は、CPU2000の制御を受けて、RAM2020、ハードディスクドライブ2040、フレキシブルディスク2090、またはDVD−ROM2095等の記憶装置上に設けた送信バッファ領域等に記憶された送信データを読み出してネットワークへと送信し、もしくは、ネットワークから受信した受信データを記憶装置上に設けた受信バッファ領域等へと書き込む。このように、通信インターフェイス2030は、DMA(ダイレクト・メモリ・アクセス)方式により記憶装置との間で送受信データを転送してもよく、これに代えて、CPU2000が転送元の記憶装置または通信インターフェイス2030からデータを読み出し、転送先の通信インターフェイス2030または記憶装置へとデータを書き込むことにより送受信データを転送してもよい。
また、CPU2000は、ハードディスクドライブ2040、DVDドライブ2060(DVD−ROM2095)、フレキシブルディスク・ドライブ2050(フレキシブルディスク2090)等の外部記憶装置に格納されたファイルまたはデータベース等の中から、全部または必要な部分をDMA転送等によりRAM2020へと読み込ませ、RAM2020上のデータに対して各種の処理を行う。そして、CPU2000は、処理を終えたデータを、DMA転送等により外部記憶装置へと書き戻す。このような処理において、RAM2020は、外部記憶装置の内容を一時的に保持するものとみなせるから、本実施形態においてはRAM2020および外部記憶装置等をメモリ、記憶部、または記憶装置等と総称する。本実施形態における各種のプログラム、データ、テーブル、データベース等の各種の情報は、このような記憶装置上に格納されて、情報処理の対象となる。なお、CPU2000は、RAM2020の一部をキャッシュメモリに保持し、キャッシュメモリ上で読み書きを行うこともできる。このような形態においても、キャッシュメモリはRAM2020の機能の一部を担うから、本実施形態においては、区別して示す場合を除き、キャッシュメモリもRAM2020、メモリ、および/または記憶装置に含まれるものとする。
また、CPU2000は、RAM2020から読み出したデータに対して、プログラムの命令列により指定された、本実施形態中に記載した各種の演算、情報の加工、条件判断、情報の検索・置換等を含む各種の処理を行い、RAM2020へと書き戻す。例えば、CPU2000は、条件判断を行う場合においては、本実施形態において示した各種の変数が、他の変数または定数と比較して、大きい、小さい、以上、以下、等しい等の条件を満たすかどうかを判断し、条件が成立した場合(または不成立であった場合)に、異なる命令列へと分岐し、またはサブルーチンを呼び出す。
また、CPU2000は、記憶装置内のファイルまたはデータベース等に格納された情報を検索することができる。例えば、第1属性の属性値に対し第2属性の属性値がそれぞれ対応付けられた複数のエントリが記憶装置に格納されている場合において、CPU2000は、記憶装置に格納されている複数のエントリの中から第1属性の属性値が指定された条件と一致するエントリを検索し、そのエントリに格納されている第2属性の属性値を読み出すことにより、所定の条件を満たす第1属性に対応付けられた第2属性の属性値を得ることができる。
以上に示したプログラムまたはモジュールは、外部の記録媒体に格納されてもよい。記録媒体としては、フレキシブルディスク2090、DVD−ROM2095の他に、DVD、Blu−ray(登録商標)、またはCD等の光学記録媒体、MO等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワークまたはインターネットに接続されたサーバシステムに設けたハードディスクまたはRAM等の記憶装置を記録媒体として使用し、ネットワークを介してプログラムをコンピュータ1900に提供してもよい。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
10 モデル、20 FIFO列、100 学習装置、110 取得部、120 供給部、130 算出部、140 学習処理部、150 FIFOメモリ、160 更新部、200 処理装置、210 取得部、212 パラメータ取得部、220 供給部、230 ノード算出部、240 データ算出部、1000 データベース、1900 コンピュータ、2000 CPU、2010 ROM、2020 RAM、2030 通信インターフェイス、2040 ハードディスクドライブ、2050 フレキシブルディスク・ドライブ、2060 DVDドライブ、2070 入出力チップ、2075 グラフィック・コントローラ、2080 表示装置、2082 ホスト・コントローラ、2084 入出力コントローラ、2090 フレキシブルディスク、2095 DVD−ROM

Claims (21)

  1. 時系列入力データに対応するモデルを学習するための学習装置であって、
    前記時系列入力データを取得する取得部と、
    前記時系列入力データにおける一の時点の入力データに対応する複数の入力値を前記モデルが有する複数のノードに供給する供給部と、
    前記時系列入力データにおける前記一の時点より前の入力データ系列と、前記モデルにおける前記入力データ系列中の入力データに対応する複数の入力値のそれぞれと前記複数のノードのそれぞれとの間の重みパラメータとに基づいて、前記入力データ系列が発生した条件下における前記一の時点の各入力値の条件付確率を算出する算出部と、
    前記重みパラメータを調整して、前記入力データ系列が発生した条件の下で前記一の時点の入力データが発生する条件付確率をより高める学習処理部と、
    を備える学習装置。
  2. 前記時系列入力データにおける前記一の時点より前の入力データ系列に基づく複数の更新パラメータを、それぞれの更新パラメータの値および次に反映すべき入力データにおける対応する入力値に基づいて前の時点における値から前記一の時点の値へと更新する更新部を更に備え、
    前記算出部は、前記複数の更新パラメータを用いて前記入力データ系列が発生した条件下における前記一の時点の入力データ値の条件付確率を算出する
    請求項1に記載の学習装置。
  3. 前記重みパラメータは、学習対象となる学習パラメータと、前記入力データ系列中の入力データと前記一の時点の入力データとの間の時点差に応じて予め定められた変化をする規定パラメータとに基づく、請求項2に記載の学習装置。
  4. 前記更新パラメータは、前記入力データ系列中の各時点の入力データにおける対応する入力値と、当該入力値と対象とするノードの間の前記重みパラメータにおける前記規定パラメータとに基づく、請求項3に記載の学習装置。
  5. 前記規定パラメータは、予め定められた定数を時点差に基づく数分累乗した値に基づき、
    前記更新部は、前記一の時点の前における前記更新パラメータに次に反映すべき入力データにおける対応する入力値を加えてから前記定数を乗じることによって前記更新パラメータを更新する請求項4に記載の学習装置。
  6. 前記重みパラメータは、第1の前記学習パラメータおよび第1の前記規定パラメータの積に基づく正の値と、第2の前記学習パラメータおよび第2の前記規定パラメータの積に基づく負の値とに基づく、請求項5に記載の学習装置。
  7. 前記重みパラメータは、時点差が予め定められた遅延定数以上の場合に前記第1の学習パラメータおよび前記第1の規定パラメータの積に基づく正の値をとり、時点差が前記遅延定数未満かつ0でない場合に前記第2の学習パラメータおよび前記第2の規定パラメータの積に基づく負の値をとる請求項6に記載の学習装置。
  8. 前記重みパラメータは、複数の前記第1の学習パラメータおよび複数の前記第1の規定パラメータにおける複数組の前記第1の学習パラメータおよび前記第1の規定パラメータの積に基づく複数の正の値と、複数の前記第2の学習パラメータおよび複数の前記第2の規定パラメータにおける複数組の前記第2の学習パラメータおよび前記第2の規定パラメータの積に基づく複数の負の値とに基づく、請求項6または7に記載の学習装置。
  9. 前記第1の規定パラメータは、0より大きく1より小さい第1定数を、時点差から予め定められた遅延定数を減じた数分累乗した値をとり、
    前記第2の規定パラメータは、0より大きく1より小さい第2定数を、時点差のマイナス値分累乗した値をとる
    請求項6から8のいずれか一項に記載の学習装置。
  10. 前記時系列入力データの新たな入力データにおける対応する入力値を順次格納して予め定められた時点数の後に出力するFIFOメモリを備え、
    前記更新部は、前記FIFOメモリから出力された入力値を用いて前記更新パラメータを更新する請求項5から9のいずれか一項に記載の学習装置。
  11. 複数の前記FIFOメモリのそれぞれが、前記時系列入力データにおける過去の入力データに対応する複数の入力値のそれぞれと、前記複数のノードのそれぞれとの間に設けられる請求項10に記載の学習装置。
  12. 前記取得部は、前記時系列入力データの新たな入力データを順次取得し、
    前記供給部は、前記新たな入力データに応じた複数の入力値を前記複数のノードに順次供給し、
    前記算出部は、前記時系列入力データにおける前記新たな入力データより前の入力データ系列が発生した条件下における前記新たな入力データに対応する時点の入力データ値の条件付確率を算出し、
    前記学習処理部は、前記重みパラメータを調整して、当該入力データ系列が発生した条件の下で前記新たな入力データが発生する条件付確率を高める
    請求項1から11のいずれか一項に記載の学習装置。
  13. 前記学習処理部は、新たに複数時点分の入力データが取得されたことに応じて、前記重みパラメータを前記複数時点分まとめて調整する請求項1から12のいずれか一項に記載の学習装置。
  14. 前記学習処理部は、前記モデルにおける前記複数のノードのそれぞれに与えられたバイアスパラメータを更に調整する請求項1から13のいずれか一項に記載の学習装置。
  15. 時系列入力データに対応するモデルを用いて時系列入力データから次の入力データを予測する処理装置であって、
    前記時系列入力データを取得する時系列データ取得部と、
    予測対象時点に対応する複数の入力値を前記モデルが有する複数のノードに供給する供給部と、
    前記時系列入力データにおける予測対象時点より前の入力データ系列と、前記モデルにおける前記入力データ系列中の入力データに対応する複数の入力値のそれぞれと前記複数のノードのそれぞれとの間の重みパラメータとに基づいて、前記入力データ系列が発生した条件下において前記予測対象時点に対応する各入力値となる条件付確率を算出するノード算出部と、
    前記予測対象時点に対応する各入力値の条件付確率に基づいて、前記時系列入力データが発生した条件の下で次の入力データが予め定められた値となる条件付確率を算出するデータ算出部と、
    を備える処理装置。
  16. 前記モデルは、前記複数のノード間に重みパラメータを有さず、
    前記データ算出部は、前記時系列入力データが発生した条件の下で次の入力データが前記予め定められた値となる条件付確率として、前記時系列入力データが発生した条件の下で前記複数のノードのそれぞれが前記予測対象時点に当該予め定められた値に対応する値となる条件付確率を前記複数のノードについて乗じた積を算出する請求項15に記載の処理装置。
  17. 請求項1から14のいずれか一項に記載の学習装置と、
    請求項15または16に記載の処理装置と、
    を備える予測システム。
  18. 時系列入力データに対応するモデルを学習するための学習方法であって、
    前記時系列入力データを取得する取得段階と、
    前記時系列入力データにおける一の時点の入力データに対応する複数の入力値を前記モデルが有する複数のノードに供給する供給段階と、
    前記時系列入力データにおける前記一の時点より前の入力データ系列と、前記モデルにおける前記入力データ系列中の入力データに対応する複数の入力値のそれぞれと前記複数のノードのそれぞれとの間の重みパラメータとに基づいて、前記入力データ系列が発生した条件下における前記一の時点の各入力値の条件付確率を算出する算出段階と、
    前記重みパラメータを調整して、前記入力データ系列が発生した条件の下で前記一の時点の入力データが発生する条件付確率をより高める学習処理段階と、
    を備える学習方法。
  19. 時系列入力データに対応するモデルを用いて時系列入力データから次の入力データを予測する処理方法であって、
    前記時系列入力データを取得する取得段階と、
    予測対象時点に対応する複数の入力値を前記モデルが有する複数のノードに供給する供給段階と、
    前記時系列入力データにおける予測対象時点より前の入力データ系列と、前記モデルにおける前記入力データ系列中の入力データに対応する複数の入力値のそれぞれと前記複数のノードのそれぞれとの間の重みパラメータとに基づいて、前記入力データ系列が発生した条件下において前記予測対象時点に対応する各入力値となる条件付確率を算出するノード算出段階と、
    前記予測対象時点に対応する各入力値の条件付確率に基づいて、前記時系列入力データが発生した条件の下で次の入力データが予め定められた値となる条件付確率を算出するデータ算出段階と、
    を備える処理方法。
  20. コンピュータに、請求項1から14のいずれか一項に記載の学習装置として機能させるプログラム。
  21. コンピュータに、請求項15または16に記載の処理装置として機能させるプログラム。
JP2014201518A 2014-09-30 2014-09-30 学習装置、処理装置、予測システム、学習方法、処理方法、およびプログラム Expired - Fee Related JP5943358B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014201518A JP5943358B2 (ja) 2014-09-30 2014-09-30 学習装置、処理装置、予測システム、学習方法、処理方法、およびプログラム
US14/852,943 US10755164B2 (en) 2014-09-30 2015-09-14 Apparatus and method for learning a model corresponding to time-series input data
US14/967,637 US9547818B2 (en) 2014-09-30 2015-12-14 Apparatus and method for learning a model corresponding to time-series moving image/video input data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014201518A JP5943358B2 (ja) 2014-09-30 2014-09-30 学習装置、処理装置、予測システム、学習方法、処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2016071697A true JP2016071697A (ja) 2016-05-09
JP5943358B2 JP5943358B2 (ja) 2016-07-05

Family

ID=55584807

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014201518A Expired - Fee Related JP5943358B2 (ja) 2014-09-30 2014-09-30 学習装置、処理装置、予測システム、学習方法、処理方法、およびプログラム

Country Status (2)

Country Link
US (2) US10755164B2 (ja)
JP (1) JP5943358B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018041367A (ja) * 2016-09-09 2018-03-15 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation ニューラルネットワークの正則化
WO2018180750A1 (ja) * 2017-03-30 2018-10-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理装置および情報処理方法
JP2019530926A (ja) * 2016-09-15 2019-10-24 グーグル エルエルシー イメージ深度予測ニューラルネットワーク
JP2020064584A (ja) * 2018-10-17 2020-04-23 財団法人車輌研究測試中心 サポートベクターマシンに基づく交差点知能運転方法及びそのシステム
JP6704095B1 (ja) * 2019-07-23 2020-06-03 Hoya株式会社 プログラム、情報処理方法及び情報処理装置
US11250313B2 (en) 2019-01-28 2022-02-15 International Business Machines Corporation Autonomous trading with memory enabled neural network learning
US11574164B2 (en) 2017-03-20 2023-02-07 International Business Machines Corporation Neural network cooperation

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11010196B2 (en) * 2015-08-31 2021-05-18 Vmware, Inc. Capacity analysis using closed-system modules
US10360509B2 (en) * 2015-10-19 2019-07-23 International Business Machines Corporation Apparatus and method for generating an optimal set of choices
EP3203294A1 (en) 2016-02-05 2017-08-09 Aidmics Biotechnology Co., Ltd. Sample adhesive element, sample carrying module and portable microscope apparatus using the same
US10599976B2 (en) 2016-11-07 2020-03-24 International Business Machines Corporation Update of attenuation coefficient for a model corresponding to time-series input data
US11100388B2 (en) 2016-11-22 2021-08-24 International Business Machines Corporation Learning apparatus and method for learning a model corresponding to real number time-series input data
US10891534B2 (en) 2017-01-11 2021-01-12 International Business Machines Corporation Neural network reinforcement learning
US20180197080A1 (en) * 2017-01-11 2018-07-12 International Business Machines Corporation Learning apparatus and method for bidirectional learning of predictive model based on data sequence
US10783452B2 (en) * 2017-04-28 2020-09-22 International Business Machines Corporation Learning apparatus and method for learning a model corresponding to a function changing in time series
US11182676B2 (en) 2017-08-04 2021-11-23 International Business Machines Corporation Cooperative neural network deep reinforcement learning with partial input assistance
CN108108475B (zh) * 2018-01-03 2020-10-27 华南理工大学 一种基于深度受限玻尔兹曼机的时间序列预测方法
WO2019203945A1 (en) * 2018-04-17 2019-10-24 Hrl Laboratories, Llc A neuronal network topology for computing conditional probabilities
CN110717597A (zh) * 2018-06-26 2020-01-21 第四范式(北京)技术有限公司 利用机器学习模型获取时序特征的方法和装置
US11995540B2 (en) 2018-10-11 2024-05-28 International Business Machines Corporation Online learning for dynamic Boltzmann machines with hidden units
US11195116B2 (en) 2018-10-31 2021-12-07 International Business Machines Corporation Dynamic boltzmann machine for predicting general distributions of time series datasets
US11410042B2 (en) 2018-10-31 2022-08-09 International Business Machines Corporation Dynamic Boltzmann machine for estimating time-varying second moment
US11455513B2 (en) 2019-02-01 2022-09-27 International Business Machines Corporation Hellinger distance for measuring accuracies of mean and standard deviation prediction of dynamic Boltzmann machine

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002298064A (ja) * 2001-03-30 2002-10-11 Sony Corp 時系列データ予測方法及び装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4371895A (en) * 1980-01-18 1983-02-01 Nippon Electric Co., Ltd. Coded video signal transmitting and receiving system
JP3252381B2 (ja) 1992-09-08 2002-02-04 ソニー株式会社 パターン認識装置
JPH06119454A (ja) 1992-10-08 1994-04-28 Babcock Hitachi Kk 異常検出方法および装置
JPH06162234A (ja) 1992-11-17 1994-06-10 Ricoh Co Ltd 推論方法およびそれを用いたニュ−ラルネットワ−クの構造決定方法
JPH07248841A (ja) 1994-03-09 1995-09-26 Mitsubishi Electric Corp 非線形関数発生装置およびフォーマット変換装置
JPWO2008087968A1 (ja) 2007-01-17 2010-05-06 日本電気株式会社 変化点検出方法および装置
US20140321756A9 (en) 2008-05-27 2014-10-30 Samsung Electronics Co., Ltd. System and method for circling detection based on object trajectory
CN108650515A (zh) 2012-07-09 2018-10-12 株式会社尼康 解码装置及图像压缩装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002298064A (ja) * 2001-03-30 2002-10-11 Sony Corp 時系列データ予測方法及び装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016014666; 西山 清 外1名: '"TDNNによる時系列パターンの記憶と想起に関する一考察"' 電子情報通信学会技術研究報告 第96巻,第584号, 19970318, pp.91-98, 社団法人電子情報通信学会 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018041367A (ja) * 2016-09-09 2018-03-15 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation ニューラルネットワークの正則化
US10902311B2 (en) 2016-09-09 2021-01-26 International Business Machines Corporation Regularization of neural networks
CN111915663A (zh) * 2016-09-15 2020-11-10 谷歌有限责任公司 图像深度预测神经网络
JP2019530926A (ja) * 2016-09-15 2019-10-24 グーグル エルエルシー イメージ深度予測ニューラルネットワーク
US10929996B2 (en) 2016-09-15 2021-02-23 Google Llc Image depth prediction neural networks
US11734847B2 (en) 2016-09-15 2023-08-22 Google Llc Image depth prediction neural networks
CN111915663B (zh) * 2016-09-15 2024-04-30 谷歌有限责任公司 图像深度预测神经网络
US11574164B2 (en) 2017-03-20 2023-02-07 International Business Machines Corporation Neural network cooperation
US11593611B2 (en) 2017-03-20 2023-02-28 International Business Machines Corporation Neural network cooperation
JP2018173944A (ja) * 2017-03-30 2018-11-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理装置および情報処理方法
WO2018180750A1 (ja) * 2017-03-30 2018-10-04 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理装置および情報処理方法
JP2020064584A (ja) * 2018-10-17 2020-04-23 財団法人車輌研究測試中心 サポートベクターマシンに基づく交差点知能運転方法及びそのシステム
US11250313B2 (en) 2019-01-28 2022-02-15 International Business Machines Corporation Autonomous trading with memory enabled neural network learning
JP6704095B1 (ja) * 2019-07-23 2020-06-03 Hoya株式会社 プログラム、情報処理方法及び情報処理装置
WO2021014584A1 (ja) * 2019-07-23 2021-01-28 Hoya株式会社 プログラム、情報処理方法及び情報処理装置

Also Published As

Publication number Publication date
US20160092767A1 (en) 2016-03-31
US10755164B2 (en) 2020-08-25
US9547818B2 (en) 2017-01-17
JP5943358B2 (ja) 2016-07-05
US20160098631A1 (en) 2016-04-07

Similar Documents

Publication Publication Date Title
JP5943358B2 (ja) 学習装置、処理装置、予測システム、学習方法、処理方法、およびプログラム
JP6393058B2 (ja) 情報処理装置、情報処理方法
JP2021521505A (ja) 包括的機械学習サービスを提供するアプリケーション開発プラットフォームおよびソフトウェア開発キット
US20180268286A1 (en) Neural network cooperation
US11449731B2 (en) Update of attenuation coefficient for a model corresponding to time-series input data
KR102660544B1 (ko) 제어 장치, 컨트롤러, 제어 시스템, 제어 방법, 및 제어 프로그램
JP7123938B2 (ja) データ・シーケンスに基づく予測モデルの双方向学習のための学習装置、方法及びコンピュータ・プログラム
JP6516406B2 (ja) 処理装置、処理方法、およびプログラム
Jaddi et al. Master-leader-slave cuckoo search with parameter control for ANN optimization and its real-world application to water quality prediction
US20200184360A1 (en) Processing apparatus, processing method, estimating apparatus, estimating method, and program
CN114662646A (zh) 实现神经网络的方法和装置
CN114648103A (zh) 用于处理深度学习网络的自动多目标硬件优化
KR102105951B1 (ko) 추론을 위한 제한된 볼츠만 머신 구축 방법 및 추론을 위한 제한된 볼츠만 머신을 탑재한 컴퓨터 장치
US11568303B2 (en) Electronic apparatus and control method thereof
JP5950284B2 (ja) 処理装置、処理方法、およびプログラム
CN111985631B (zh) 信息处理设备、信息处理方法及计算机可读记录介质
US20220121927A1 (en) Providing neural networks
KR102157441B1 (ko) 관련성 전사를 이용한 신경망 학습 방법 및 서비스 장치
JP2021135683A (ja) 学習装置、推論装置、学習方法及び推論方法
JP2022554126A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2019095894A (ja) 推定装置、学習装置、学習済みモデル、推定方法、学習方法、及びプログラム
JP2024064789A (ja) 学習装置、学習方法
US20240028902A1 (en) Learning apparatus and method
US20230168873A1 (en) Scheduling apparatus, training apparatus, scheduler and generation method
WO2022270163A1 (ja) 計算機システム及び介入効果予測方法

Legal Events

Date Code Title Description
A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20160129

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20160216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160426

RD14 Notification of resignation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7434

Effective date: 20160427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160517

R150 Certificate of patent or registration of utility model

Ref document number: 5943358

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees