JP7476977B2 - 予測方法、予測装置及びプログラム - Google Patents
予測方法、予測装置及びプログラム Download PDFInfo
- Publication number
- JP7476977B2 JP7476977B2 JP2022560564A JP2022560564A JP7476977B2 JP 7476977 B2 JP7476977 B2 JP 7476977B2 JP 2022560564 A JP2022560564 A JP 2022560564A JP 2022560564 A JP2022560564 A JP 2022560564A JP 7476977 B2 JP7476977 B2 JP 7476977B2
- Authority
- JP
- Japan
- Prior art keywords
- function
- prediction
- values
- parameters
- covariates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 53
- 238000013528 artificial neural network Methods 0.000 claims description 35
- 238000005457 optimization Methods 0.000 claims description 31
- 230000000306 recurrent effect Effects 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 claims description 8
- 230000001965 increasing effect Effects 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims 2
- 230000006870 function Effects 0.000 description 40
- 238000000342 Monte Carlo simulation Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 3
- 230000015654 memory Effects 0.000 description 2
- 238000000714 time series forecasting Methods 0.000 description 2
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000011423 initialization method Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0985—Hyperparameter optimisation; Meta-learning; Learning-to-learn
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/10—Machine learning using kernel methods, e.g. support vector machines [SVM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、予測方法、予測装置及びプログラムに関する。
過去の履歴データに基づいて、将来の1次元の連続値の予測分布を出力する技術が従来から知られている。時系列予測(つまり、将来の複数の時点における連続値の予測)を対象として、時間軸は整数値のみを取るものとすれば、各時刻はステップ又は時刻ステップとも呼ばれ、予測対象となる連続値はターゲット値とも呼ばれる。
時系列予測の古典的な技術としてはARIMA(autoregressive moving average model)が知られているが、近年では、大量の履歴データを利用することを前提として、ニューラルネットワークを用いたより柔軟なモデルに基づく予測技術が主流となりつつある。ニューラルネットワークを用いた予測技術は識別モデル(discriminative model)方式と生成モデル(generative model)方式の2種類に大別できる。
識別モデル方式とは、予測期間(つまり、予測対象となる期間)の長さを予め決めた上で、過去の履歴データを入力、将来の予測期間でターゲット値が従う確率分布を出力として、その入出力関係をニューラルネットワークに基づいて構築する方式である。一方で、生成モデル方式とは、過去から現在までの履歴データを入力、次の時刻ステップのターゲット値が従う確率分布を出力として、その入出力関係をニューラルネットワークに基づいて構築する方式である。生成モデル方式では、ニューラルネットワークの出力である確率分布から確率的に生成された1ステップ先のターゲット値を新たな履歴データとして再度ニューラルネットワークに入力することで、その出力として更に1ステップ先の確率分布が得られる。なお、上記の識別モデル方式や生成モデル方式の予測技術では、過去の連続値だけでなく、同時に観測可能な値(この値は共変量とも呼ばれる。)も含む履歴データを入力とすることが一般的である。
生成モデル方式の予測技術としては、例えば、非特許文献1~非特許文献3に記載の技術が知られている。
非特許文献1には、過去の共変量と1ステップ前で予測されたターゲット値とを再帰型ニューラルネットワーク(RNN:recurrent neural network)の入力、1ステップ先のターゲット値の予測分布を出力とすることが記載されている。
また、非特許文献2には、予測対象の連続値が線形の状態空間モデルに従って時間発展すると仮定した上で、過去の共変量をRNNの入力、状態空間モデルにおける各時刻ステップ上のパラメータ値を出力とすることが記載されている。なお、非特許文献2では、1ステップ前で予測されたターゲット値を状態空間モデルに入力することで、その出力として1ステップ先のターゲット値の予測分布が得られる。
また、非特許文献3には、予測対象の連続値がガウス過程に従って時間発展すると仮定した上で、過去の共変量をRNNの入力、各時刻ステップ上のカーネル関数を出力とすることが記載されている。なお、非特許文献3では、ガウス過程の出力として、複数ステップから成る予測期間におけるターゲット値の同時予測分布が得られる。
D. Salinas, et al., "DeepAR: Probabilistic forecasting with autoregressive recurrent networks", International Journal of Forecasting, vol.36, pp.1181-1191 (2020).
S. Rangapuram, et al., "Deep state space models for time series forecasting", Advances in Neural Information Processing Systems, pp.7785-7794 (2018).
M. AI-Shedivat, et al., "Learning scalable deep kernels with recurrent structure", Journal of Machine Learning Research, vol.18, pp.1-17.
しかしながら、生成モデル方式の従来技術は、計算コストが高かったり、予測精度が低かったりする場合があった。
例えば、非特許文献1に記載されている技術では、1ステップ先のターゲット値を得るために、1ステップ前で予測されたターゲット値を入力とした際のRNNから出力された予測分布に基づいてモンテカルロシミュレーションを実行する必要がある。このため、複数ステップから成る予測期間のターゲット値を得るためには、そのステップ数と同じ回数のRNN計算とモンテカルロシミュレーションとを実行する必要がある。また、予測期間の予測分布を得るためには数百個から数千個のターゲット値を得る必要があり、最終的にはステップ数の数百倍から数千倍のRNN計算とモンテカルロシミュレーションとを実行する必要がある。一般に、RNN計算とモンテカルロシミュレーションは計算コストが高いため、予測期間のステップ数が多くなるほどその計算コストは膨大となる。
一方で、例えば、非特許文献2に記載されている技術では次の時刻ステップのターゲット値が線形の状態空間モデルから得られるためその計算コストは比較的小さいが、予測分布が正規分布であるという強い制約のため、複雑な時系列データに対しては予測精度が低くなる可能性がある。同様に、例えば、非特許文献3に記載されている技術でも予測分布が正規分布であるという強い制約のため、複雑な時系列データに対しては予測精度が低くなる可能性がある。
本発明の一実施形態は、上記の点に鑑みてなされたもので、複雑な時系列データに対しても少ない計算コストで高精度な時系列予測を実現することを目的とする。
上記目的を達成するため、一実施形態に係る予測方法は、過去に観測された観測値の系列と、前記観測値と同時に観測された共変量の系列とを用いて、前記観測値を第1の関数により非線形変換した値がガウス過程に従うものとして、前記共変量から前記第1の関数のパラメータを出力する第2の関数と前記ガウス過程のカーネル関数とのパラメータを最適化する最適化手順と、前記最適化手順で最適化されたパラメータを持つ第2の関数及びカーネル関数と、予測対象とする将来の期間における共変量の系列とを用いて、前記期間における観測値の予測分布を計算する予測手順と、をコンピュータが実行する。
複雑な時系列データに対しても少ない計算コストで高精度な時系列予測を実現することができる。
以下、本発明の一実施形態について説明する。本実施形態では、生成モデル方式の予測技術を対象として、複雑な時系列データに対しても少ない計算コストで高精度な時系列予測を実現することができる時系列予測装置10について説明する。ここで、本実施形態に係る時系列予測装置10には、過去の履歴を表す時系列データ(つまり、履歴データ)から各種パラメータ(具体的には、後述するカーネル関数のパラメータθとRNNのパラメータv)を最適化するパラメータ最適化時と、予測期間における予測分布の値やその平均等の予測する予測時と存在する。
<ハードウェア構成>
まず、本実施形態に係る時系列予測装置10のハードウェア構成について、図1を参照しながら説明する。図1は、本実施形態に係る時系列予測装置10のハードウェア構成の一例を示す図である。なお、時系列予測装置10のハードウェア構成はパラメータ最適化時と予測時で同一としてよい。
まず、本実施形態に係る時系列予測装置10のハードウェア構成について、図1を参照しながら説明する。図1は、本実施形態に係る時系列予測装置10のハードウェア構成の一例を示す図である。なお、時系列予測装置10のハードウェア構成はパラメータ最適化時と予測時で同一としてよい。
図1に示すように、本実施形態に係る時系列予測装置10は一般的なコンピュータ又はコンピュータシステムのハードウェア構成で実現され、入力装置11と、表示装置12と、外部I/F13と、通信I/F14と、プロセッサ15と、メモリ装置16とを有する。これら各ハードウェアは、それぞれがバス17を介して通信可能に接続されている。
入力装置11は、例えば、キーボードやマウス、タッチパネル等である。表示装置12は、例えば、ディスプレイ等である。なお、時系列予測装置10は、例えば、入力装置11及び表示装置12のうちの少なくとも一方を有していなくてもよい。
外部I/F13は、記録媒体13a等の外部装置とのインタフェースである。時系列予測装置10は、外部I/F13を介して、記録媒体13aの読み取りや書き込み等を行うことができる。なお、記録媒体13aとしては、例えば、CD(Compact Disc)、DVD(Digital Versatile Disk)、SDメモリカード(Secure Digital memory card)、USB(Universal Serial Bus)メモリカード等が挙げられる。
通信I/F14は、時系列予測装置10を通信ネットワークに接続するためのインタフェースである。プロセッサ15は、例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等の各種演算装置である。メモリ装置16は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等の各種記憶装置である。
本実施形態に係る時系列予測装置10は、図1に示すハードウェア構成を有することにより、後述する各種処理を実現することができる。なお、図1に示すハードウェア構成は一例であって、時系列予測装置10は、他のハードウェア構成を有していてもよい。例えば、時系列予測装置10は、複数のプロセッサ15を有していてもよいし、複数のメモリ装置16を有していてもよい。
[パラメータ最適化時]
以下、パラメータ最適化時における時系列予測装置10について説明する。
以下、パラメータ最適化時における時系列予測装置10について説明する。
<機能構成>
まず、パラメータ最適化時における時系列予測装置10の機能構成について、図2を参照しながら説明する。図2は、パラメータ最適化時における時系列予測装置10の機能構成の一例を示す図である。
まず、パラメータ最適化時における時系列予測装置10の機能構成について、図2を参照しながら説明する。図2は、パラメータ最適化時における時系列予測装置10の機能構成の一例を示す図である。
図2に示すように、パラメータ最適化時における時系列予測装置10は、入力部101と、最適化部102と、出力部103とを有する。これら各部は、例えば、時系列予測装置10にインストールされた1以上のプログラムがプロセッサ15に実行させる処理により実現される。
入力部101は、時系列予測装置10に与えられた時系列データとカーネル関数とニューラルネットワークとを入力する。これらの時系列データとカーネル関数とニューラルネットワークは、例えば、メモリ装置16等に格納されている。
時系列データは過去の履歴を表す時系列データ(つまり、履歴データ)であり、時刻ステップt=1からt=Tまでのターゲット値y1:T={y1,y2,・・・,yT}と共変量x1:T={x1,x2,・・・,xT}とで構成される。Tは過去の履歴を表す時系列データの時刻ステップ数である。また、各ターゲット値及び共変量はそれぞれ1次元及び多次元の実数値を取るものとする。
なお、ターゲット値とは予測対象となる連続値のことであり、例えば、マーケティング領域では商品の売上個数、ヘルスケア領域では人の血圧や血糖値、インフラ領域では消費電力等が挙げられる。また、共変量とはターゲット値と同時に観測可能な値のことであり、例えば、ターゲット値が商品の売上個数である場合、曜日や月、セール有無、季節、気温等が挙げられる。
カーネル関数はガウス過程を特徴付ける関数であり、kθ(t,t')と表す。カーネル関数kθ(t,t')は2つの時刻ステップt及びt'を入力として実数値を出力する関数であり、パラメータθを持つ。このパラメータθは入力として与えず、最適化部102によって決定される(つまり、パラメータθは最適化対象のパラメータである。)。
ニューラルネットワークには2種類のニューラルネットワークΩw,b(・)及びΨv(・)が含まれる。
Ωw,b(・)は、単調増加関数である活性化関数のみで構成される順伝播型ニューラルネットワークである。順伝播型ニューラルネットワークΩw,b(・)のパラメータは重みパラメータwとバイアスパラメータbで構成され、それぞれの次元数はDwとDbであるものとする。なお、単調増加関数である活性化関数の例としては、シグモイド関数、ソフトプラス関数、ReLU関数等が挙げられる。
Ψv(・)は、再帰型ニューラルネットワーク(RNN)である。再帰型ニューラルネットワークΨv(・)はパラメータvを持ち、時刻ステップtまでの共変量x1:tを入力として2次元の実数値(μt,φt)とDw次元の非負の実数値wtとDb次元の実数値btとを出力するものとする。つまり、μt,φt,wt,bt=Ψv(x1:t)であるものとする。パラメータvは入力として与えず、最適化部102によって決定される(つまり、パラメータvは最適化対象のパラメータである。)。なお、再帰型ニューラルネットワークには、例えば、LSTM(long short-term memory)やGRU(gated recurrent unit)等の複数の種類があり、どの種類の再帰型ニューラルネットワークを用いるかは予め指定される。
最適化部102は、時系列データ(ターゲット値y1:T={y1,y2,・・・,yT}及び共変量x1:T={x1,x2,・・・,xT})と、カーネル関数kθ(t,t')と、順伝播型ニューラルネットワークΩw,b(・)と、再帰型ニューラルネットワークΨv(・)とを用いて、負の対数周辺尤度関数を最小化させるパラメータΘ=(θ,v)を探索する。すなわち、最適化部102は、以下に示す負の対数周辺尤度関数L(Θ)を最小化するパラメータΘ=(θ,v)を探索する。
出力部103は、最適化部102によって最適化されたパラメータΘを任意の出力先に出力する。なお、最適化後のパラメータΘを最適パラメータともいい、
<パラメータ最適化処理>
次に、本実施形態に係るパラメータ最適化処理について、図3を参照しながら説明する。図3は、本実施形態に係るパラメータ最適化処理の一例を示すフローチャートである。なお、パラメータΘ=(θ,v)は任意の初期化手法により初期化されているものとする。
次に、本実施形態に係るパラメータ最適化処理について、図3を参照しながら説明する。図3は、本実施形態に係るパラメータ最適化処理の一例を示すフローチャートである。なお、パラメータΘ=(θ,v)は任意の初期化手法により初期化されているものとする。
ステップS101:まず、入力部101は、与えられた時系列データ(ターゲット値y1:T={y1,y2,・・・,yT}及び共変量x1:T={x1,x2,・・・,xT})と、カーネル関数kθ(t,t')と、ニューラルネットワーク(順伝播型ニューラルネットワークΩw,b(・)及び再帰型ニューラルネットワークΨv(・))とを入力する。
ステップS102:次に、最適化部102は、上記の数1に示す負の対数周辺尤度関数L(Θ)を最小化するカーネル関数kθ(t,t')と再帰型ニューラルネットワークΨv(・)のパラメータΘ=(θ,v)を探索する。なお、最適化部102は、既知の任意の最適化手法により上記の数1に示す負の対数周辺尤度関数L(Θ)を最小化するパラメータΘ=(θ,v)を探索すればよい。
ステップS103:そして、出力部103は、最適化後のパラメータ^Θを任意の出力先に出力する。なお、最適パラメータ^Θの出力先としては、例えば、表示装置12やメモリ装置16等であってもよいし、通信ネットワークを介して接続される他の装置等であってもよい。
[予測時]
以下、予測時における時系列予測装置10について説明する。
以下、予測時における時系列予測装置10について説明する。
<機能構成>
まず、予測時における時系列予測装置10の機能構成について、図4を参照しながら説明する。図4は、予測時における時系列予測装置10の機能構成の一例を示す図である。
まず、予測時における時系列予測装置10の機能構成について、図4を参照しながら説明する。図4は、予測時における時系列予測装置10の機能構成の一例を示す図である。
図4に示すように、予測時における時系列予測装置10は、入力部101と、予測部104と、出力部103とを有する。これら各部は、例えば、時系列予測装置10にインストールされた1以上のプログラムがプロセッサ15に実行させる処理により実現される。
入力部101は、時系列予測装置10に与えられた時系列データと予測期間及び統計量の種類と予測期間の共変量とカーネル関数とニューラルネットワークとを入力する。これらの時系列データと予測期間の共変量とカーネル関数とニューラルネットワークは、例えば、メモリ装置16等に格納されている。一方で、予測期間及び統計量の種類は、例えば、メモリ装置16等に格納されていてもよいし、入力装置11等を介してユーザによって指定されてもよい。
時系列データはパラメータ最適化時と同様に、時刻ステップt=1からt=Tまでのターゲット値y1:T={y1,y2,・・・,yT}と共変量x1:T={x1,x2,・・・,xT}である。
予測期間はターゲット値の予測対象とする期間である。以降では、1≦τ0≦τ1として、t=T+τ0,T+τ0+1,・・・,T+τ1を予測期間とする。一方で、統計量の種類は予測対象とするターゲット値の統計量の種類である。統計量の種類としては、例えば、予測分布の値、予測分布の平均、分散、分位数等が挙げられる。
予測期間の共変量は予測期間t=T+τ0,T+τ0+1,・・・,T+τ1における共変量、すなわち、
カーネル関数は最適パラメータ^θを持つカーネル関数、すなわち、
ニューラルネットワークは、順伝播型ニューラルネットワークΩw,b(・)と、最適パラメータ^vを持つ再帰型ニューラルネットワーク
予測部104は、カーネル関数k^θ(t,t')と、順伝播型ニューラルネットワークΩw,b(・)と、再帰型ニューラルネットワークΨ^v(・)と、予測期間の共変量とを用いて、予測期間のターゲット値ベクトル
ただし、
そして、予測部104は、確率密度分布p(y*)を用いて、ターゲット値の統計量を算出する。以下、ターゲット値の統計量の種類に応じてその算出方法を説明する。
・予測分布の値
上記の確率密度分布p(y*)により、モンテカルロシミュレーションを用いることなく、予測期間の任意の時刻ステップにおけるターゲット値ytに対応する確率が得られる。
上記の確率密度分布p(y*)により、モンテカルロシミュレーションを用いることなく、予測期間の任意の時刻ステップにおけるターゲット値ytに対応する確率が得られる。
・予測分布の分位数
ターゲット値ytの予測分布の分位数Qyは、正規分布に従うzt *の分位数Qzを計算した後、以下の式によりQzを変換することで得る。
ターゲット値ytの予測分布の分位数Qyは、正規分布に従うzt *の分位数Qzを計算した後、以下の式によりQzを変換することで得る。
・関数の期待値
予測期間のターゲット値ベクトルy*の各要素yt(T+τ0≦t≦T+τ1)の平均や共分散を含む、一般にy*に依存する関数f(y*)の期待値は、モンテカルロシミュレーションを用いて、以下により計算される。
予測期間のターゲット値ベクトルy*の各要素yt(T+τ0≦t≦T+τ1)の平均や共分散を含む、一般にy*に依存する関数f(y*)の期待値は、モンテカルロシミュレーションを用いて、以下により計算される。
(1)多変量正規分布
(2)上記の(1)で生成したサンプルを以下の式で変換する。
出力部103は、予測部104によって予測された統計量(以下、予測統計量ともいう。)を任意の出力先に出力する。
<予測処理>
次に、本実施形態に係る予測処理について、図5を参照しながら説明する。図5は、本実施形態に係る予測処理の一例を示すフローチャートである。
次に、本実施形態に係る予測処理について、図5を参照しながら説明する。図5は、本実施形態に係る予測処理の一例を示すフローチャートである。
ステップS201:まず、入力部101は、与えられた時系列データ(ターゲット値y1:T={y1,y2,・・・,yT}及び共変量x1:T={x1,x2,・・・,xT})と、予測期間t=T+τ0,T+τ0+1,・・・,T+τ1と、予測対象とする統計量の種類と、予測期間の共変量{xt}(t=T+τ0,T+τ0+1,・・・,T+τ1)と、カーネル関数k^θ(t,t')と、ニューラルネットワーク(順伝播型ニューラルネットワークΩw,b(・)及び再帰型ニューラルネットワークΨ^v(・))とを入力する。
ステップS202:次に、予測部104は、上記の数10により確率密度分布p(y*)を計算した後、予測対象の統計量の種類に応じて予測統計量を計算する。
ステップS203:そして、出力部103は、予測統計量を任意の出力先に出力する。なお、予測統計量の出力先としては、例えば、表示装置12やメモリ装置16等であってもよいし、通信ネットワークを介して接続される他の装置等であってもよい。
[まとめ]
以上のように、本実施形態に係る時系列予測装置10は、過去の履歴を表すターゲット値yt(言い換えれば、観測されたターゲット値yt)を非線形な関数Ωw,b(・)により変換し、変換後の値Ωw,b(yt)がガウス過程に従うものとして予測を行う。この点において、本実施形態は非特許文献3に記載されている技術の一般化となっており、恒等関数Ωw,b(yt)=ytという特殊な場合を考えると、本実施形態は非特許文献3に記載されている技術と一致する。
以上のように、本実施形態に係る時系列予測装置10は、過去の履歴を表すターゲット値yt(言い換えれば、観測されたターゲット値yt)を非線形な関数Ωw,b(・)により変換し、変換後の値Ωw,b(yt)がガウス過程に従うものとして予測を行う。この点において、本実施形態は非特許文献3に記載されている技術の一般化となっており、恒等関数Ωw,b(yt)=ytという特殊な場合を考えると、本実施形態は非特許文献3に記載されている技術と一致する。
また、本実施形態では、重みパラメータw=wtを非負値に保つことにより、Ωw,b(・)は単調増加関数であることが保証される。この単調増加性のために、予測部104による予測処理の計算コストを小さくすることができる。
したがって、本実施形態に係る時系列予測装置10は、非特許文献3に記載されている技術と同等の計算コストの下、より複雑な時系列データに対しても高精度な時系列予測を実現することが可能となる。
なお、本実施形態では、パラメータ最適化時における時系列予測装置10と予測時における時系列予測装置10とが同一の装置で実現されているが、これに限られず、別々の装置で実現されていてもよい。
本発明は、具体的に開示された上記の実施形態に限定されるものではなく、請求の範囲の記載から逸脱することなく、種々の変形や変更、既知の技術との組み合わせ等が可能である。
10 時系列予測装置
11 入力装置
12 表示装置
13 外部I/F
13a 記録媒体
14 通信I/F
15 プロセッサ
16 メモリ装置
17 バス
101 入力部
102 最適化部
103 出力部
104 予測部
11 入力装置
12 表示装置
13 外部I/F
13a 記録媒体
14 通信I/F
15 プロセッサ
16 メモリ装置
17 バス
101 入力部
102 最適化部
103 出力部
104 予測部
Claims (7)
- 過去に観測された観測値の系列と、前記観測値と同時に観測された共変量の系列とを用いて、前記観測値を第1の関数により非線形変換した値がガウス過程に従うものとして、前記共変量から前記第1の関数のパラメータを出力する第2の関数と前記ガウス過程のカーネル関数とのパラメータを最適化する最適化手順と、
前記最適化手順で最適化されたパラメータを持つ第2の関数及びカーネル関数と、予測対象とする将来の期間における共変量の系列とを用いて、前記期間における観測値の予測分布を計算する予測手順と、
をコンピュータが実行する予測方法。 - 前記予測手順で計算された予測分布を用いて、前記期間における観測値の統計量を計算する統計量計算手順、
をコンピュータが実行する請求項1に記載の予測方法。 - 前記第1の関数は、重みとバイアスをパラメータとして持ち、かつ、単調増加関数を活性化関数とした順伝播型ニューラルネットワークであり、
前記第2の関数は、非負値の前記重みと、前記バイアスとを少なくとも出力する再帰型ニューラルネットワークである、請求項1又は2に記載の予測方法。 - 前記第2の関数は、前記カーネル関数の入力とする実数値も更に出力する、請求項3に記載の予測方法。
- 前記最適化手順は、
負の対数周辺尤度を最小化する前記第2の関数と前記カーネル関数とのパラメータを探索することで、前記第2の関数と前記カーネル関数とのパラメータを最適化する、請求項1乃至4の何れか一項に記載の予測方法。 - 過去に観測された観測値の系列と、前記観測値と同時に観測された共変量の系列とを用いて、前記観測値を第1の関数により非線形変換した値がガウス過程に従うものとして、前記共変量から前記第1の関数のパラメータを出力する第2の関数と前記ガウス過程のカーネル関数とのパラメータを最適化する最適化部と、
前記最適化部で最適化されたパラメータを持つ第2の関数及びカーネル関数と、予測対象とする将来の期間における共変量の系列とを用いて、前記期間における観測値の予測分布を計算する予測部と、
を有する予測装置。 - コンピュータに、請求項1乃至5の何れか一項に記載の予測方法を実行させるプログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2020/041385 WO2022097230A1 (ja) | 2020-11-05 | 2020-11-05 | 予測方法、予測装置及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2022097230A1 JPWO2022097230A1 (ja) | 2022-05-12 |
JP7476977B2 true JP7476977B2 (ja) | 2024-05-01 |
Family
ID=81457037
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022560564A Active JP7476977B2 (ja) | 2020-11-05 | 2020-11-05 | 予測方法、予測装置及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230401426A1 (ja) |
JP (1) | JP7476977B2 (ja) |
WO (1) | WO2022097230A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023228371A1 (ja) * | 2022-05-26 | 2023-11-30 | 日本電信電話株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2024057414A1 (ja) * | 2022-09-13 | 2024-03-21 | 日本電信電話株式会社 | 情報処理装置、情報処理方法、及びプログラム |
CN116092633A (zh) * | 2023-04-07 | 2023-05-09 | 北京大学第三医院(北京大学第三临床医学院) | 一种基于少量特征预测骨科手术患者术中自体血是否输注方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019155065A1 (en) | 2018-02-09 | 2019-08-15 | Deepmind Technologies Limited | Neural network systems implementing conditional neural processes for efficient learning |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7283065B2 (ja) * | 2018-12-07 | 2023-05-30 | 日本電信電話株式会社 | 推定装置、最適化装置、推定方法、最適化方法、及びプログラム |
-
2020
- 2020-11-05 WO PCT/JP2020/041385 patent/WO2022097230A1/ja active Application Filing
- 2020-11-05 JP JP2022560564A patent/JP7476977B2/ja active Active
- 2020-11-05 US US18/248,760 patent/US20230401426A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019155065A1 (en) | 2018-02-09 | 2019-08-15 | Deepmind Technologies Limited | Neural network systems implementing conditional neural processes for efficient learning |
Non-Patent Citations (1)
Title |
---|
Al-SHEDIVAT, M., et al.,Learning scalable deep kernels with recurrent structure.,The Journal of Machine Learning Research.,2017年,Vol.18, No.1 |
Also Published As
Publication number | Publication date |
---|---|
WO2022097230A1 (ja) | 2022-05-12 |
US20230401426A1 (en) | 2023-12-14 |
JPWO2022097230A1 (ja) | 2022-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7476977B2 (ja) | 予測方法、予測装置及びプログラム | |
Jun et al. | Document clustering method using dimension reduction and support vector clustering to overcome sparseness | |
JP7360497B2 (ja) | クロスモーダルな特徴の抽出方法、抽出装置、ならびに、プログラム | |
Chen et al. | Extreme learning machine and its applications in big data processing | |
US11640617B2 (en) | Metric forecasting employing a similarity determination in a digital medium environment | |
Wu | The forecasting model based on wavelet ν-support vector machine | |
AU2019371339B2 (en) | Finite rank deep kernel learning for robust time series forecasting and regression | |
Sambasivan et al. | A Bayesian perspective of statistical machine learning for big data | |
AU2020325094B2 (en) | Finite rank deep kernel learning with linear computational complexity | |
CN113254716B (zh) | 视频片段检索方法、装置、电子设备和可读存储介质 | |
US20230306505A1 (en) | Extending finite rank deep kernel learning to forecasting over long time horizons | |
Guizilini et al. | Towards real-time 3D continuous occupancy mapping using Hilbert maps | |
Berahmand et al. | DAC-HPP: deep attributed clustering with high-order proximity preserve | |
CN117272130A (zh) | 一种基于特征选择去偏的推荐系统点击预测的方法 | |
CN110533114A (zh) | 一种基于正交回归和特征加权的有监督特征选择方法 | |
JP2020201870A (ja) | ハイパーパラメータ管理装置、ハイパーパラメータ管理方法及びハイパーパラメータ管理プログラム製品 | |
Park et al. | Robust Kriging models in computer experiments | |
Dong et al. | An optimization method for pruning rates of each layer in CNN based on the GA-SMSM | |
Qi et al. | A survey on quantum data mining algorithms: challenges, advances and future directions | |
Sun et al. | DBPboost: A method of classification of DNA-binding proteins based on improved differential evolution algorithm and feature extraction | |
Gummesson Svensson et al. | Utilizing reinforcement learning for de novo drug design | |
Chatrabgoun et al. | A novel algorithm for classification using a low rank approximation of kernel-based support vector machines with applications | |
Rongali et al. | Parameter optimization of support vector machine by improved ant colony optimization | |
Lu et al. | Principal component analysis for exponential family data | |
US20210256388A1 (en) | Machine-Learned Models Featuring Matrix Exponentiation Layers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230412 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240401 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7476977 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |