JP2022070386A - 学習方法、系列解析方法、学習装置、系列解析装置、及びプログラム - Google Patents

学習方法、系列解析方法、学習装置、系列解析装置、及びプログラム Download PDF

Info

Publication number
JP2022070386A
JP2022070386A JP2020179424A JP2020179424A JP2022070386A JP 2022070386 A JP2022070386 A JP 2022070386A JP 2020179424 A JP2020179424 A JP 2020179424A JP 2020179424 A JP2020179424 A JP 2020179424A JP 2022070386 A JP2022070386 A JP 2022070386A
Authority
JP
Japan
Prior art keywords
model
data
procedure
feature vector
series data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020179424A
Other languages
English (en)
Inventor
具治 岩田
Tomoharu Iwata
吉伸 河原
Yoshinobu Kawahara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyushu University NUC
Nippon Telegraph and Telephone Corp
Original Assignee
Kyushu University NUC
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyushu University NUC, Nippon Telegraph and Telephone Corp filed Critical Kyushu University NUC
Priority to JP2020179424A priority Critical patent/JP2022070386A/ja
Publication of JP2022070386A publication Critical patent/JP2022070386A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】系列データを解析、予測、制御すること。【解決手段】一実施形態に係る学習方法は、観測データで構成される第1の系列データを入力する第1の入力手順と、前記第1の系列データに含まれる観測データを第1のモデルにより第1の特徴ベクトルに変換する第1の変換手順と、前記第1の特徴ベクトルを第2のモデルにより前記観測データに変換する第2の変換手順と、前記第1の系列データに含まれる観測データと、前記第2の変換手順で変換された観測データとの第1の誤差が小さくなるように、前記第1のモデル及び前記第2のモデルのパラメータを更新する更新手順と、をコンピュータが実行する。【選択図】図1

Description

本発明は、学習方法、系列解析方法、学習装置、系列解析装置、及びプログラムに関する。
時系列データの解析技術は、例えば、社会学、感染学、神経科学、物理学、工学、金融等の様々な分野で応用されており、重要な技術要素の1つである。時系列データを解析、予測又は制御する従来技術として、動的モード分解が知られている(例えば、非特許文献1参照)。動的モード分解は動的システムのモード分解技術であり、データからその系列の特徴を表す動的モードや固有値を自動的に抽出することができる。
Peter Schmid. Dynamic mode decomposition of numerical and experimental data. Journal of Fluid Mechanics, Cambridge University Press (CUP), 2010, 656 (August), pp.5-28.
しかしながら、動的モード分解は動的システムが非線形である場合には、適切な動的モードや固有値を抽出できないことがあるという問題がある。このため、動的モード分解を用いる場合、非線形な動的システムの時系列データを適切に解析したり、予測したり、又は当該動的システムを制御したりすることができないことがある。
本発明の一実施形態は、上記の点に鑑みてなされたもので、系列データの解析、予測、制御を可能にすることを目的とする。
上記目的を達成するため、一実施形態に係る学習方法は、観測データで構成される第1の系列データを入力する第1の入力手順と、前記第1の系列データに含まれる観測データを第1のモデルにより第1の特徴ベクトルに変換する第1の変換手順と、前記第1の特徴ベクトルを第2のモデルにより前記観測データに変換する第2の変換手順と、前記第1の系列データに含まれる観測データと、前記第2の変換手順で変換された観測データとの第1の誤差が小さくなるように、前記第1のモデル及び前記第2のモデルのパラメータを更新する更新手順と、をコンピュータが実行する。
系列データを解析、予測、制御することができる。
一実施形態に係る系列解析装置の機能構成の一例を示す図である。 第一の実施形態に係る学習処理の一例を示すフローチャートである。 第二の実施形態に係る学習処理の一例を示すフローチャートである。 評価結果を説明するための図である。 一実施形態に係る系列解析装置のハードウェア構成の一例を示す図である。
以下、本発明の一実施形態について説明する。本実施形態では、系列データが与えられたときに、その系列データの性質を解析したり、データの予測をしたり、その系列データが得られた動的システムの制御をしたりすることが可能な系列解析装置10について説明する。
ここで、本実施形態に係る系列解析装置10には学習フェーズと推論フェーズとが存在し、学習フェーズでは系列データに含まれる各データを特徴空間内のデータに変換するモデル等を学習し、推論フェーズでは学習済みのモデルを用いて系列データの解析、データの予測、動的システムの制御を行う。ただし、動的システムの制御は、後述する外因性ベクトルの系列データも与えられる場合にのみ行うことが可能である。なお、学習フェーズにおける系列解析装置10は、例えば、「学習装置」等と称されてもよい。
学習フェーズにおける系列解析装置10には、入力データとして、長さTの系列データX=[x,・・・,x]が与えられるものとする。ここで、xは時刻tにおける観測データを表す。なお、以降では、一例として、観測データはベクトルであるものとし、「観測ベクトル」ともいう。ただし、観測データがベクトルであることは一例であって、例えば、テンソル、グラフ、系列等の任意の構造のデータであってもよい。
また、入力データとして、観測ベクトルの系列データXと共に、外因性データの系列データZ=[z,・・・,z]が与えられていてもよい。外因性データとは、観測データに影響を与えるデータのことである。以降では、一例として、外因性データはベクトルであるものとし、「外因性ベクトル」ともいう。ただし、外因性データがベクトルであることは一例であって、例えば、テンソル、グラフ、系列等の任意の構造のデータであってもよい。
一方で、推論フェーズにおける系列解析装置10には、入力データとして、解析対象又は予測対象の系列データが与えられる。なお、動的システムの制御を行う場合には、学習フェーズにおける学習結果から推定された行列が入力データとして与えられる。
なお、系列解析装置10に与えられる系列データは必ずしも連続した時刻でなくてもよい。この場合、既存の動的モード分解技術を適用することにより、本実施形態を適用可能である。
<機能構成>
まず、本実施形態に係る系列解析装置10の機能構成について、図1を参照しながら説明する。図1は、一実施形態に係る系列解析装置10の機能構成の一例を示す図である。
図1に示すように、本実施形態に係る系列解析装置10は、入力部101と、学習部102と、解析部103と、予測部104と、制御部105と、出力部106と、記憶部107とを有する。
記憶部107は、学習フェーズや推論フェーズで用いられる各種データを記憶する。すなわち、記憶部107には、学習フェーズや推論フェーズで与えられた入力データ、学習フェーズで学習対象となるモデルのパラメータ等が記憶される。
入力部101は、学習フェーズにおいて観測ベクトルの系列データX、又は、観測ベクトルの系列データXと外因性ベクトルの系列データZとの両方を入力データとして記憶部107から入力する。また、入力部101は、推論フェーズにおいて解析対象若しくは予測対象の系列データ、又は、動的システムの制御に用いられる行列のデータを入力データとして記憶部107から入力する。
学習部102は、学習フェーズにおいて学習処理を実行する。学習処理では、入力部101によって入力された入力データを用いて、系列データに含まれる各データを特徴空間内のデータに変換するモデル等が学習される。以降では、特徴空間内のデータはベクトルであるものとし、「特徴ベクトル」ともいう。なお、学習処理の詳細については後述する。
解析部103は、推論フェーズにおいて解析処理を実行する。予測部104は、推論フェーズにおいて予測処理を実行する。制御部105は、推論フェーズにおいて制御処理を実行する。なお、これらの解析処理、予測処理及び制御処理の詳細については後述する。
出力部106は、学習部102によって学習されたモデルのパラメータを出力する。また、出力部106は、解析部103による解析結果、予測部104による予測結果、及び制御部105による制御結果等を出力する。なお、出力部106の出力先は予め決められた任意の出力先とすればよいが、例えば、記憶部107やディスプレイ、通信ネットワークを介して接続される他の装置、機器又は端末等が挙げられる。
なお、図1に示す系列解析装置10の機能構成は学習フェーズと推論フェーズの両方の機能構成であり、例えば、学習フェーズにおける系列解析装置10は解析部103、予測部104及び制御部105の全部又は一部を有していなくてもよい。同様に、例えば、推論フェーズにおける系列解析装置10は学習部102を有していなくてもよい。
また、系列解析装置10は解析部103、予測部104及び制御部105の全部を有している必要はなく、系列解析装置10の目的に応じて一部の機能部のみを有していてもよい。例えば、系列データの性質の解析のみを目的とする場合は解析部103のみを有していればよいし、データの予測のみを目的とする場合は予測部104のみを有していればよいし、動的システムの制御のみを目的とする場合は制御部105のみを有していればよい。
更に、学習フェーズにおける系列解析装置10と推論フェーズにおける系列解析装置10とが異なる装置、機器又は端末で実現されていてもよい。例えば、第1の装置と第2の装置とが通信ネットワークを介して接続されており、学習フェーズにおける系列解析装置10は第1の装置で実現される一方、推論フェーズにおける系列解析装置10は第2の装置で実現されていてもよい。
<学習処理(第一の実施形態)>
次に、第一の実施形態に係る学習処理について、図2を参照しながら説明する。図2は、第一の実施形態に係る学習処理の一例を示すフローチャートである。第一の実施形態に係る学習処理では、入力部101によって観測ベクトルの系列データXが入力データとして記憶部107から入力されたものとする。このとき、以下のステップS101~ステップS109を実行することで、系列データXに含まれる観測ベクトルを特徴ベクトルに変換するモデルと、特徴ベクトルを観測ベクトルに変換するモデルとを学習する。以降では、一例として、これらのモデルはニューラルネットワークで実現されるものとして、それぞれf及びgと表記する。なお、観測データがベクトルでない場合(例えば、テンソル、グラフ、系列等である場合)には、当該観測データのデータ構造に対応したニューラルネットワークを用いればよい。
ステップS101:まず、学習部102は、ニューラルネットワークf及びgのパラメータを初期化する。なお、ニューラルネットワークf及びgのパラメータは既知の初期化手法により初期化されればよい。
ステップS102:次に、学習部102は、系列データXに含まれる観測ベクトルの時刻集合からS個の時刻をランダムにサンプリングする。以降では、ランダムにサンプリングされたS個の時刻の集合をτ={τ,・・・,τ}⊂{1,・・・,T}とする。なお、Sは予め決められた正の整数である。
ステップS103:次に、学習部102は、時刻集合τから時刻集合τ={τ,・・・,τ,τ+1,・・・,τ+1}を作成した上で、以下の式(1)により時刻t∈τにおける観測ベクトルxを特徴ベクトルψに変換する。
Figure 2022070386000002
すなわち、学習部102は、時刻集合τに含まれる各時刻と、その時刻の次の時刻とが含まれる時刻集合τを作成した上で、この時刻集合τに含まれる各時刻における観測ベクトルをニューラルネットワークfにより特徴ベクトルに変換する。なお、上記の式(1)に示すfは、観測ベクトルを特徴ベクトルに変換する関数をニューラルネットワークによりモデル化したものということもできる。
ステップS104:次に、学習部102は、上記のステップS103で得られた特徴ベクトルψを用いて、次の時刻への線形遷移行列Aの固有値及び固有ベクトルを推定する。すなわち、学習部102は、以下の式(2)の関係を満たす線形遷移行列Aの固有値及び固有ベクトルを推定する。
Figure 2022070386000003
学習部102は、予測精度が高くなるように線形遷移行列Aを推定し、その固有値及び固有ベクトルを計算すればよい。このとき、線形遷移行列Aは、例えば、特異値分解を用いて次元削減された空間で推定することができる。この場合、まず、学習部102は、特徴ベクトルψを用いて、以下の式(3)に示す2つの行列Ψ及びΨを作成する。
Figure 2022070386000004
ここで、Kは特徴ベクトルψの次元数である。
次に、学習部102は、特異値分解により、以下の式(4)のように行列Ψを分解する。
Figure 2022070386000005
次に、学習部102は、以下の式(5)のように、特異値分解の結果を用いて推定される次元削減された線形遷移行列を計算する。
Figure 2022070386000006
ここで、Rは次元削減後の線形遷移行列の行及び列数である。
そして、学習部102は、上記の式(5)で計算された線形遷移行列を以下の式(6)のように固有値分解する。
Figure 2022070386000007
ここで、Yは固有ベクトル、Λは固有値である。これにより、線形遷移行列Aの固有値及び固有ベクトルが推定される。
ステップS105:次に、学習部102は、上記のステップS104で得られた固有値Λ及び固有ベクトルYを用いて、各時刻における特徴ベクトルを予測する。学習部102は、時刻tにおける特徴ベクトルψと近くなるように、当該時刻tにおける特徴ベクトルを予測すればよい。例えば、学習部102は、以下の式(7)により特徴ベクトルを予測することができる。
Figure 2022070386000008
ここで、
Figure 2022070386000009
である。また、ΦはΦの疑似逆行列を表す。なお、以降の明細書のテキスト中では、或る記号の真上に付与されるハット「^」、当該記号の直前に表記するものとする。例えば、特徴ベクトルψの予測値は「^ψ」と表記する。
ステップS106:次に、学習部102は、上記のステップS105で予測された特徴ベクトル^ψを以下の式(8)により観測ベクトル^xに変換する。
Figure 2022070386000010
すなわち、学習部102は、各時刻tにおける特徴ベクトル^ψをニューラルネットワークgにより観測ベクトル^xに変換する。なお、上記の式(8)に示すgは、特徴ベクトルを観測ベクトルに変換する関数をニューラルネットワークによりモデル化したものということもできる。
ステップS107:次に、学習部102は、上記のステップS106で得られた観測ベクトル^xと、入力データとして入力した系列データXに含まれる観測ベクトルx(つまり、実際に与えられている観測ベクトルx)との誤差を計算する。なお、学習部102は、誤差として、例えば、平均二乗誤差(つまり、時刻tにおける^xとxの差の二乗の総和)等を計算すればよい。
ステップS108:次に、学習部102は、上記のステップS107で計算された誤差が小さくなるように、ニューラルネットワークf及びgのパラメータを更新する。なお、学習部102は、例えば、確率的勾配降下法等を用いてニューラルネットワークf及びgのパラメータを更新すればよい。
ステップS109:次に、学習部102は、所定の終了条件を満たすか否かを判定する。そして、学習部102は、当該終了条件を満たさないと判定した場合は上記のステップS102に戻る。これにより、当該終了条件を満たすまで、上記のステップS102~ステップS108が繰り返し実行される。
一方で、学習部102は、当該終了条件を満たすと判定した場合は、学習処理を終了する。これにより、出力部106によって学習済みのモデル(ニューラルネットワークf及びg)のパラメータが出力される。
なお、所定の終了条件としては、例えば、上記のステップS102~ステップS108の繰り返し回数が所定の第1の閾値を超えたこと、繰り返しの前後におけるパラメータや誤差の変化量が所定の第2の閾値以下となったこと、等を用いることができる。
以上のように、学習フェーズにおける系列解析装置10は、系列データの解析や予測等に用いられるモデル(ニューラルネットワークf及びg)のパラメータを学習することができる。
なお、系列データが属するドメインの表現が与えられている場合には、その表現をニューラルネットワークf及びgの入力に追加してもよい。また、ドメインの表現を系列データから学習し、ニューラルネットワークf及びgの入力に追加してもよい。
ニューラルネットワークf及びgとしては、例えば、フィードフォワード型ニューラルネットワーク、畳み込み型ニューラルネットワーク、再帰型ニューラルネットワーク等、データに応じて任意のニューラルネットワークを用いることができる。また、系列データのラベル情報が与えられている場合には、後述する解析処理の解析結果を入力、ラベルを出力とするニューラルネットワークと組み合わせることにより、回帰や分類等の教師あり学習にも適用することが可能である。
<学習処理(第二の実施形態)>
次に、第二の実施形態に係る学習処理について、図3を参照しながら説明する。図3は、第二の実施形態に係る学習処理の一例を示すフローチャートである。第二の実施形態に係る学習処理では、入力部101によって観測ベクトルの系列データXと外因性ベクトルの系列データZとの両方が入力データとして記憶部107から入力されたものとする。このとき、以下のステップS201~ステップS212を実行することで、系列データXに含まれる観測ベクトルを特徴ベクトルに変換するモデルと、特徴ベクトルを観測ベクトルに変換するモデルと、系列データZに含まれる外因性ベクトルを特徴ベクトルに変換するモデルと、特徴ベクトルを外因性ベクトルに変換するモデルとを学習する。以降では、一例として、これらのモデルはニューラルネットワークで実現されるものとして、それぞれf、g、h及びqと表記する。なお、観測データや外因性データがベクトルでない場合(例えば、テンソル、グラフ、系列等である場合)には、当該観測データや当該外因性データのデータ構造に対応したニューラルネットワークを用いればよい。
なお、第二の実施形態に係る学習処理の説明では、第一の実施形態に係る学習処理と同様の構成要素についてはその説明を簡略化又は省略している。
ステップS201:まず、学習部102は、ニューラルネットワークf、g、h及びqのパラメータを初期化する。
ステップS202:次に、学習部102は、時刻集合{1,・・・,T-S}から1つの時刻τをサンプリングする。すなわち、学習部102は、τ∈{1,・・・,T-S}をランダムにサンプリングする。なお、Sは予め決められた正の整数である。
ステップS203:次に、学習部102は、上記のステップS202で得られた時刻τから時刻集合τ={τ,τ+1,・・・,τ+S}を作成した上で、上記の式(1)により時刻t∈τにおける観測ベクトルxを特徴ベクトルψに変換する。すなわち、学習部102は、時刻τから時刻τ+Sまでの各時刻における観測ベクトルをニューラルネットワークfにより特徴ベクトルに変換する。
ステップS204:次に、学習部102は、以下の式(9)により時刻t∈τにおける外因性ベクトルzを特徴ベクトルξに変換する。
Figure 2022070386000011
すなわち、学習部102は、時刻τから時刻τ+Sまでの各時刻における外因性ベクトルをニューラルネットワークhにより特徴ベクトルに変換する。なお、上記の式(9)に示すhは、外因性ベクトルを特徴ベクトルに変換する関数をニューラルネットワークによりモデル化したものということもできる。
ステップS205:次に、学習部102は、上記のステップS203で得られた特徴ベクトルψと、上記のステップS204で得られた特徴ベクトルξとを用いて、次の時刻への線形遷移行列Aの固有値及び固有ベクトルを推定する。すなわち、学習部102は、以下の式(10)の関係を満たす線形遷移行列Aの固有値及び固有ベクトルを推定する。
Figure 2022070386000012
ここで、Bは、特徴ベクトルξから特徴ベクトルψt+1への影響を表す行列である。
学習部102は、外因性ベクトルの影響を考慮しつつ、予測精度が高くなるように線形遷移行列Aを推定し、その固有値及び固有ベクトルを計算すればよい。このとき、線形遷移行列Aは、例えば、特異値分解を用いて次元削減された空間で推定することができる。この場合、まず、学習部102は、以下の式(11)に示す2つの行列Ω及びΨを作成する。
Figure 2022070386000013
ここで、Kは特徴ベクトルψの次元数、Nは特徴ベクトルξの次元数である。また、[・;・]はベクトルの結合を表す。
次に、学習部102は、特異値分解により、以下の式(12)のように行列Ωを分解する。
Figure 2022070386000014
次に、学習部102は、特異値分解により、以下の式(13)のように行列Ψを分解する。
Figure 2022070386000015
次に、学習部102は、以下の式(14)のように、特異値分解の結果を用いて推定される次元削減された線形遷移行列を計算する。
Figure 2022070386000016
ここで、
Figure 2022070386000017
である。なお、Pは特異値分解で決定される値(特異値の数)であり、Σのサイズ(行及び列数)である。
そして、学習部102は、上記の式(14)で計算された線形遷移行列を以下の式(15)のように固有値分解する。
Figure 2022070386000018
ここで、Yは固有ベクトル、Λは固有値である。これにより、線形遷移行列Aの固有値及び固有ベクトルが推定される。
ステップS206:次に、学習部102は、上記のステップS205で得られた固有値Λ及び固有ベクトルYを用いて、各時刻における観測ベクトルの特徴ベクトルを予測する。学習部102は、時刻tにおける特徴ベクトルψと近くなるように、当該時刻tにおける特徴ベクトル^ψを予測すればよい。例えば、学習部102は、以下の式(16)により特徴ベクトル^ψを予測することができる。
Figure 2022070386000019
ここで、
Figure 2022070386000020
である。
ステップS207:次に、学習部102は、上記のステップS206で予測された特徴ベクトル^ψを上記の式(8)により観測ベクトル^xに変換する。すなわち、学習部102は、各時刻tにおける特徴ベクトル^ψをニューラルネットワークgにより観測ベクトル^xに変換する。
ステップS208:次に、学習部102は、外因性ベクトルの特徴ベクトルξを以下の式(17)により外因性ベクトル^zに変換する。
Figure 2022070386000021
すなわち、学習部102は、各時刻tにおける特徴ベクトル^ξ=ξをニューラルネットワークqにより外因性ベクトル^zに変換する。なお、上記の式(17)に示すqは、特徴ベクトルを外因性ベクトルに変換する関数をニューラルネットワークによりモデル化したものということもできる。
ステップS209:次に、学習部102は、上記のステップS207で得られた観測ベクトル^xと、入力データとして入力した系列データXに含まれる観測ベクトルx(つまり、実際に与えられている観測ベクトルx)との誤差を計算する。
ステップS210:次に、学習部102は、上記のステップS208で得られた外因性ベクトル^zと、入力データとして入力した系列データZに含まれる外因性ベクトルz(つまり、実際に与えられている外因性ベクトルz)との誤差を計算する。
なお、上記のステップS209及びステップS210において、学習部102は、誤差として、例えば、平均二乗誤差等を計算すればよい。
ステップS211:次に、学習部102は、上記のステップS209及びステップS210で計算された誤差が小さくなるように、ニューラルネットワークf、g、h及びqのパラメータを更新する。なお、学習部102は、例えば、確率的勾配降下法等を用いてニューラルネットワークf、g、h及びqのパラメータを更新すればよい。
ステップS212:次に、学習部102は、所定の終了条件を満たすか否かを判定する。そして、学習部102は、当該終了条件を満たさないと判定した場合は上記のステップS202に戻る。これにより、当該終了条件を満たすまで、上記のステップS202~ステップS211が繰り返し実行される。
一方で、学習部102は、当該終了条件を満たすと判定した場合は、学習処理を終了する。これにより、出力部106によって学習済みのモデル(ニューラルネットワークf、g、h及びq)のパラメータが出力される。
なお、所定の終了条件としては、例えば、上記のステップS202~ステップS211の繰り返し回数が所定の第3の閾値を超えたこと、繰り返しの前後におけるパラメータや誤差の変化量が所定の第4の閾値以下となったこと、等を用いることができる。
以上のように、学習フェーズにおける系列解析装置10は、観測ベクトルの系列データと共に外因性ベクトルの系列データが与えられる場合に、系列データの解析や予測、系列データが得られた動的システムの制御等に用いられるモデル(ニューラルネットワークf、g、h及びq)のパラメータを学習することができる。
<補助情報も与えられている場合の学習処理>
ここで、例えば、固有値等の系列データに関する補助情報が入力データとして与えられている場合、このような補助情報をモデルの学習に有効活用することができる。
例えば、真の固有値
Figure 2022070386000022
が入力データとして与えられている場合、学習部102は、上記のステップS107やステップS209~ステップS210で計算される誤差に対して、以下の式(18)に示す正則化項を追加する。
Figure 2022070386000023
これにより、真の固有値と同じような固有値が得られるように、ニューラルネットワークを学習することができる。
なお、例えば、一部の真の固有値のみが与えられている場合、真の固有値の実部又は虚部のみが与えられる場合、固有ベクトルに関する情報が与えられている場合等についても、上記と同様に正則化項を追加することで、補助情報を活用してニューラルネットワークを学習することができるようになる。
<解析処理>
解析部103は、与えられた系列データの全ての時刻集合をτとして、学習済みのニューラルネットワークfを用いて、上記のステップS103~ステップS104を実行することにより固有値Λ及び固有ベクトルYを求める。固有値の実部は分解された系列データの成長率を表し、虚部は周期を表す。
また、解析部103は、固有ベクトルYと学習済みのニューラルネットワークgをかけることで、固有関数を推定することもできる。固有関数により、共通の動的システムに従う変数を明らかにすることができる。
<予測処理>
予測部104は、与えられた系列データの全ての時刻集合をτとして、学習済みのニューラルネットワークf及びgを用いて、上記のステップS103~ステップS106を実行することにより、任意の時刻の観測ベクトル^xを予測することができる。
<制御処理>
外因性ベクトルの系列データが与えられている場合は、学習部102により、以下の式(19)及び(20)によって特徴空間における線形行列A及びBを推定する。
Figure 2022070386000024
このように推定された線形行列^A及び^Bに基づいて、最適制御理論を用いることにより、制御部105は、動的システムを制御することができる。例えば、線形二次レギュレータや極配置法等により動的システムを制御することができる。これにより得られた制御は、上記の式(17)に示すニューラルネットワークqにより、観測空間における外因性ベクトルに変換することができる。
<評価>
次に、本実施形態に係る系列解析装置10による固有値の推定精度の評価結果について説明する。人工データを用いて、固有値を推定し、その結果を既存手法と比較した。比較結果を図4に示す。図4中のNDMDは、本実施形態に係る系列解析装置10を表す。また、DMD、DMD2、SDMDはいずれも既存手法であり、それぞれ動的モード分解、2次元に次元削減した動的モード分解、スパース動的モード分解を表す。
図4に示すように、本実施形態に係る系列解析装置10は、既存手法と比較して、2つの真の固有値(True)を適切に推定できていることがわかる。
<ハードウェア構成>
最後に、一実施形態に係る系列解析装置10のハードウェア構成について、図5を参照しながら説明する。図5は、一実施形態に係る系列解析装置10のハードウェア構成の一例を示す図である。
図5に示すように、一実施形態に係る系列解析装置10は一般的なコンピュータ又はコンピュータシステムのハードウェア構成で実現され、入力装置201と、表示装置202と、外部I/F203と、通信I/F204と、プロセッサ205と、メモリ装置206とを有する。これら各ハードウェアは、それぞれがバス207を介して通信可能に接続される。
入力装置201は、例えば、キーボードやマウス、タッチパネル等である。表示装置202は、例えば、ディスプレイ等である。なお、系列解析装置10は、例えば、入力装置201及び表示装置202のうちの少なくとも一方を有していなくてもよい。
外部I/F203は、記録媒体203a等の外部装置とのインタフェースである。系列解析装置10は、外部I/F203を介して、記録媒体203aの読み取りや書き込み等を行うことができる。記録媒体203aには、例えば、系列解析装置10が有する各機能部(入力部101、学習部102、解析部103、予測部104、制御部105及び出力部106)を実現する1以上のプログラムが格納されていてもよい。
なお、記録媒体203aには、例えば、CD(Compact Disc)、DVD(Digital Versatile Disk)、SDメモリカード(Secure Digital memory card)、USB(Universal Serial Bus)メモリカード等がある。
通信I/F204は、系列解析装置10を通信ネットワークに接続するためのインタフェースである。なお、系列解析装置10が有する各機能部を実現する1以上のプログラムは、通信I/F204を介して、所定のサーバ装置等から取得(ダウンロード)されてもよい。
プロセッサ205は、例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等の各種演算装置である。系列解析装置10が有する各機能部は、例えば、メモリ装置206等に格納されている1以上のプログラムがプロセッサ205に実行させる処理により実現される。
メモリ装置206は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等の各種記憶装置である。系列解析装置10が有する記憶部107は、例えば、メモリ装置206を用いて実現可能である。なお、記憶部107は、例えば、系列解析装置10と通信ネットワークを介して接続される記憶装置等を用いて実現されていてもよい。
一実施形態に係る系列解析装置10は、図5に示すハードウェア構成を有することにより、上述した各種処理を実現することができる。なお、図5に示すハードウェア構成は一例であって、系列解析装置10は、他のハードウェア構成を有していてもよい。例えば、系列解析装置10は、複数のプロセッサ205を有していてもよいし、複数のメモリ装置206を有していてもよい。
本発明は、具体的に開示された上記の実施形態に限定されるものではなく、特許請求の範囲の記載から逸脱することなく、種々の変形や変更、既知の技術との組み合わせ等が可能である。
10 系列解析装置
101 入力部
102 学習部
103 解析部
104 予測部
105 制御部
106 出力部
107 記憶部
201 入力装置
202 表示装置
203 外部I/F
203a 記録媒体
204 通信I/F
205 プロセッサ
206 メモリ装置
207 バス

Claims (8)

  1. 観測データで構成される第1の系列データを入力する第1の入力手順と、
    前記第1の系列データに含まれる観測データを第1のモデルにより第1の特徴ベクトルに変換する第1の変換手順と、
    前記第1の特徴ベクトルを第2のモデルにより前記観測データに変換する第2の変換手順と、
    前記第1の系列データに含まれる観測データと、前記第2の変換手順で変換された観測データとの第1の誤差が小さくなるように、前記第1のモデル及び前記第2のモデルのパラメータを更新する更新手順と、
    をコンピュータが実行する学習方法。
  2. 前記観測データに影響を与える外因性データで構成される第2の系列データを入力する第2の入力手順と、
    前記第2の系列データに含まれる外因性データを第3のモデルにより第2の特徴ベクトルに変換する第3の変換手順と、
    前記第2の特徴ベクトルを第4のモデルにより前記外因性データに変換する第4の変換手順と、が含まれ、
    前記更新手順は、
    前記第1の誤差と、前記第2の系列データに含まれる外因性データと前記第4の変換手順で変換された外因性データとの第2の誤差とが小さくなるように、前記第1のモデル、前記第2のモデル、前記第3のモデル及び前記第4のモデルのパラメータを更新する、請求項1に記載の学習方法。
  3. 前記第1の変換手順で変換された第1の特徴ベクトルを用いて、次の時刻の第1の特徴ベクトルへの遷移行列を推定する推定手順と、
    前記遷移行列の固有値及び固有ベクトルを用いて、各時刻の第1の特徴ベクトルを予測する予測手順と、が含まれ、
    前記第2の変換手順は、
    前記予測手順で予測された第1の特徴ベクトルを前記第2のモデルにより前記観測データに変換する、請求項1又は2に記載の学習方法。
  4. 観測データで構成される第1の系列データを入力する第1の入力手順と、
    前記第1の系列データに含まれる観測データを第1のモデルにより第1の特徴ベクトルに変換する第1の変換手順と、
    前記第1の特徴ベクトルを第2のモデルにより前記観測データに変換する第2の変換手順と、
    前記第1の系列データに含まれる観測データと、前記第2の変換手順で変換された観測データとの第1の誤差が小さくなるように、前記第1のモデル及び前記第2のモデルのパラメータを更新する更新手順と、
    前記更新手順で更新されたパラメータを設定した前記第1のモデル及び前記第2のモデルにより、解析対象の系列データの性質を解析、又は、予測対象の系列データから将来の時刻のデータを予測する推論手順と、
    をコンピュータが実行する系列解析方法。
  5. 前記観測データに影響を与える外因性データで構成される第2の系列データを入力する第2の入力手順と、
    前記第2の系列データに含まれる外因性データを第3のモデルにより第2の特徴ベクトルに変換する第3の変換手順と、
    前記第2の特徴ベクトルを第4のモデルにより前記外因性データに変換する第4の変換手順と、が含まれ、
    前記更新手順は、
    前記第1の誤差と、前記第2の系列データに含まれる外因性データと前記第4の変換手順で変換された外因性データとの第2の誤差とが小さくなるように、前記第1のモデル、前記第2のモデル、前記第3のモデル及び前記第4のモデルのパラメータを更新し、
    前記推論手順は、
    前記更新手順で更新されたパラメータを設定した前記第1のモデル、前記第2のモデル、前記第3のモデル及び前記第4のモデルにより、前記第1の系列データが得られた動的システムを制御する、請求項4に記載の系列解析方法。
  6. 観測データで構成される第1の系列データを入力する第1の入力部と、
    前記第1の系列データに含まれる観測データを第1のモデルにより第1の特徴ベクトルに変換する第1の変換部と、
    前記第1の特徴ベクトルを第2のモデルにより前記観測データに変換する第2の変換部と、
    前記第1の系列データに含まれる観測データと、前記第2の変換部で変換された観測データとの第1の誤差が小さくなるように、前記第1のモデル及び前記第2のモデルのパラメータを更新する更新部と、
    を有する学習装置。
  7. 観測データで構成される第1の系列データを入力する第1の入力部と、
    前記第1の系列データに含まれる観測データを第1のモデルにより第1の特徴ベクトルに変換する第1の変換部と、
    前記第1の特徴ベクトルを第2のモデルにより前記観測データに変換する第2の変換部と、
    前記第1の系列データに含まれる観測データと、前記第2の変換部で変換された観測データとの第1の誤差が小さくなるように、前記第1のモデル及び前記第2のモデルのパラメータを更新する更新部と、
    前記更新部で更新されたパラメータを設定した前記第1のモデル及び前記第2のモデルにより、解析対象の系列データの性質を解析、又は、予測対象の系列データから将来の時刻のデータを予測する推論部と、
    を有する系列解析装置。
  8. コンピュータに、請求項1乃至3の何れか一項に記載の学習方法、又は、請求項4又は5に記載の系列解析方法、を実行させるプログラム。
JP2020179424A 2020-10-27 2020-10-27 学習方法、系列解析方法、学習装置、系列解析装置、及びプログラム Pending JP2022070386A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020179424A JP2022070386A (ja) 2020-10-27 2020-10-27 学習方法、系列解析方法、学習装置、系列解析装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020179424A JP2022070386A (ja) 2020-10-27 2020-10-27 学習方法、系列解析方法、学習装置、系列解析装置、及びプログラム

Publications (1)

Publication Number Publication Date
JP2022070386A true JP2022070386A (ja) 2022-05-13

Family

ID=81535204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020179424A Pending JP2022070386A (ja) 2020-10-27 2020-10-27 学習方法、系列解析方法、学習装置、系列解析装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP2022070386A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024090428A1 (ja) * 2022-10-26 2024-05-02 東京エレクトロン株式会社 情報処理方法、コンピュータプログラム及び情報処理装置
WO2024090433A1 (ja) * 2022-10-26 2024-05-02 東京エレクトロン株式会社 情報処理方法、コンピュータプログラム及び情報処理装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024090428A1 (ja) * 2022-10-26 2024-05-02 東京エレクトロン株式会社 情報処理方法、コンピュータプログラム及び情報処理装置
WO2024090433A1 (ja) * 2022-10-26 2024-05-02 東京エレクトロン株式会社 情報処理方法、コンピュータプログラム及び情報処理装置

Similar Documents

Publication Publication Date Title
Champion et al. Discovery of nonlinear multiscale systems: Sampling strategies and embeddings
Rudy et al. Deep learning of dynamics and signal-noise decomposition with time-stepping constraints
US20180268285A1 (en) Neural network cooperation
JP2022070386A (ja) 学習方法、系列解析方法、学習装置、系列解析装置、及びプログラム
JP2021504836A5 (ja)
WO2019229931A1 (ja) 情報処理装置、制御方法、及びプログラム
WO2020179627A1 (ja) パラメータ推定装置、方法、及びプログラム
Khosravi Representer theorem for learning Koopman operators
JP2018067227A (ja) データ分析装置、データ分析方法、データ分析処理プログラム
US11645574B2 (en) Recording medium, reinforcement learning method, and reinforcement learning apparatus
WO2019167240A1 (ja) 情報処理装置、制御方法、及びプログラム
JP2017220001A (ja) 予測装置、予測方法及びプログラム
WO2020218246A1 (ja) 最適化装置、最適化方法、及びプログラム
JP2016520220A (ja) 隠れ属性モデル推定装置、方法およびプログラム
JP7047665B2 (ja) 学習装置、学習方法及び学習プログラム
Rehman et al. Embedded estimation sequential bayes parameter inference for the ricker dynamical system
Lancewicki et al. Sequential covariance-matrix estimation with application to mitigating catastrophic forgetting
JP7163977B2 (ja) 推定装置、学習装置、それらの方法、およびプログラム
Kocijan et al. System identification with GP models
Bianchi et al. Critical echo state network dynamics by means of Fisher information maximization
Gomm et al. Order and delay selection for neural network modelling by identification of linearized models
JP2019095894A (ja) 推定装置、学習装置、学習済みモデル、推定方法、学習方法、及びプログラム
Rogers et al. Bayesian Solutions to State-Space Structural Identification
WO2024084622A1 (ja) 軌跡データ予測装置、軌跡データ予測方法及びプログラム
WO2022009275A1 (ja) 学習方法、学習装置及びプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20201029

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20201029

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402