JP6629682B2 - 学習装置、分類装置、分類確率計算装置、及びプログラム - Google Patents

学習装置、分類装置、分類確率計算装置、及びプログラム Download PDF

Info

Publication number
JP6629682B2
JP6629682B2 JP2016126052A JP2016126052A JP6629682B2 JP 6629682 B2 JP6629682 B2 JP 6629682B2 JP 2016126052 A JP2016126052 A JP 2016126052A JP 2016126052 A JP2016126052 A JP 2016126052A JP 6629682 B2 JP6629682 B2 JP 6629682B2
Authority
JP
Japan
Prior art keywords
unit
series data
classifier
training data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016126052A
Other languages
English (en)
Other versions
JP2017228256A (ja
Inventor
鷹一 近原
鷹一 近原
昭典 藤野
昭典 藤野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2016126052A priority Critical patent/JP6629682B2/ja
Publication of JP2017228256A publication Critical patent/JP2017228256A/ja
Application granted granted Critical
Publication of JP6629682B2 publication Critical patent/JP6629682B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Complex Calculations (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

変量Xと変量Yの間に、原因と結果の関係があるとき、変量X、Y間に因果関係がある、という。本発明は、2変量時系列データの変量間の因果関係を推定する技術に関するものである。
統計的手法に基づく変量間の因果関係を推定する技術では、iid(independent and identically-distributed)データ・時系列データを問わず、変量間の依存関係が因果関係を定義するモデルに従うか否かに基づいて因果関係の有無を推定する。所与のデータにおける変量間の依存関係が因果関係を定義するモデルに従うか否かは、データに対する回帰に基づいて判断される。例えば非特許文献1の技術では、回帰モデルを事前に正しく選択することで、時系列データにおける、変量間の因果関係を正しく推定することができる。しかし、回帰モデルを事前に正しく選択するためには、回帰手法に関する専門知識を要し、多種多様なデータに対して回帰モデルを人手で事前に設定することは容易ではない。
時系列データに対する回帰モデルの事前設定が不要な因果関係の推定技術として、カーネル法を用いるものがある。非特許文献2の技術では、カーネル法を用いて非線形な時系列データにおける変量間の因果関係を推定する。この技術では回帰モデルの事前設定が不要である一方で、カーネル関数を定義するパラメータを事前に設定する必要があり、パラメータ値を不適切に与えると正しく因果関係を推定できないという問題点がある。
一方でiidデータの場合、因果関係の識別の問題を、因果関係の方向を表すクラスラベル(以下、因果ラベル) を推定する分類問題とみなした教師あり学習技術がある。非特許文献3の技術では、因果関係が判明している大量のデータサンプル(以下、ラベルありサンプル) をもとにデータと因果ラベルの関係を学習した分類器を用いて、因果関係が判明していないデータサンプル(以下、ラベルなしサンプル) の因果ラベルを推定することでiid データに対する因果関係を識別する。この教師あり学習技術は、従来のラベルなしサンプルのみを使う推定技術に比べ、ラベルありサンプルを効果的に利用し、因果関係の推定精度を向上させており、ベンチマークデータによる性能検証において従来技術を上回る最高推定精度を達成している。
Jonas Peters, Dominik Janzing, and Bernhard Schoelkopf. Causal inference on time series using restricted structural equation models. In NIPS, pages 154162, 2013. Xiaohai Sun. Assessing Nonlinear Granger Causality from Multivariate Time Series. In Proceedings of the European conference on Machine Learning and Knowledge Discovery in Databases-Part II, pages 440455. Springer-Verlag, 2008. David Lopez-Paz, Krikamol Muandet, Bernhard Schoelkopf, and Ilya Tolstikhin. Towards a learning theory of cause-effect inference. In ICML, JMLR, 2015. Pingping Zhu, Badong Chen, and Jose C. Principe. Learning nonlinear generative models of time series with a Kalman filter in RKHS. Signal Processing, IEEE Transactions on, 62(1):141155, 2014. Ali Rahimi and Benjamin Recht. Random features for large-scale kernel machines. In NIPS, pages 11771184, 2007.
非特許文献3の教師あり学習技術では、学習に用いる各サンプルの特徴量をカーネル平均と呼ばれる技術によって求めている。非特許文献3の技術は、非特許文献2の技術と同様にカーネル法を用いているが、教師あり学習技術であるため、カーネル関数を定義するパラメータはラベルありサンプルに基づく交差検証法によって適切な値に定めることができる。一方で非特許文献3の技術は、iid データに対する因果関係の推定技術であり、時系列の持つ順序性の情報を失うため、時系列データに適用して変量間の因果関係が推定できる保証はない。
以上を踏まえると、統計的手法に基づいて変量間の因果関係を推定する技術領域において、回帰モデルの事前設定やカーネル関数のパラメータの人手による設定を不要とする、時系列の順序性を考慮した、因果関係の推定技術を提供することが課題である。
本発明は上記事情を鑑みて成されたものであり、回帰モデルの事前設定が不要で、カーネル関数のパラメータを、訓練データを用いた交差検証法によって適切な値に定めることができる、教師あり学習に基づく、2変量時系列データに対する変量間の因果関係を推定するための技術を提供することを目的とする。
開示の技術によれば、所定のモデルに基づいて、ラベルあり2変量時系列データの集合である訓練データを生成し、当該訓練データを記憶部に格納する訓練データ生成部と、
前記記憶部から読み出した前記訓練データの特徴量を計算する特徴量計算部と、
前記特徴量計算部により計算された前記特徴量に基づいて、分類器の学習を行う分類器学習部と
を備えることを特徴とする学習装置が提供される。
また、開示の技術によれば、所定のモデルに基づいて、ラベルあり2変量時系列データの集合である訓練データを生成し、当該訓練データを記憶部に格納する訓練データ生成部と、
前記記憶部から読み出した前記訓練データの特徴量を計算する特徴量計算部と、
前記特徴量計算部により計算された前記特徴量に基づいて、分類器の学習を行う分類器学習部と、
ラベルなし2変量時系列データを入力する入力部と、
前記分類器学習部により学習がなされた分類器を用いて、前記ラベルなし2変量時系列データのラベルの値を推定する分類部と
を備えることを特徴とする分類装置が提供される。
また、開示の技術によれば、所定のモデルに基づいて、ラベルあり2変量時系列データの集合である訓練データを生成し、当該訓練データを記憶部に格納する訓練データ生成部と、
前記記憶部から読み出した前記訓練データの特徴量を計算する特徴量計算部と、
前記特徴量計算部により計算された前記特徴量に基づいて、分類器の学習を行う分類器学習部と、
ラベルなし2変量時系列データを入力する入力部と、
前記分類器学習部により学習がなされた分類器を用いて、前記ラベルなし2変量時系列データのラベルの値が特定の値である確率を算出する分類部と
を備えることを特徴とする分類確率計算装置が提供される。
また、開示の技術によれば、変量間の因果関係が判明していないラベルなし2変量時系列データを入力する入力部と、
ラベルあり2変量時系列データの集合である訓練データを用いて学習された分類器を用いて、前記ラベルなし2変量時系列データのラベルの値を推定し、当該ラベルの値を出力する分類部と
を備えることを特徴とする分類装置が提供される。
また、開示の技術によれば、変量間の因果関係が判明していないラベルなし2変量時系列データを入力する入力部と、
ラベルあり2変量時系列データの集合である訓練データを用いて学習された分類器を用いて、前記ラベルなし2変量時系列データのラベルの値が特定の値である確率を算出し、当該確率を出力する分類部と
を備えることを特徴とする分類確率計算装置が提供される。

前記特徴量計算部は、KKF-CEOにより変量を計算し、当該変量を用いて予測分布に対するカーネル平均の推定値を計算することとしてもよい。また、前記訓練データ生成部は、2変量間の関係が線形な関数として表される2変量時系列データと、2変量間の関係が非線形な関数として表される2変量時系列データとを含む、ラベルあり2変量時系列データの集合を生成することとしてもよい。
開示の技術によれば、ラベルなしサンプルの各々について、分類に用いる特徴量を計算し、生成された訓練データに基づいて学習した2値分類器に基づいて特徴量を分類し、前記ラベルなしサンプルに対応するラベルを推定することにより、回帰モデルの事前設定やカーネル関数のパラメータの人手による設定を要することなく、与えられた2変量時系列データに対する変量間の因果関係を推定することができる。
本発明の実施の形態に係る2値分類装置の構成図である。 本発明の実施の形態に係る2値分類装置の訓練データ生成部の構成図である。 本発明の実施の形態に係る2値分類装置における特徴量計算部の処理動作を示すフローチャートである。 アルゴリズム1を示す図である。 アルゴリズム2を示す図である。 実験結果を示す図である。
以下、図面を参照して本発明の実施の形態(本実施の形態)を説明する。以下で説明する実施の形態は一例に過ぎず、本発明が適用される実施の形態は、以下の実施の形態に限られるわけではない。
(実施の形態の概要)
まず、本実施の形態の概要について説明する。
本実施の形態に係る2値分類装置においては、データベース等に含まれる2つの変量X、Yに関する連続値の時系列データに対して、変量間の因果関係が既知の2変量時系列データの集合によって構成される訓練データを用いて分類器の学習を行い、当該学習を行った分類器によりラベルなしサンプルに対するラベルを予測することで、変量X、Yの間の因果関係を推定する。
例えば円ドルの為替レートに関する時系列(X)と特定の企業の株価に関する時系列(Y)からなる2変量時系列データからなるラベルなしサンプルが与えられた場合、まず変量間の因果関係が既知の2変量時系列データ集合を人工的に生成して訓練データとし、当該訓練データを用いて分類器を学習して、ラベルなしサンプルに対するラベルを予測することで、2つの変量X、Yの間の因果関係をX→Y(即ち円ドルの為替レートが原因で、企業の株価が結果である) というように推定する。
本実施の形態は、第1の実施の形態と第2の実施の形態からなる。第1の実施の形態では、因果関係がX→Yとして表される時系列データを正例とし、因果関係がX←Yで表される時系列データを負例としたラベルありサンプルからなる訓練データを用いて分類器を学習することで、正例の時系列データであるか負例の時系列データであるかが未知のラベルなしサンプルのラベルを2値分類する。
第2の実施の形態では、因果関係がX←Z→Y(潜在交絡) として表される時系列データを正例とし、因果関係がX→YまたはX←Yで表される時系列データを負例としたラベルありサンプルからなる訓練データを用いて分類器を学習することで、正例の時系列データであるか負例の時系列データであるかが未知のラベルなしサンプルのラベルを2値分類する。
第1の実施の形態に係る2値分類装置と、第2の実施の形態に係る2値分類装置はともに、正例の時系列データであるか負例の時系列データであるかが未知のラベルなしサンプルに対して、推定したラベルを出力する。第1の実施の形態に係る2値分類確率計算装置と、第2の実施の形態に係る2値分類確率計算装置はともに、正例の時系列データであるか負例の時系列データであるかが未知のラベルなしサンプルに対して、ラベルの推定確率(2値分類確率) を出力する。
(第1の実施の形態)
<装置構成>
次に、本発明の第1の実施の形態に係る2値分類装置100の構成について説明する。なお、「2値分類装置」を「分類装置」と称してもよい。図1は、2値分類装置100の機能構成を示す構成図である。図1に示すように、この2値分類装置100は、入力部10と、学習部20と、推論部30と、出力部90と、を有する。
図1に示すとおり、入力部10は、学習部20に対する入力を行う入力部1‐12(以下、入力部1)と、推論部30に対する入力を行う入力部2‐14(以下、入力部2)とを有する。
学習部20は、訓練データ生成部22と、訓練データデータベース(DB)24と、特徴量計算部26と、分類器学習部28と、を有する。推論部30は、テストデータデータベース(DB)32と、特徴量計算部34と、ラベル推定部36と、を有する。出力部90は、推論部30が推定した、ラベルなしサンプルに対するラベルを出力する。各部の詳細については後述する。なお、訓練データDB24とテストデータDB32はいずれも記憶部の例である。
本実施の形態に係る2値分類装置100は、CPUと、RAMと、後述する特徴量計算ルーチン等を実行するためのプログラムや各種データを記憶したROMと、を含むコンピュータで構成することができる。すなわち、2値分類装置100は、コンピュータに、本実施の形態で説明する処理内容を記述したプログラムを実行させることにより実現可能である。2値分類装置100が有する機能は、当該コンピュータに内蔵されるCPUやメモリ等のハードウェア資源を用いて、当該装置で実施される処理に対応するプログラムを実行することによって実現することが可能である。上記プログラムは、コンピュータが読み取り可能な記録媒体(可搬メモリ等)に記録して、保存したり、配布したりすることが可能である。また、上記プログラムをインターネットや電子メール等、ネットワークを通して提供することも可能である。
上記のように、2値分類装置100を、コンピュータにプログラムを実行させることにより実現できることは、第2の実施の形態でも同様である。また、コンピュータにプログラムを実行させることにより実現できる点は、第1、第2の実施の形態に係る2値分類確率計算装置についても同様である。
また、2値分類装置100における学習部20と推論部30とを別々の装置(コンピュータ)として構成してもよい。この場合、学習部20を学習装置と称してもよい。学習装置についても、2値分類装置100と同様に、コンピュータにプログラムを実行させることにより実現できる。
以下、各部の詳細について説明する。
<入力部10:入力部1、入力部2>
入力部1の入力として、以下の2通りがある。1つは、
・訓練データ生成部22において用いるパラメータ値
・特徴量計算部26において用いるパラメータ値
・分類器学習部28において用いるパラメータ値
であり、もう1つは、
・訓練データ生成部22において用いるパラメータ値の候補集合と、2値分類対象となる2変量時系列データであるラベルなしサンプルの集合からなるテストデータ集合
・特徴量計算部26において用いるパラメータ値
・分類器学習部28において用いるパラメータ値
である。
前者は、訓練データ生成部22において用いるパラメータθ(後述)の値を人手で与える場合の入力に相当し、後者は、同パラメータθの値を、2値分類対象であるラベルなしサンプルの各々に基づいて設定し、分類器の学習に用いる訓練データをラベルなしサンプルの各々に類似したものとして生成する場合の入力に相当する。
入力部2は、特徴量計算部34と、ラベル推定部36と、において用いるパラメータと、2値分類対象となる2変量時系列データであるラベルなしサンプルの集合からなるテストデータ集合を受け付ける。テストデータ集合はテストデータDB32に格納される。
<学習部20:訓練データ生成部22>
学習部20の訓練データ生成部22は、因果関係を表すラベルが既知の2変量時系列データであるラベルありサンプルの集合を人工的に生成し、訓練データとし、訓練データDB24に格納する。
訓練データ生成部22は、図2に示すように、初期化部38と、モデルパラメータ生成部40と、時系列データ生成部42と、を有する。
――ラベルありサンプルを人工的に生成する原理――
以下、訓練データ生成部22が因果関係を表すラベルが既知の2変量時系列データであるラベルありサンプルを人工的に生成する原理について説明する。
具体的には、因果関係X→YもしくはX←Yが成り立つような確率変数Zt = [Xt, Yt]Tに関する時系列{zt} = {z1,・・・,zT}を生成する原理を示す。
本実施の形態においては、時系列{zt}を生成するために、パラメータθ = {K, σ1, σ2, σ3, σ4, σ5, d, P}を用いる。これらのパラメータは以下に示す2通りの方法のいずれかに基づいて、初期化部38において初期化される。第1の方法は、入力部1よりパラメータθの値を受け取り、これをそのまま用いて初期化する方法である。第2の方法は、入力部1より与えられたパラメータθの値の候補集合とラベルなしサンプルの集合からなるテストデータ集合を受け取り、θの候補集合のうちテストデータ集合に最も類似した特徴量を与える時系列データを生成するパラメータを選択し、これを用いて初期化する方法である。第2の方法に関しては、後述する発明を実施する形態における、実験例の説明において具体例を説明する。
なお、訓練データ生成部22が生成するラベルありサンプルは、2変量間の関係が線形な関数として表される2変量時系列データと、2変量間の関係が非線形な関数として表される2変量時系列データとを含んでいる。いずれの2変量時系列データも、モデルパラメータ生成部40と、時系列データ生成部42と、において生成される。
初めに、因果関係X→Yを有する、変量間の関係が線形な関数として表される、2変量X、Yに関する時系列データをラベルありサンプルとして人工的に生成する原理について説明する。
時系列{zt}のうち、最初のP個のデータサンプル、即ち{z1,・・・,zP}については混合数K個の混合正規分布よりサンプリングする。前記混合正規分布に関するモデルパラメータは初期化部38で与えられたパラメータに基づいて、モデルパラメータ生成部40において、与えられる。前記混合正規分布の重みは、一様分布U(0, 1)に従う乱数値をK個サンプリングし、K個の乱数値の和が1 になるよう正規化することで与えられる。前記混合正規分布におけるK個の正規分布の平均と標準偏差は、各々正規分布N(0, σ1 2)、N(0, σ2 2)に従う乱数値をサンプリングすることで与えられる。
時系列{zt}のうち、残りのT-P+1個のデータサンプル、即ち{zP+1,・・・,zT}についてはベクトル自己回帰モデル(以下、VARモデル)に基づいてサンプリングする。
前記VARモデルに関するノイズ変数Et = [EXt, EYt]T (t = P+1,・・・,T)、係数行列Aτ (τ = 1,・・・,P)はモデルパラメータ生成部40において次のように設定する。
EXt、EYtはいずれも正規分布N(0, σ3 2)に従う乱数値をサンプリングすることで与えられる。係数行列Aτ (τ = 1,・・・,P)は次式のようにして与えられる。
Figure 0006629682
ここでUXX、UYYはいずれも一様分布U(0, 1)に従う乱数値をサンプリングすることで与えられる。σXX、σXY、σYYはいずれも確率0.5で値+1、確率0.5で-1をとる乱数をサンプリングすることで与えられる。
データサンプル{zP+1,・・・,zT}は、時系列データ生成部42において、モデルパラメータ生成部40において生成されたEt、Aτに基づいて、次式に示すVARモデルよりサンプリングする。
Figure 0006629682
因果関係X←Yを有する、変量間の関係が線形な関数として表される、2変量X、Yに関する時系列データは、係数行列Aτを転置した後、式(2)に基づいてデータサンプル{zP+1,・・・,zT}をサンプリングすることで得られる。この点以外は、上記の因果関係X→Yを有するラベルありサンプルの生成方法と同じである。
次にモデルパラメータ生成部40と時系列データ生成部42における、因果関係を表すラベルが既知で、2変量間の関係が非線形な関数として表される、2変量時系列データをラベルありサンプルとして人工的に生成する原理について説明する。
因果関係X→Yを有する、変量間の関係が非線形な関数として表される、2変量X、Yに関する時系列データ{xt}、{yt}は次のステップ1〜3により得られる。
ステップ1)まず、時系列データ{xt} = {xt,・・・,xT}を次のようにして得る。
(a) 最初P個のデータサンプル、即ち{xt,・・・,xP}を混合数K個の混合正規分布よりサンプリングする。前記混合正規分布に関するモデルパラメータは初期化部38で与えられたパラメータに基づいて、前述した線形時系列モデルのパラメータの与え方と同様にして与えられる。
(b) 残りT-P+1個のデータサンプル、即ち{xP+1,・・・,xT}は自己回帰モデル(以下、ARモデル)
Figure 0006629682
に基づいてサンプリングする。前記ARモデルに関する係数パラメータAτはσXXUXXとして与える。ここで、UXXは一様分布U(0, 1)に従う乱数値として、σXXは確率0.5で+1、確率0.5で-1をとる乱数値として、それぞれサンプリングされる。前記ARモデルに関するノイズ変数EXtは、正規分布N(0, σ4 2)に従う乱数値として、それぞれサンプリングされる。
(c) 得られた時系列データ{xt}を平均0、分散1になるように正規化する。
ステップ2)時系列データ{xt}を3次スプライン曲線で回帰し、スプライン関数値の時系列
Figure 0006629682
を得る。
ステップ3)時系列データ{yt} = {yt,・・・,yT}を次のようにして得る。
(a) 最初P個のデータサンプル、即ち{yt,・・・,yP}を混合数K個の混合正規分布より同様にサンプリングする。
(b) データサンプル{yP+1,・・・,yT}を
Figure 0006629682
よりサンプリングする。ここで、係数パラメータAτ F , Aτ Y (τ=1,・・・,P)は各々、一様分布U(0, 1)に従う乱数値をP個サンプリングし、得られたP個の乱数値を昇順にソートすることで与えられる。
(c) 得られた時系列データ{yt}を平均0、分散1になるように正規化する。
(d) 各yt (t = 1,・・・,T)に対して、正規分布N(0, σ2)に従う乱数値としてサンプリングしたノイズ変数を足す。ここで、パラメータσは一様分布U(0, σ5)に従う乱数値として得る。
(e) 得られた時系列データ{yt}を平均0、分散1になるように正規化する。
前記2変量時系列データ{xt}、{yt}において、混合正規分布のモデルパラメータ、式(3) 及び式(4)における係数パラメータ、及びytに対するノイズが従う正規分布のパラメータσは、モデルパラメータ生成部40において与えられる。以上に説明した原理に従って、時系列データ生成部42は因果関係がX→Yで、2変量間の関係が非線形な関数として表される、2変量時系列データを生成する。
因果関係X←Yを有する、変量間の関係が非線形な関数として表される、2変量X、Yに関する時系列データは、以上に説明した原理と同様にして得られる。
以上に説明した2つの原理に従って、訓練データ生成部22は因果関係を表すラベルが既知の2変量時系列データであるラベルありサンプルを人工的に生成し、生成したラベルありサンプルを訓練データDB24に格納する。
<学習部20:特徴量計算部26、推論部30:特徴量計算部34>
学習部20の特徴量計算部26は、各ラベルありサンプルに対して、特徴量を計算する。特徴量計算部34は、各ラベルなしサンプルに対して、特徴量を計算する。特徴量計算の手順は、特徴量計算部26と特徴量計算部34とで共通であり、後述する図3のフローチャートに示すとおりである。なお、ラベルなしサンプルに関しては、サンプルの時系列データ{z1,・・・,zT}に対し、長さWの部分時系列{zt-(W-1),・・・,zt}をt = W,・・・,Tについて用意し、T-W+1個の部分時系列の各々に対して特徴量を計算する。ここで、Wの値については入力部2において初期化する。
以下、特徴量を計算する原理について説明する。
本実施の形態においては、各ラベルありサンプル・各ラベルなしサンプルに対する特徴量を、予測分布に対するカーネル平均の推定値として得る。以下、前記予測分布に対するカーネル平均の推定値を、既存技術Kernel Kalman Filter based on Conditional Embedding Operator (非特許文献4参照;以下、KKF-CEO) に基づいて、求める原理について説明する。
時系列{zt} = {z1,・・・,zm} (m = t)に対する前記予測分布に対するカーネル平均の推定値は、次のように与えられる。
Figure 0006629682
式(5)において、変量ct+1は既存技術KKF-CEOによって与えられる。KKF-CEOによる変量ct+1の導出の手順は、アルゴリズム1 として図4に示したとおりである。また変量Ψは、正定値カーネルkが定義する写像関数φ(・)を用いて、[φ(z2) ,・・・,φ(zm-2)] と定義される。本実施の形態では、正定値カーネkとしてガウスカーネル
Figure 0006629682
を用いる。本実施の形態では、ガウスカーネルの定義する写像関数φ(・)を低次元ベクトルとして近似するため、既存技術Random Fourier Feature(非特許文献5参照;以下、RFF) に基づいて、各φ(・)を、次元数がnrffの有限次元ベクトルとして近似する。RFFは、ガウスカーネルkが定義する写像φ(z)を、以下のように近似する。
Figure 0006629682
ただし、パラメータw1,・・・,wnrffは、正規分布N(w|0, 2σI)よりサンプリングし、パラメータb1,・・・,bnrffは一様分布U(0, 2π)よりサンプリングする。
なお、本明細書のテキストにおいて、記載の便宜上、ある文字が推定値であることを示す^(ハット)を当該文字の後ろに記載している。予測分布に対するカーネル平均の推定値μ^zt+1は、KKF-CEOによる変量ct+1の導出(図4のアルゴリズム1参照)と、RFFによる写像関数φ(・) の近似(式(7)) とを用いて、式(5)に基づいて得られる。図5に示したアルゴリズム2は、その導出過程を表している。
以上に説明した原理に基づいて、2変量時系列データ{zt-(W-1):t} = {zt-(W-1),・・・,zt} = {(xt-(W-1):t, yt-(W-1):t)}に対する、前記予測分布に対するカーネル平均の推定値μ^zt+1、及び1変量時系列{xt-(W-1):t}、{yt-(W-1):t}に対する、前記予測分布に対するカーネル平均の推定値μ^xt+1、μ^yt+1を求め、これら3種類の予測分布に対するカーネル平均の推定値を用いることで、2変量時系列データ{zt-(W-1):t}に対する特徴量を次のように定義する。
Figure 0006629682
図3は以上に説明した各ラベルありサンプルまたは各ラベルなしサンプルに対して、特徴量計算部26または34が、特徴量を求める手順を示すフローチャートである。
まず、ステップS101で、訓練データDB24より読み込んだラベルありサンプル32を用いて、もしくはテストデータDB32より読み込んだラベルなしサンプルを用いて、3種類の時系列データ{xt-(W-1):t},{yt-(W-1):t},{zt-(W-1):t}のいずれかを読み込む。
次に、ステップS102で、KKF-CEOにおいて用いるハイパーパラメータを入力部10より読み込む。
そして、ステップS103で、ステップS101で読み込んだ時系列データに対し、KKF-CEOを用いて式(5)における変量ct+1を求める。
その後、ステップS104で、変量Ψに対する近似値を、RFFを用いて得ることで、式(5)に基づいて、ステップS101で読み込んだ時系列データに対する、前記予測分布に対するカーネル平均の推定値を得る。
ステップS105で、これを3種類の時系列データ{xt-(W-1):t},{yt-(W-1):t},{zt-(W-1):t}に対してステップS101からS104を繰り返すことで、各時系列に対する、前記予測分布のカーネル平均の推定値を求め、式(8)に基づいて、各ラベルありサンプルまたは各ラベルなしサンプルに対する特徴量を得る。
以上に説明した原理に従って、特徴量計算部26は、各ラベルありサンプルに対する特徴量を計算し、特徴量計算部34は、各ラベルなしサンプルに対する特徴量を計算する。
<学習部20:分類器学習部28>
分類器学習部28は、特徴量計算部26より受け取った、特徴量とラベルの対(以下、ラベルあり特徴量)に基づいて分類器の学習を行う。学習がされた分類器は、ラベルが未知の特徴量の入力を受けると、当該特徴量に該当すると推定されるラベルの値(正例or負例)を出力する機能を有する。ラベル推定部36は、当該分類器(上記の機能)を有する。
<推論部30:ラベル推定部36>
ラベル推定部36は、分類器学習部28において学習した分類器を用いて、特徴量計算部34において計算した特徴量に基づいて各ラベルなしサンプルのラベルを推定する。
ここで、ラベル推定部36は以下に示すステップ1〜4の処理に基づいて各ラベルなしサンプルのラベルを推定する。
ステップ1)特徴量計算部34において求めた、長さTの2変量時系列データからなるラベルなしサンプルから得られたT-W+1個の特徴量を、各ラベルなしサンプルについて読み込む。
ステップ2)分類器学習部28において学習した分類器を用いて、各ラベルなしサンプルに対応するT-W+1個の特徴量に対して、ラベルの値(+1もしくは-1)を予測する。
ステップ3)各々のラベルなしサンプルに対して得られたT-W+1個のラベルの値(+1もしくは-1)において、+1と推定されたラベルの値の割合R+1、及び、-1と推定されたラベルの値の割合R-1を求める。なお、割合R+1は、ラベルの値が+1である確率に相当し、割合R-1は、ラベルの値が-1である確率に相当する。
ステップ4)R+1 > 0.5であればラベル+1を、R-1 > 0.5であればラベル-1を、ラベルなしサンプルに対するラベルとして出力する。
以上に示した処理に基づいてラベル推定部36が推定したラベルの値を、出力部90が出力する。
<第1の実施の形態に係る2値分類確率計算装置の構成>
図1に示した第1の実施の形態に係る2値分類装置は、出力部90の動作を変更することで、第1の実施の形態に係る2値分類確率計算装置として構成することも可能である。なお、「2値分類確率計算装置」を「分類確率計算装置」と称してもよい。出力部90以外の機能部の構成及び動作は、2値分類装置と2値分類確率計算装置とで同じとしてよい。
第1の実施の形態に係る2値分類確率計算装置では、出力部90は、ラベル推定部36が推定したラベルの値ではなく、ラベル推定部36が推定したラベルの値(+1 もしくは-1)を決定する際に用いる、+1と推定されたラベルの値の割合R+1、-1と推定されたラベルの値の割合R-1を出力する。なお、2値分類確率計算装置は、R+1とR-1に基づいてラベルの値(+1もしくは-1)を決定する処理を行った上で、出力をR+1とR-1のみとしてもよいし、R+1とR-1に基づくラベルの値(+1もしくは-1)を決定する処理を行わずに、R+1とR-1を出力してもよい。また、R+1とR-1の両方を出力してもよいし、R+1とR-1のうちの1つを出力してもよい。
(第2の実施の形態)
次に、第2の実施の形態に係る2値分類装置について説明する。第2の実施の形態に係る2値分類装置の構成は、第1の実施の形態に係る2値分類装置の構成と、訓練データ生成部22におけるラベルありサンプルの生成動作が異なる点を除いて同様である。以下、第2の実施の形態に係る訓練データ生成部22について説明する。
第2の実施の形態では、訓練データ生成部22は潜在交絡(X←C→Y)を示す2変量(X, Y) に関する時系列データを正例として、因果関係X→YまたはX←Yを示す2変量時系列データを負例として、ラベルありサンプルを生成する。負例に関しては、因果関係X→Y を示す2変量時系列データからなるラベルありサンプルと、因果関係X←Y を示す2変量時系列データからなるラベルありサンプルとを用いて、両者が同数になるように構成する。負例となるラベルありサンプルを構成する上で必要となる、因果関係X→Yを示す2変量時系列データと、因果関係X←Yを示す2変量時系列データと、の生成原理は第1の実施の形態の訓練データ生成部22における2変量時系列データの生成原理と同様である。
以下、訓練データ生成部22が、正例となるラベルありサンプルを生成する原理について説明する。第2の実施の形態において、訓練データ生成部22が生成する正例となるラベルありサンプルは、2変量間の関係が線形な関数として表される2変量時系列データと、2変量間の関係が非線形な関数として表される2変量時系列データとを含んでいる。いずれの2変量時系列データも、モデルパラメータ生成部40と、時系列データ生成部42と、において生成される。
初めに、潜在交絡X←C→Yを示す、変量間の関係が線形な関数として表される、2変量X、Yに関する時系列データをラベルありサンプルとして人工的に生成する原理について述べる。
時系列{zt}のうち、最初のP個のデータサンプル、即ち{z1,・・・,zP}については混合数K 個の混合正規分布よりサンプリングする。前記混合正規分布に関するモデルパラメータは第1の実施の形態における訓練データ生成部22の原理と同様にして与えられる。
時系列{zt}のうち、残りのT-P+1個のデータサンプル、即ち{zP+1,・・・,zT}については3変量X、Y、Cに関するベクトル自己回帰モデル(以下、VARモデル)に基づいてサンプリングする。
前記VARモデルに関するノイズ変数Et = [EXt, EYt, ECt]T (t = P +1,・・・,T)、係数行列Aτ (τ = 1,・・・,P)はモデルパラメータ生成部40において次のように設定する。
EXt, EYt, ECtはいずれも正規分布N(0, σ3 2)に従う乱数値をサンプリングすることで与えられる。係数行列Aτ (τ = 1,・・・,P)は次式のようにして与えられる。
Figure 0006629682
ここでUXX、UYY、UCCはいずれも一様分布U(0, 1)に従う乱数値をサンプリングすることで与えられる。σXXYYCCCXCYはいずれも確率0.5で値+1、確率0.5で-1をとる乱数をサンプリングすることで与えられる。
データサンプル{zP+1,・・・,zT}は、時系列データ生成部42において、モデルパラメータ生成部40において生成されたEt、Aτに基づいて、次式に示すVt = [Xt, Yt, Ct]Tに関するVARモデルより時系列{xP+1,・・・,xT}、{yP+1,・・・,yT}をサンプリングすることで得られる。
Figure 0006629682
次にモデルパラメータ生成部40と時系列データ生成部42における、潜在交絡X←C→Yを示す、2変量間の関係が非線形な関数として表される、2変量時系列データをラベルありサンプルとして人工的に生成する原理について説明する。
潜在交絡X←C→Yを示す、変量間の関係が非線形な関数として表される、2変量X、Yに関する時系列データ{xt}、{yt}は次のステップ1〜3により得られる。
ステップ1)まず、時系列データ{ct} = {c1,・・・,cT}を次のようにして得る。
(a) 最初P個のデータサンプル、即ち{c1,・・・,cP}を混合数K個の混合正規分布よりサンプリングする。前記混合正規分布に関するモデルパラメータは、第1の実施の形態におけるモデルパラメータ生成部40と、同様にして与えられるものである。
(b) 残りT-P+1個のデータサンプル、即ち{cP+1,・・・,cT}は自己回帰モデル(以下、ARモデル)
Figure 0006629682
に基づいてサンプリングする。前記ARモデルに関する係数パラメータAτ、ノイズ変数ECtは第1の実施の形態におけるモデルパラメータ生成部40と、同様にして与えられるものである。
(c) 得られた時系列データ{ct}を平均0、分散1になるように正規化する。
ステップ2)時系列データ{ct}を3次スプライン曲線で回帰し、スプライン関数値の時系列
Figure 0006629682
を得る。
ステップ3)時系列データ{xt} = {x1,・・・,xT}、{yt} = {y1,・・・,yT}を次のようにして得る。
(a) 最初P個のデータサンプル、即ち{x1,・・・,x}、{y1,・・・,y}を混合数K個の混合正規分布より同様にサンプリングする。
(b) データサンプル{xt} = {xP+1,・・・,xT}、{yt} = {yP+1,・・・,yT}を
Figure 0006629682
Figure 0006629682
よりサンプリングする。ここで、係数パラメータAτ F、Aτ X、Aτ Y (τ=1,・・・,P)は各々、一様分布U(0, 1)に従う乱数値をP個サンプリングし、得られたP個の乱数値を昇順にソートすることで与えられる。
(c) 得られた時系列データ{xt}、{yt}の各々を、平均0、分散1になるように正規化する。
(d) 各xt、各yt (t = 1,・・・, T)に対して、正規分布N(0, σ2)に従う乱数値としてサンプリングしたノイズ変数を足す。ここで、パラメータσは一様分布N(0, σ5)に従う乱数値として得る。
(e) 得られた時系列データ{xt}、{yt}を平均0、分散1になるように正規化する。
前記2変量時系列データ{xt}、{yt}において、混合正規分布のモデルパラメータ、式(11)、(12)、及び(13)における係数パラメータ、及びxt、ytに対するノイズが従う正規分布のパラメータσは、モデルパラメータ生成部40において与えられる。以上に説明した原理に従って、時系列データ生成部42は潜在交絡X←C→Yを示す、2変量間の関係が非線形な関数として表される、2変量時系列データを生成する。
以上に説明した2つの原理に従って、訓練データ生成部22は、潜在交絡X←C→Yを示す、2変量時系列データであるラベルありサンプルを人工的に生成し、生成したラベルありサンプルを訓練データDB24に格納する。
<第2の実施の形態に係る2値分類確率計算装置の構成>
第1の実施の形態と同様に、第2の実施の形態に係る2値分類装置は、出力部90の動作を変更することで、第2の実施の形態に係る2値分類確率計算装置として構成することが可能である。出力部90以外の機能部の構成及び動作は、2値分類装置と2値分類確率計算装置とで同じでよい。
第2の実施の形態に係る分類確率計算装置では、出力部90は、ラベル推定部36が推定したラベルの値ではなく、ラベル推定部36が推定したラベルの値(+1もしくは-1)を決定する際に用いる、+1と推定されたラベルの値の割合R+1、-1と推定されたラベルの値の割合R-1を、出力する。2値分類確率計算装置は、R+1とR-1に基づいてラベルの値(+1 もしくは-1)を決定する処理を行った上で、出力をR+1とR-1のみとしてもよいし、R+1とR-1に基づくラベルの値(+1 もしくは-1)を決定する処理を行わずに、R+1とR-1を出力してもよい。また、R+1とR-1の両方を出力してもよいし、R+1とR-1のうちの1つを出力してもよい。
(実験例)
人工データの集合を2つ用意し、第1の実施の形態に係る2値分類装置100を用いて、実験を行った。前記人工データの2つの集合は、いずれも非特許文献1のExp.4 と同様の方法で生成した。第1の人工データの集合は、100種類の、時系列の長さが100の2変量時系列データから構成され、第2の人工データの集合は、100種類の、時系列の長さが900 の2変量時系列データから構成される。
2変量X、Yの間の因果関係が、X→Yで表されるものを正例、X←Yで表されるものを負例とし、各集合の100種類の時系列データのうち、正例が50種類、負例が50種類になるように、人工データを生成し、ラベルの情報を与えず、ラベルなしサンプルとして用いた。
前記人工データの2つの集合に対して、第1の実施の形態に係る2値分類装置100を適用した場合の実験結果を図6に示す。図6に示す表において、方法1は、第1の実施の形態を用いて得られた、100種類のラベルなしサンプルに対して、最終的に出力されたラベルの正答率を示している。方法2及び方法3は非特許文献1の技術を用いて得られた、100種類のラベルなしサンプルに対するラベルの正答率を示しており、方法2は一般化加法モデルによる回帰を用いた非特許文献1の技術の実施結果、方法3はガウス過程による回帰を用いた非特許文献1の技術の実施結果を、非特許文献1のFig.2 に基づいて、示している。なお、方法1で用いた人工データの集合は、方法2及び方法3で用いられている人工データの集合と、同様の方法で生成されているものの、異なるデータ集合を用いている。
第1の実施の形態の実施結果を得るために用いた、パラメータの設定方法について説明する。ラベルありサンプルの生成に用いるパラメータに関しては、変量間の関係が線形の2変量時系列データと、変量間の関係が非線形の2変量時系列データとを、各々5000種類、合計10000種類を用意し、各時系列データの時系列の長さが15になるようにした。
ラベルあり特徴量の生成に用いるパラメータに関しては、式(6)におけるガウスカーネルのパラメータσを、パラメータ値の候補集合{1.5×10-3, 2.5×10-3,・・・, 9.5×10-3}より、各々の値を用いて得られるラベルあり特徴量に対して、交差検証法を適用することで、最適な値を選択した。KKF-CEOで用いるパラメータ(非特許文献4参照) に関しては、ν = 2.0×10-3、q = r = 0.5、λ= 1.0×10-3と設定した。RFFで用いるパラメータに関しては、nrff = 150と設定した。
分類器学習部28で学習する分類器としては、ランダムフォレストを用いて、ランダムフォレストの木の数を表すパラメータは、候補集合{100, 500, 1000, 2000}の中から、ラベルあり特徴量に対して、交差検証法を適用することで、最適な値を選択した。特徴量計算部34において用いる、ラベルなしサンプルの部分時系列の長さを表すパラメータWに関しては、W = 15と設定した。
初期化部38で初期化する、2変量間の関係が線形な時系列データ及び2変量間の関係が非線形な時系列データを生成するのに用いるパラメータθ = {K, σ1, σ2, σ3, σ4, σ5, d, P}に関しては以下に説明する原理で初期化を行った。
パラメータの候補集合を各パラメータに関して、K, d ∈ {1,・・・,5},σ1, σ2, σ3, σ4, σ5∈ {0.5,・・・,2.5}, P∈{2,・・・,6}となるように設定し、候補集合の全組合せに関してそれぞれ、ラベルありサンプルの2変量時系列データの集合z^j (1≦j≦10000)を人工的に生成した。このようにパラメータの候補に関してそれぞれ生成されたz^jと、ラベルなしサンプル{zi} (i = 1,・・・)とを用いて定義される、サンプルの特徴量がなすユークリッド距離
Figure 0006629682
を最小とするようなパラメータθを初期値として与えた。ただし、ラベルなしサンプルに関しては、2変量時系列の初めの15個のデータ点のみを用いて、ziとして、式(14)において用いた。
図6は、以上に説明した種々のパラメータの設定方法に基づいて得られた、第1の実施の形態の実施結果を含んでいる。図6において、方法2及び方法3は、回帰モデルを事前に設定しているため、時系列の長さによって、回帰モデルの当てはまりに違いが出てくることから、時系列100の場合と時系列900の場合とで、ラベルの正答率に大きく違いが出ているが、方法1は時系列の長さに関わらず、方法2及び方法3に比べて、高いラベル正答率が得られていることがわかり、因果関係の推定精度の点で優位性を示していることがわかる。
(実施の形態のまとめ)
以上、説明したように、本発明の実施の形態では、2変量X、Yに関する時系列の因果関係の学習装置が2通りに構成される。
第一の学習装置は、因果関係がX→Y (即ち変量Xが変量Yの原因である) として表される正例の時系列データであるか、因果関係がX←Y(即ち変量Yが変量Xの原因である)で表される負例の時系列データであるかが与えられたラベルありサンプルからなる訓練データを用いて2値分類器を学習する装置である。
第二の学習装置は、因果関係がX←Z→Y(即ち隠れた変量Zによって変量X、Yの間に相関関係がある(潜在交絡)として表される正例の時系列データであるか因果関係がX→YもしくはX←Y で表される負例の時系列データであるかが与えられたラベルありサンプルからなる訓練データを用いて2値分類器を学習する装置である。
いずれの学習装置も、線形モデル・非線形モデルを定義するモデルパラメータ生成部と、前記モデルパラメータ生成部によって与えられるモデルに基づいて時系列データを生成する時系列データ生成部とを用いて、ラベルありサンプルを生成する訓練データ生成部と、各ラベルありサンプルについてその特徴量を計算する特徴量計算部と、前記ラベルありサンプルの特徴量に基づいて2値分類器の学習を行う分類器学習部と、を含んで構成される。
また、本実施の形態により、特定の因果関係の種別に関連する正例の時系列データであるか前記特定の種別とは異なる因果関係の特定の種別に関連する負例の時系列データであるかが与えられたラベルありサンプルからなる訓練データに基づいて、前記正例の時系列データか負例の時系列データであるかが未知のラベルなしサンプルの各々について正例の時系列データであるか負例の時系列データであるかを示すラベルを出力するために使用される分類器を学習する、コンピュータにより実行される学習方法が提供される。
より詳細には、前記学習方法において、前記コンピュータは、特定の因果関係の種別に関連する線形時系列・非線形時系列からなる訓練データを生成し、各ラベルありサンプルについてその特徴量を計算し、前記ラベルありサンプルの特徴量に基づいて2値分類器の学習を行う。
また、本実施の形態において、上記の学習装置によって生成された訓練データに基づいて学習された分類器を使用して、入力されたテストデータのラベルを推定するラベル推定部を含む分類装置が提供される。
また、本実施の形態において、上記の分類装置が、入力されたテストデータに対するラベルを出力する際に計算する、前記テストデータに対するラベルの推定確率を出力する分類確率計算装置が提供される。
また、本実施の形態において、上記の学習方法によって生成された訓練データに基づいて学習された分類器を用いて、入力されたテストデータのラベルを推定する分類方法が提供される。
本実施の形態により、コンピュータを、上記の学習装置、分類装置、または、分類確率計算装置を構成する各部として機能させるためのプログラムが提供される。
以上、本実施の形態について説明したが、本発明はかかる特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
10 入力部
20 学習部
22 訓練データ生成部
24 訓練データDB
26 特徴量計算部
28 分類器学習部
30 推論部
32 テストデータDB
34 特徴量計算部
36 ラベル推定部
38 初期化部
40 モデルパラメータ生成部
42 時系列データ生成部
90 出力部
100 2値分類装置

Claims (8)

  1. 所定のモデルに基づいて、ラベルあり2変量時系列データの集合である訓練データを生成し、当該訓練データを記憶部に格納する訓練データ生成部と、
    前記記憶部から読み出した前記訓練データの特徴量を計算する特徴量計算部と、
    前記特徴量計算部により計算された前記特徴量に基づいて、分類器の学習を行う分類器学習部と
    を備えることを特徴とする学習装置。
  2. 所定のモデルに基づいて、ラベルあり2変量時系列データの集合である訓練データを生成し、当該訓練データを記憶部に格納する訓練データ生成部と、
    前記記憶部から読み出した前記訓練データの特徴量を計算する特徴量計算部と、
    前記特徴量計算部により計算された前記特徴量に基づいて、分類器の学習を行う分類器学習部と、
    ラベルなし2変量時系列データを入力する入力部と、
    前記分類器学習部により学習がなされた分類器を用いて、前記ラベルなし2変量時系列データのラベルの値を推定する分類部と
    を備えることを特徴とする分類装置。
  3. 所定のモデルに基づいて、ラベルあり2変量時系列データの集合である訓練データを生成し、当該訓練データを記憶部に格納する訓練データ生成部と、
    前記記憶部から読み出した前記訓練データの特徴量を計算する特徴量計算部と、
    前記特徴量計算部により計算された前記特徴量に基づいて、分類器の学習を行う分類器学習部と、
    ラベルなし2変量時系列データを入力する入力部と、
    前記分類器学習部により学習がなされた分類器を用いて、前記ラベルなし2変量時系列データのラベルの値が特定の値である確率を算出する分類部と
    を備えることを特徴とする分類確率計算装置。
  4. 変量間の因果関係が判明していないラベルなし2変量時系列データを入力する入力部と、
    ラベルあり2変量時系列データの集合である訓練データを用いて学習された分類器を用いて、前記ラベルなし2変量時系列データのラベルの値を推定し、当該ラベルの値を出力する分類部と
    を備えることを特徴とする分類装置。
  5. 変量間の因果関係が判明していないラベルなし2変量時系列データを入力する入力部と、
    ラベルあり2変量時系列データの集合である訓練データを用いて学習された分類器を用いて、前記ラベルなし2変量時系列データのラベルの値が特定の値である確率を算出し、当該確率を出力する分類部と
    を備えることを特徴とする分類確率計算装置。
  6. 前記特徴量計算部は、KKF-CEOにより変量を計算し、当該変量を用いて予測分布に対するカーネル平均の推定値を計算する
    ことを特徴とする請求項1に記載の学習装置、請求項2に記載の分類装置、または、請求項3に記載の分類確率計算装置。
  7. 前記訓練データ生成部は、2変量間の関係が線形な関数として表される2変量時系列データと、2変量間の関係が非線形な関数として表される2変量時系列データとを含む、ラベルあり2変量時系列データの集合を生成する
    ことを特徴とする請求項1に記載の学習装置、請求項2に記載の分類装置、または、請求項3に記載の分類確率計算装置。
  8. コンピュータを、請求項1ないし7のうちいずれか1項に記載の装置における各部として機能させるためのプログラム。
JP2016126052A 2016-06-24 2016-06-24 学習装置、分類装置、分類確率計算装置、及びプログラム Active JP6629682B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016126052A JP6629682B2 (ja) 2016-06-24 2016-06-24 学習装置、分類装置、分類確率計算装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016126052A JP6629682B2 (ja) 2016-06-24 2016-06-24 学習装置、分類装置、分類確率計算装置、及びプログラム

Publications (2)

Publication Number Publication Date
JP2017228256A JP2017228256A (ja) 2017-12-28
JP6629682B2 true JP6629682B2 (ja) 2020-01-15

Family

ID=60891846

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016126052A Active JP6629682B2 (ja) 2016-06-24 2016-06-24 学習装置、分類装置、分類確率計算装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP6629682B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7253324B2 (ja) * 2018-04-03 2023-04-06 日本電信電話株式会社 因果関係学習装置、因果関係推定装置、因果関係学習方法、因果関係推定方法及びプログラム

Also Published As

Publication number Publication date
JP2017228256A (ja) 2017-12-28

Similar Documents

Publication Publication Date Title
Cerqueira et al. Evaluating time series forecasting models: An empirical study on performance estimation methods
Gordaliza et al. Obtaining fairness using optimal transport theory
Kotlowski et al. On nonparametric ordinal classification with monotonicity constraints
CN111127364B (zh) 图像数据增强策略选择方法及人脸识别图像数据增强方法
Huang et al. Forecasting container throughput of Qingdao port with a hybrid model
JP7253324B2 (ja) 因果関係学習装置、因果関係推定装置、因果関係学習方法、因果関係推定方法及びプログラム
Butler et al. Financial forecasting using character n-gram analysis and readability scores of annual reports
Cerqueira et al. Vest: Automatic feature engineering for forecasting
Kaur et al. An empirical study of software entropy based bug prediction using machine learning
US20240256871A1 (en) Finite rank deep kernel learning with linear computational complexity
US20230306505A1 (en) Extending finite rank deep kernel learning to forecasting over long time horizons
US20220284332A1 (en) Anomaly detection apparatus, anomaly detection method and program
CN117223016A (zh) 行业特定的机器学习应用
Nagel et al. Bayesian multilevel model calibration for inverse problems under uncertainty with perfect data
JP2023544011A (ja) 自動特徴量エンジニアリングを運用するシステムおよび方法
Kumar et al. Pqklp: projected quantum kernel based link prediction in dynamic networks
JP6629682B2 (ja) 学習装置、分類装置、分類確率計算装置、及びプログラム
US20230419195A1 (en) System and Method for Hierarchical Factor-based Forecasting
Custódio et al. Success prediction of leads–A machine learning approach
US20220207368A1 (en) Embedding Normalization Method and Electronic Device Using Same
Abdulrahman et al. An Overview of the Algorithm Selection Problem
Billio et al. Bayesian inference in dynamic models with latent factors
CN113282705B (zh) 一种能够自动更新的案件预判智能体训练方法及系统
Eti et al. A research on the comparison of classification algorithm in finance
Kapllani et al. Uncertainty quantification for deep learning-based schemes for solving high-dimensional backward stochastic differential equations

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180903

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190815

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190827

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190927

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191205

R150 Certificate of patent or registration of utility model

Ref document number: 6629682

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150