JP2019113962A - 解析装置、解析方法及びプログラム - Google Patents
解析装置、解析方法及びプログラム Download PDFInfo
- Publication number
- JP2019113962A JP2019113962A JP2017245513A JP2017245513A JP2019113962A JP 2019113962 A JP2019113962 A JP 2019113962A JP 2017245513 A JP2017245513 A JP 2017245513A JP 2017245513 A JP2017245513 A JP 2017245513A JP 2019113962 A JP2019113962 A JP 2019113962A
- Authority
- JP
- Japan
- Prior art keywords
- parameter
- autoregressive model
- data
- directed
- factor matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Complex Calculations (AREA)
Abstract
【課題】時間相関と空間相関とを考慮したテンソル分解によりデータの内挿及び外挿を高い精度で行うこと。【解決手段】空間的な位置を表す第1のモードと時間を表す第2のモードとが少なくとも含まれるテンソル形式のデータXと、該データXの観測値及び欠損値を示す集合Ωと、因子行列Uとを入力する入力手段と、空間自己回帰モデルを拡張した有向自己回帰モデルを表す第1の正則化関数と、自己回帰モデルを表す第2の正則化関数とが含まれる損失関数を最小化するように、前記因子行列Uと、前記有向自己回帰モデルの第1のパラメータと、前記自己回帰モデルの第2のパラメータとを更新する更新手段と、前記更新手段により更新された前記因子行列Uと、前記第1のパラメータと、前記第2のパラメータとにより前記集合Ωの観測値及び欠損値を内挿及び外挿する内外挿手段と、を有することを特徴とする。【選択図】図1
Description
本発明は、解析装置、解析方法及びプログラムに関する。
テンソル分解は、観測データの低ランク構造を用いて、ノイズの除去や欠損値の復元等を行う技術である(例えば、特許文献1及び2、非特許文献1)。近年では、テンソル分解を時空間データの解析に用いる研究が行われており、人の移動データや気象データ等における時空間内挿問題(すなわち、データの存在する範囲・時間の内部でデータが存在しない位置・時刻での観測値を推定する問題)及び時空間外挿問題(すなわち、データの存在する範囲・時間の外部でのデータの観測値を予測する問題)で良好な性能を示すテンソル分解が提案されている(例えば、非特許文献2乃至4)。
非特許文献3では、過去の観測データから将来の予測を行う自己回帰モデルを正則化としてテンソル分解に導入し、低ランク構造に含まれるデータの時間的な相関構造を抽出することで、時間内挿問題及び時間外挿問題において既存の技術よりも高い精度が達成されたと開示されている。
T. G. Kolda and B. W. Bader. Tensor decompositions and applications. SIAM Review, 51(3):455-500, 2009.
M. T. Bahadori, Q. R. Yu, and Y. Liu, "Fast multivariate spatio- temporal analysis via low rank tensor learning," in Advances in Neural Information Processing Systems, 2014, pp. 3491-3499.
H.-F. Yu, N. Rao, and I. S. Dhillon, "Temporal regularized matrix factorization for high-dimensional time series prediction," in Advances in Neural Information Processing Systems, 2016, pp. 847-855.
N. Rao, H.-F. Yu, P. K. Ravikumar, and I. S. Dhillon, "Collaborative filtering with graph information: Consistency and scalable methods," in Advances in Neural Information Processing Systems, 2015, pp. 2107- 2115.
S. R. Dubois and F. H. Glanz, "An autoregressive model approach to two-dimensional shape classification," IEEE Transactions on Pattern Analysis and Machine Intelligence, no. 1, pp. 55-66, 1986.
L. Anselin and A. K. Bera, "Spatial dependence in linear regression models with an introduction to spatial econometrics," Statistics Text- books and Monographs, vol. 155, pp. 237-290, 1998.
Y. Xu and W. Yin. A block coordinate descent method for regularized multiconvex optimization with applications to nonnegative tensor factorization and completion. SIAM Journal on Imaging Sciences, 6(3):1758-1789, 2013.
E.V.Bonilla,K.M.Chai,andC.Williams, "Multi-task Gaussian process prediction," in Advances in Neural Information Processing Systems, 2008, pp. 153-160.
しかしながら、従来のテンソル分解では、空間的な相関構造(すなわち、空間自己相関)を考慮しておらず、時間的な相関構造のみを利用するに留まっている。このため、時間相関と空間相関との両方を考慮したテンソル分解を行うことができなかった。
これに対して、非特許文献5及び6で提案されている空間自己回帰モデルを拡張した正則化をテンソル分解に導入することで、時間相関と空間相関との両方を考慮したテンソル分解を行うことができると考えられる。
本発明の実施の形態は、上記の点に鑑みてなされたもので、時間相関と空間相関とを考慮したテンソル分解によりデータの内挿及び外挿を高い精度で行うことを目的とする。
そこで、本発明の実施の形態では、空間的な位置を表す第1のモードと時間を表す第2のモードとが少なくとも含まれるテンソル形式のデータXと、該データXの観測値及び欠損値を示す集合Ωと、因子行列Uとを入力する入力手段と、空間自己回帰モデルを拡張した有向自己回帰モデルを表す第1の正則化関数と、自己回帰モデルを表す第2の正則化関数とが含まれる損失関数を最小化するように、前記因子行列Uと、前記有向自己回帰モデルの第1のパラメータと、前記自己回帰モデルの第2のパラメータとを更新する更新手段と、前記更新手段により更新された前記因子行列Uと、前記第1のパラメータと、前記第2のパラメータとにより前記集合Ωの観測値及び欠損値を内挿及び外挿する内外挿手段と、を有することを特徴とする。
時間相関と空間相関とを考慮したテンソル分解によりデータの内挿及び外挿を高い精度で行うことができる。
以下、本発明の実施の形態について、図面を参照しながら説明する。
<テンソル分解>
まず、本発明の実施の形態におけるテンソル分解について説明する。テンソル分解では、入力されたN階のテンソルXと、因子行列の初期値U(n)(n=1,・・・,N)とを用いて、所定の損失関数Lを最小化するためにU(n)(n=1,・・・,N)を繰り返し更新する。
まず、本発明の実施の形態におけるテンソル分解について説明する。テンソル分解では、入力されたN階のテンソルXと、因子行列の初期値U(n)(n=1,・・・,N)とを用いて、所定の損失関数Lを最小化するためにU(n)(n=1,・・・,N)を繰り返し更新する。
ここで、本発明の実施の形態では、1番目のモードがP個の観測位置、2番目のモードがT個の観測時刻、3番目のモードが任意のM個の次元から構成される3階のテンソル
テンソルXのnモードアンフォールド行列(すなわち、n番目のモード方向にテンソルXをアンフォールドして行列化したもの)をX(n)とする。また、テンソルXの観測及び欠損を示す集合Ωを、
テンソル分解のモデルには、観測値を複数の因子の線形和によって近似するCP分解(canonical polyadic decomposition)を用いる。本発明の実施の形態では、因子数をK個とし、損失関数L(U(1),U(2),U(3))を観測された要素毎の近似誤差の線形和、すなわち、
以上により、テンソル分解は、損失関数Lを最小化する因子行列の集合U*={U(1)*,U(2)*,U(3)*}を求める問題として定められる。
本発明の実施の形態では、観測位置を示す1番目のモードに対して、非特許文献5及び6で提案されている空間自己回帰モデルを拡張した自己回帰モデル(これを「有向自己回帰モデル」と称することとする。)を以下の数4のように定義し、U(1)の正則化関数g1として用いる。
また、上記の数4に代えて、U(1)の正則化関数g1として、以下の数7の空間自己回帰モデルを用いることもできる。
また、時間に対応するモード(すなわち、観測時刻を示す2番目のモード)に対しては、非特許文献3で提案されている自己回帰モデルを用いる。すなわち、U(2)の正則化関数g2として、自己回帰モデルを用いる。
また、n(n≧3)番目のモードに対しては、任意の関数によって正則化を行う。
更に、本発明の実施の形態では、各モードに対する追加の正則化関数として、例えば非特許文献7に開示されている非負制約関数
以上より、本発明の実施の形態では、テンソル分解のパラメータU*={U(1)*,U(2)*,U(3)*}と、有向自己回帰モデルのパラメータb*(又は空間自己回帰モデルのパラメータρ*)と、自己回帰モデルのパラメータとを求める問題を解く。これにより、本発明の実施の形態では、テンソル分解のパラメータと、有向自己回帰モデル又は空間自己回帰モデルのパラメータと、自己回帰モデルのパラメータとを同時に得ることができる。そして、得られたパラメータを用いることで、データの時空間内挿及び外挿を高い精度で行うことができるようになる。
<解析装置10の機能構成>
次に、テンソル分解のパラメータと、有向自己回帰モデル又は空間自己回帰モデルのパラメータと、自己回帰モデルのパラメータとを得ることでデータの時空間内挿及び外挿を行う解析装置10の機能構成について、図1を参照しながら説明する。図1は、本発明の実施の形態における解析装置10の機能構成の一例を示す図である。
次に、テンソル分解のパラメータと、有向自己回帰モデル又は空間自己回帰モデルのパラメータと、自己回帰モデルのパラメータとを得ることでデータの時空間内挿及び外挿を行う解析装置10の機能構成について、図1を参照しながら説明する。図1は、本発明の実施の形態における解析装置10の機能構成の一例を示す図である。
図1に示すように、本発明の実施の形態における解析装置10は、データ入力部101と、繰り返し制御部102と、パラメータ更新部103と、時空間内外挿計算部104と、データ出力部105とを有する。これら各機能部は、解析装置10にインストールされた1以上のプログラムがCPU(Central Processing Unit)に実行させる処理により実現される。
データ入力部101は、テンソル形式のデータXと、集合Ωと、行列形式のデータW(n)(n=1,・・・,N)とを入力する。ここで、W(n)は長さIn×Inの行列であり、W(n)の要素の値は非負(0以上)であり、各行の非零要素の総和が1となるもの、すなわち、
また、データ入力部101は、テンソル分解のパラメータの初期値として、因子行列の集合U={U(1),・・・,U(N)}を入力する。更に、データ入力部101は、パラメータ更新部103によるパラメータ更新を終了する回数T(以降、「終了回数T」とも表す。)を入力する。なお、Tは、例えば、ユーザ等により指定されても良い。
繰り返し制御部102は、パラメータ更新部103によるパラメータ更新の繰り返しを制御する。すなわち、繰り返し制御部102は、パラメータ更新の繰り返し回数tが終了回数Tに達するまで、パラメータ更新部103にパラメータ更新を繰り返し実行させる。
パラメータ更新部103は、因子行列の集合U={U(1),・・・,U(N)}の更新をT回行う。ここで、パラメータ更新部103は、n=1,・・・,Nまで同様の処理を順番に行う処理をT回行う。これらの処理は、数3に示す損失関数Lと等価な以下の数10に示す関数の最小化と対応する。
(1)有向自己回帰モデルのパラメータbk
有向自己回帰モデルのパラメータbkに対する損失は、
有向自己回帰モデルのパラメータbkに対する損失は、
(2)空間自己回帰モデルのパラメータρk
有向自己回帰モデルの代わりに空間自己回帰モデルを用いた場合、空間自己回帰モデルのパラメータρkに対する損失は、
有向自己回帰モデルの代わりに空間自己回帰モデルを用いた場合、空間自己回帰モデルのパラメータρkに対する損失は、
(3)自己回帰モデルのパラメータ
自己回帰モデルのパラメータの更新は、例えば非特許文献3に開示されている手法を用いれば良い。
自己回帰モデルのパラメータの更新は、例えば非特許文献3に開示されている手法を用いれば良い。
(4)因子行列の集合U
因子行列に対する損失は、非特許文献4に開示されている関数と一致するため、非特許文献4に開示されている手法に基づき更新を行う。非負制約関数を用いている場合は、最後に、因子行列U(n)で負の値となった要素の値を零に変更する処理を行えば良い。
因子行列に対する損失は、非特許文献4に開示されている関数と一致するため、非特許文献4に開示されている手法に基づき更新を行う。非負制約関数を用いている場合は、最後に、因子行列U(n)で負の値となった要素の値を零に変更する処理を行えば良い。
時空間内外挿計算部104は、テンソル分解のパラメータU*={U(1)*,・・・,U(N)*}と、有向自己回帰モデルのパラメータb*(又は空間自己回帰モデルのパラメータρ*)と、自己回帰モデルのパラメータとを用いて、データの時空間内挿及び外挿を行う。すなわち、時空間内外挿計算部104は、テンソル分解のパラメータU(1)*と有向自己回帰モデルのパラメータb*(又は空間自己回帰モデルのパラメータρ*)との要素積によって空間内挿を行った後、テンソル分解のパラメータU(2)*と自己回帰モデルとによって時間外挿を行う。
データ出力部105は、時空間内外挿計算部104による内外挿結果を出力する。なお、データ出力部105は、パラメータ更新部103によって最終的に得られた因子行列の集合U={U(1),・・・,U(N)}や有向自己回帰モデルのパラメータb*(又は空間自己回帰モデルのパラメータρ*)、自己回帰モデルのパラメータ等も出力しても良い。
データ出力部105の出力先は、限定されない。出力先としては、例えば、ディスプレイ等の表示装置、記録媒体や補助記憶装置、ネットワークを介して接続される他の装置等が挙げられる。
<解析装置10が実行する処理>
次に、本発明の実施の形態における解析装置10が実行する処理について、図2を参照しながら説明する。図2は、本発明の実施の形態における解析装置10が実行する処理の一例を示すフローチャートである。
次に、本発明の実施の形態における解析装置10が実行する処理について、図2を参照しながら説明する。図2は、本発明の実施の形態における解析装置10が実行する処理の一例を示すフローチャートである。
データ入力部101は、テンソル形式のデータXと、集合Ωと、行列形式のデータW(n)(n=1,・・・,N)と、テンソル分解のパラメータの初期値U={U(1),・・・,U(N)}と、終了回数Tとを入力する(ステップS1)。
次に、繰り返し制御部102は、パラメータ更新部103によるパラメータ更新の繰り返し回数tを1に初期化する(ステップS2)。
次に、パラメータ更新部103は、上記の数10を最小化させるように、テンソル分解のパラメータである因子行列の集合U={U(1),・・・,U(N)}を更新する(ステップS3)。なお、テンソル分解のパラメータUの更新手法、有向自己回帰モデルのパラメータbk(又は空間自己回帰モデルのパラメータρk)の更新手法、自己回帰モデルのパラメータの更新手法は上述した通りである。これにより、テンソル分解のパラメータU={U(1),・・・,U(N)}と、有向自己回帰モデルのパラメータbk(又は空間自己回帰モデルのパラメータρk)と、自己回帰モデルのパラメータとが更新される。
繰り返し制御部102は、繰り返し回数tが終了回数Tに達したか否かを判定する(ステップS4)。
繰り返し回数tが終了回数Tに達していないと判定された場合、繰り返し制御部102は、繰り返し回数tに1を加算する(ステップS5)。そして、ステップS3の処理に戻る。これにより、ステップS3のパラメータ更新が繰り返しT回実行される。
繰り返し回数tが終了回数Tに達していると判定された場合、時空間内外挿計算部104は、パラメータ更新部103によって最終的に得られたテンソル分解のパラメータU*と、有向自己回帰モデルのパラメータb*(又は空間自己回帰モデルのパラメータρ*)と、自己回帰モデルのパラメータとを用いて、データの時空間内挿及び外挿を行う(ステップS6)。
次に。データ出力部105は、時空間内外挿計算部104による内外挿結果を出力する(ステップS7)。
以上のように、本発明の実施の形態における解析装置10は、テンソル分解のパラメータと、有向自己回帰モデル又は空間自己回帰モデルのパラメータと、自己回帰モデルのパラメータとを同時に推定し、推定したパラメータを用いてデータの時空間内挿及び外挿を高い精度を行うことができる。なお、本発明の実施の形態における解析装置10によるデータの時空間内挿及び外挿は、例えば、機械学習やデータマイニング等の解析分野にも同様に適用することができる。
<本発明の効果>
次に、本発明の効果を説明する。アメリカのニューヨーク市で計測されたタクシーの降車データの内挿及び外挿実験の結果を用いて、本発明の効果を説明する。ニューヨーク市内を500メートル四方の640個の碁盤目状に区切り、それぞれのマスで30分毎に降車を行ったタクシーの台数を観測データとした。
次に、本発明の効果を説明する。アメリカのニューヨーク市で計測されたタクシーの降車データの内挿及び外挿実験の結果を用いて、本発明の効果を説明する。ニューヨーク市内を500メートル四方の640個の碁盤目状に区切り、それぞれのマスで30分毎に降車を行ったタクシーの台数を観測データとした。
観測データのうちの或る2週間分のデータを実験で用いた。2週間の後半の7日から或る1日を選びテスト時刻とし、その日から1週間前までの時刻を訓練時刻とする。また、ランダムに欠損させた10%の箇所をテスト位置、残りを訓練位置とする。したがって、観測位置(640個所)、時刻(30分毎の7+1日分)をモードに持つ2階のテンソルXを作成した。
5回のランダムな試行を行った。因子の数は5、10、20とし、5-fold cross validationによって決定した。Normalized Deviation(ND)によって、予測値・予測時刻(Pred. unknown)、予測位置・訓練時刻(Interpolation)、訓練位置・予測時刻(Pred. known)の予測誤差を評価する。5回の試行のうち平均値と標準偏差を得た。
この評価結果を図3に示す。有向自己回帰モデルを用いたテンソル分解(DAR)と、非負制約付き有向自己回帰モデルを用いたテンソル分解(DAR+NN)と、空間自己回帰モデルを用いたテンソル分解(SAR)と、非負制約付き空間自己回帰モデルを用いたテンソル分解(SAR+NN)とが本発明の手法である。従来手法には、非特許文献4に開示されているTRMFと、非特許文献2に開示されているFASTと、非特許文献8に開示されているGPとを採用した。
図3に示すように、本発明では、従来手法と比べて高い精度が得られていることがわかる。また、特に、非負制約付き有向自己回帰モデルを用いたテンソル分解(DAR+NN)で最良の予測結果が得られていることがわかる。
また、真値と、非負制約付き有向自己回帰モデルを用いたテンソル分解(DAR+NN)による予測値とを可視化したグラフを図4(a)〜(d)に示す。図4(a)〜(d)に示すように、本発明の手法であるDAR+NNでは、真値に近い予測値が得られていることがわかる。
<解析装置10のハードウェア構成>
最後に、本発明の実施の形態における解析装置10のハードウェア構成について、図5を参照しながら説明する。図5は、本発明の実施の形態における解析装置10のハードウェア構成の一例を示す図である。
最後に、本発明の実施の形態における解析装置10のハードウェア構成について、図5を参照しながら説明する。図5は、本発明の実施の形態における解析装置10のハードウェア構成の一例を示す図である。
図5に示すように、本発明の実施の形態における解析装置10は、入力装置201と、表示装置202と、外部I/F203と、RAM(Random Access Memory)204と、ROM(Read Only Memory)205と、CPU206と、通信I/F207と、補助記憶装置208とを有する。これら各ハードウェアは、それぞれがバス209を介して通信可能に接続されている。
入力装置201は、例えばキーボードやマウス、タッチパネル等であり、ユーザが各種操作を入力するのに用いられる。表示装置202は、例えばディスプレイ等であり、解析装置10の処理結果を表示する。なお、解析装置10は、入力装置201及び表示装置202の少なくとも一方を有していなくても良い。
外部I/F203は、外部装置とのインタフェースである。外部装置には、記録媒体203a等がある。解析装置10は、外部I/F203を介して、記録媒体203a等の読み取りや書き込みを行うことができる。記録媒体203aには、例えば、本発明の実施の形態における解析装置10が有する各機能部を実現するためのプログラムが格納されていても良い。
記録媒体203aには、例えば、フレキシブルディスク、CD(Compact Disc)、DVD(Digital Versatile Disk)、SDメモリカード(Secure Digital memory card)、USB(Universal Serial Bus)メモリカード等がある。
RAM204は、プログラムやデータを一時保持する揮発性の半導体メモリである。ROM205は、電源を切ってもプログラムやデータを保持することができる不揮発性の半導体メモリである。ROM205には、例えば、OS(Operating System)設定やネットワーク設定等が格納されている。
CPU206は、ROM205や補助記憶装置208等からプログラムやデータをRAM204上に読み出して処理を実行する演算装置である。
通信I/F207は、解析装置10を通信ネットワークに接続するためのインタフェースである。本発明の実施の形態における解析装置10が有する各機能部を実現するためのプログラムは、例えば、通信I/F207を介して、所定のサーバ等から取得(ダウンロード)されても良い。また、本発明の実施の形態における解析装置10は、例えば、通信I/F207を介して、これら各機能部を実現するためのプログラムを他の装置に提供しても良い。
補助記憶装置208は、例えばHDD(Hard Disk Drive)やSSD(Solid State Drive)等であり、プログラムやデータを格納している不揮発性の記憶装置である。補助記憶装置208に格納されているプログラムやデータには、例えば、OS、当該OS上において各種機能を実現するアプリケーションプログラム、本発明の実施の形態における解析装置10が有する各機能部を実現するためのプログラム等がある。
なお、図5に示す例では、解析装置10が1台の情報処理装置(コンピュータ)で構成されている場合のハードウェア構成を示したが、これに限られず、解析装置10は複数台の情報処理装置で構成されていても良い。
本発明は、具体的に開示された上記の実施形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。
10 解析装置
101 データ入力部
102 繰り返し制御部
103 パラメータ更新部
104 時空間内外挿計算部
105 データ出力部
201 入力装置
202 表示装置
203 外部I/F
203a 記録媒体
204 RAM
205 ROM
206 CPU
207 通信I/F
208 補助記憶装置
209 バス
101 データ入力部
102 繰り返し制御部
103 パラメータ更新部
104 時空間内外挿計算部
105 データ出力部
201 入力装置
202 表示装置
203 外部I/F
203a 記録媒体
204 RAM
205 ROM
206 CPU
207 通信I/F
208 補助記憶装置
209 バス
Claims (5)
- 空間的な位置を表す第1のモードと時間を表す第2のモードとが少なくとも含まれるテンソル形式のデータXと、該データXの観測値及び欠損値を示す集合Ωと、因子行列Uとを入力する入力手段と、
空間自己回帰モデルを拡張した有向自己回帰モデルを表す第1の正則化関数と、自己回帰モデルを表す第2の正則化関数とが含まれる損失関数を最小化するように、前記因子行列Uと、前記有向自己回帰モデルの第1のパラメータと、前記自己回帰モデルの第2のパラメータとを更新する更新手段と、
前記更新手段により更新された前記因子行列Uと、前記第1のパラメータと、前記第2のパラメータとにより前記集合Ωの観測値及び欠損値を内挿及び外挿する内外挿手段と、
を有することを特徴とする解析装置。 - 前記第1の正則化関数は、前記有向自己回帰モデル又は前記空間自己回帰モデルのいずれかを表し、
前記更新手段は、
前記第1の正則化関数と前記第2の正則化関数とが含まれる損失関数を最小化するように、前記因子行列Uと、前記有向自己回帰モデル又は前記空間自己回帰モデルの第1のパラメータと、前記第2のパラメータとを更新する、ことを特徴とする請求項1に記載の解析装置。 - 前記内外挿手段は、
前記因子行列Uと前記第1のパラメータとによって前記第1のモードにおける前記集合Ωの欠損値を内挿した後、前記因子行列Uと前記第2のパラメータとによって前記第2のモードにおける前記集合Ωの観測値を外挿する、ことを特徴とする請求項1又は2に記載の解析装置。 - 空間的な位置を表す第1のモードと時間を表す第2のモードとが少なくとも含まれるテンソル形式のデータXと、該データXの観測値及び欠損値を示す集合Ωと、因子行列Uとを入力する入力手順と、
空間自己回帰モデルを拡張した有向自己回帰モデルを表す第1の正則化関数と、自己回帰モデルを表す第2の正則化関数とが含まれる損失関数を最小化するように、前記因子行列Uと、前記有向自己回帰モデルの第1のパラメータと、前記自己回帰モデルの第2のパラメータとを更新する更新手順と、
前記更新手順により更新された前記因子行列Uと、前記第1のパラメータと、前記第2のパラメータとにより前記集合Ωの観測値及び欠損値を内挿及び外挿する内外挿手順と、
をコンピュータが実行することを特徴とする解析方法。 - コンピュータを、請求項1乃至3の何れか一項に記載の解析装置における各手段として機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017245513A JP2019113962A (ja) | 2017-12-21 | 2017-12-21 | 解析装置、解析方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017245513A JP2019113962A (ja) | 2017-12-21 | 2017-12-21 | 解析装置、解析方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019113962A true JP2019113962A (ja) | 2019-07-11 |
Family
ID=67222612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017245513A Pending JP2019113962A (ja) | 2017-12-21 | 2017-12-21 | 解析装置、解析方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019113962A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112801142A (zh) * | 2021-01-08 | 2021-05-14 | 北京工业大学 | 一类基于张量自回归滑动平均模型的视频分类方法 |
CN112801142B (zh) * | 2021-01-08 | 2024-05-28 | 北京工业大学 | 一种基于张量自回归滑动平均模型的视频分类方法 |
-
2017
- 2017-12-21 JP JP2017245513A patent/JP2019113962A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112801142A (zh) * | 2021-01-08 | 2021-05-14 | 北京工业大学 | 一类基于张量自回归滑动平均模型的视频分类方法 |
CN112801142B (zh) * | 2021-01-08 | 2024-05-28 | 北京工业大学 | 一种基于张量自回归滑动平均模型的视频分类方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Torre et al. | A general framework for data-driven uncertainty quantification under complex input dependencies using vine copulas | |
Holmes et al. | Fast nonparametric conditional density estimation | |
WO2017027185A1 (en) | Efficient online methods for quantum bayesian inference | |
WO2018039011A1 (en) | Asychronous training of machine learning model | |
Wiebe et al. | Quantum bootstrapping via compressed quantum Hamiltonian learning | |
WO2021054402A1 (ja) | 推定装置、訓練装置、推定方法及び訓練方法 | |
US11954115B2 (en) | Methods and systems for wavelet based representation | |
CN110543935A (zh) | 处理交互序列数据的方法及装置 | |
Ming et al. | An advanced estimation algorithm for ground‐motion models with spatial correlation | |
CN114897173A (zh) | 基于变分量子线路确定PageRank的方法及装置 | |
US8813009B1 (en) | Computing device mismatch variation contributions | |
Yan et al. | Adaptive sign algorithm for graph signal processing | |
US20220253426A1 (en) | Explaining outliers in time series and evaluating anomaly detection methods | |
López et al. | Transitions in random graphs of fixed degrees with many short cycles | |
CN110941793B (zh) | 一种网络流量数据填充方法、装置、设备及存储介质 | |
Stemler et al. | A guide to using shadowing filters for forecasting and state estimation | |
JP2022070386A (ja) | 学習方法、系列解析方法、学習装置、系列解析装置、及びプログラム | |
Chen et al. | Monte Carlo methods and their applications in Big Data analysis | |
JP2019113962A (ja) | 解析装置、解析方法及びプログラム | |
Chouzenoux et al. | Sparse graphical linear dynamical systems | |
CN114155410A (zh) | 图池化、分类模型训练、重建模型训练方法和装置 | |
Bales et al. | Selecting the metric in hamiltonian monte carlo | |
US20140207715A1 (en) | Data driven reduction of multi-scale models | |
JP2020030702A (ja) | 学習装置、学習方法及び学習プログラム | |
US20210034695A1 (en) | Feature transformation apparatus and method, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20180104 |