JP2017199362A - 非定常時系列データの予測に用いる方法及び装置 - Google Patents

非定常時系列データの予測に用いる方法及び装置 Download PDF

Info

Publication number
JP2017199362A
JP2017199362A JP2017076562A JP2017076562A JP2017199362A JP 2017199362 A JP2017199362 A JP 2017199362A JP 2017076562 A JP2017076562 A JP 2017076562A JP 2017076562 A JP2017076562 A JP 2017076562A JP 2017199362 A JP2017199362 A JP 2017199362A
Authority
JP
Japan
Prior art keywords
neural network
time
indicator
series data
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017076562A
Other languages
English (en)
Other versions
JP6907664B2 (ja
Inventor
タウンセンド・ジョゼフ
Townsend Joseph
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GB1607565.7A external-priority patent/GB2549792A/en
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JP2017199362A publication Critical patent/JP2017199362A/ja
Application granted granted Critical
Publication of JP6907664B2 publication Critical patent/JP6907664B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】コンピュータにより、非定常時系列データを予測する方法を提供する。【解決手段】現在の時間ステップに続く次の時間ステップにおいてニューラルネットワークが非定常時系列データの予測値を出力する予測サイクルを繰り返し実行する。時系列データの値は現在の時間ステップまで知られており、各々の予測サイクルで、ニューラルネットワークの入力は、各々の時間ステップにおいて入力選択処理を実行することにより動的に選択される。入力選択処理は、各々の候補指示子が時系列データと相関され得る候補指示子セットについて、時系列データの値と候補指示子セットの各々の指示子の値との間の因果性を所定の因果性指標を用いて決定し、現在の時間ステップにおいて時系列データとの最高の相関関係を生じるよう計算される候補指示子の指示子から、ニューラルネットワークの入力となるべき指示子サブセットを選択する。【選択図】図1

Description

本発明は、非定常時系列データの予測に用いる方法及び装置に関する。
時系列データの予測は、例えば(限定ではなく)経営指標、並びにウェアラブル及びスマート装置を含む様々な異なる装置から収集されるデータの分析を含む、多くの異なる分野に関連する。時系列データは、観測時刻により順序付けられたデータシーケンスである。シリーズの要素同士の時間差は、通常固定される。多くの場合、時系列データの中の動きを予測するとき、予測は、指示子が予測されるべき時系列データ(「目標時系列データ」)に関する予測情報を提供するように見える程度まで、予測されるべき時系列データと相関する(又は相関するように見える)、指示子、つまり値若しくは値の時系列に基づく。株価予測は、例えば、広範な指示子を用いて試みられている。これらは、1次指示子(価格及び取引量)、2次指示子(1次指示子についての計算)、又は雇用可能性率、為替レート、又はニュース若しくはツイート数(つまり、Twitter(登録商標)の関連投稿数)、感想値、等のようなソーシャルメディアからのデータのような他の主要業績評価指標(key performance indicator:KPI)であっても良い。通常、この場合には、価格自体ではなく株価変動方向(正又は負)が予測される。株価又は他の予測で、この変動方向が正しく予測される率は、通常、「ヒット率」として参照される。
因果性は、1つの時系列データセットの変化が別の時系列データセットの変化に影響する程度であり、したがって、前者が後者の予測に有用である程度でもある。指示子を選択するために、データアナリストは、例えば「グレンジャー因果性分析」として知られる種類の「因果性分析」を実行して、前者の変化が後者の変化を引き起こす証拠を示すような方法で、予測されるべき時系列データと相関する指示子を識別しても良い。
時系列データの傾向を予測することは、(例えば株価のように)時系列データが非定常であるとき、つまり平均及び標準偏差のようなパラメータが一定ではないとき、特に難しい。言い換えると、時系列データは、データの中のパターンが変化し続けるとき又は明確なパターンが僅かしか若しくは全く存在しないとき、非定常である。これを考慮すると、指示子と予測されるべき目標時系列データとの間の因果性も一定ではないことがある。したがって、予測されるべき時系列データとの最強の相関を示す指示子は、時間に依存して変化し得る。
株式予測のシナリオに戻ると、広範な異なる指示子が試みられるが、達成される最高ヒット率は、50〜65%の間になる傾向がある。これは、当てずっぽうに対して僅かな向上しか示さない。約70〜80%の幾つかのヒット率が達成されているが、このような結果は、限られた時間期間及び特定の株式について実証されているだけである。データの非定常的特性により、結果は、異なる時間期間又は異なる株式について、あまり見込みのあるものではない場合がある。
指示子入力に基づき時系列データを予測する1つの方法は、指示子の過去の値を入力として及び予測されるべき値を出力として、ニューラルネットワークを使用することである。ニューラルネットワークは、ユニット間のエッジにおける数値重みに従って(入力レイヤにある)入力ベクトルを(出力レイヤにある)出力ベクトルにマッピングする人工ユニットの階層型ネットワークである。重みは、通常逆伝搬である訓練アルゴリズムに従い調整される。ある種のニューラルネットワークは、1つ又は非常に少数の隠れ層を有し、複数層のパーセプトロンである(「浅い」ニューラルネットワークとしても表される場合がある)。別の種類のニューラルネットワークは、複数層を有し、ディープニューラルネットワークである。株価予測へのニューラルネットワークアプローチは、概して、上記の段落で強調されたヒット率を生み出している。
非定常時系列データの予測に使用するための、より適切な予測システムを提供することが望ましい。
本発明の第1の態様の一実施形態によると、連続する時間ステップについて、現在の時間ステップに続く次の時間ステップにおいて非定常時系列データの予測値を出力するニューラルネットワークの入力を動的に選択する、コンピュータにより実施される方法が提供される。ここで、時系列データの一部又は全部の値は、現在の時間ステップまで及びそれについて知られている。方法は、各々の時間ステップで、入力選択処理を実行するステップを有する。入力選択処理は、各々の候補指示子が時系列データと相関され得る候補指示子セットについて、前記時系列データの値と前記候補指示子セットの各々の指示子の値との間の因果性を、所定の因果性指標(例えば、グレンジャー因果性)を用いて決定するステップと、現在の時間ステップにおいて前記時系列データとの最高の相関関係を生じるよう計算される候補指示子の指示子から、前記ニューラルネットワークの前記入力となるべき指示子サブセットを選択するステップと、を有する。所定の因果性指標は、例えばグレンジャー因果性であっても良いが、任意の他の適切な因果性指標であっても良い。
本発明の第2の態様の一実施形態によると、現在の時間ステップに続く次の時間ステップにおいてニューラルネットワークが非定常時系列データの予測値を出力する予測サイクルを繰り返し実行する、コンピュータにより実施されるデータ予測方法が提供される。ここで、時系列データの値は、現在の時間ステップまで及びそれについて知られている。各々の予測サイクルで、ニューラルネットワークの入力は、本発明の第1の態様を具現化する方法に従い選択される。
本発明の第2の態様を具現化する方法の各々の予測サイクルでは、ニューラルネットワークの入力が選択された後に、同じ選択された入力及び出力を有する適切な訓練されたニューラルネットワークが検索のために利用可能か否かに関して決定が行われても良い。利用可能な場合、最近の過去の予測サイクルからのこのような訓練されたニューラルネットワークは、現在の予測サイクルで使用するために検索され、ネットワークが最後に検索されて以来、新しい入力指示子について得られたデータの任意の過去の値で更に訓練される。利用可能ではない場合、所要の入力及び出力を有する新しいニューラルネットワークが構築され、時系列データの過去の値及び指示子サブセットの中の指示子に基づき、訓練される。
ニューラルネットワークの訓練は、指示子サブセットからの過去のm回の時間ステップ(ここで、mは正整数である)のデータ及び時系列データを、ニューラルネットワークの訓練セットに変換するステップを有しても良い。訓練セットは、n個の行を有する(nは正整数である)。各々の行は、1又は複数の時間ステップの時間枠に渡る指示子サブセットの中の指示子の値、及び該時間枠に続く時間ステップの時系列データの値を表す。ここで、1つの行は最近の時間枠を表し、他の行は過去の時間枠を表し、1つの時間ステップだけ離れている。ニューラルネットワークの訓練は、ニューラルネットワーク学習アルゴリズムを用いて、訓練セットを使用してニューラルネットワークの重みを設定するステップを更に有しても良い。訓練されたニューラルネットワークは、後の予測サイクルにおける使用及び検索のために訓練された後に格納されても良い。
本発明の一実施形態では、ニューラルネットワークは、複数の過去の時間枠に渡り前記指示子サブセットの中の各々の指示子の値を前記ニューラルネットワークに入力することにより、前記次の時間ステップにおける前記時系列データの前記値を予測するために使用されても良く、各々の時間枠は、1又は複数の時間ステップを有する。
本発明の第3の態様の一実施形態によると、コンピュータプログラムであって、コンピュータで実行されると、該コンピュータに、本発明の第1の及び/又は第2の態様を具現化する方法を実行させる、コンピュータプログラムが提供される。
本発明の第4の態様の一実施形態によると、連続する時間ステップについて、現在の時間ステップに続く次の時間ステップにおいて非定常時系列データの予測値を出力するニューラルネットワークの入力を動的に選択するよう構成される入力選択装置が提供される。ここで、時系列データの一部又は全部の値は、現在の時間ステップまで及びそれについて知られている。装置は、各々の時間ステップで、入力選択処理を実行するよう動作する。入力選択処理は、各々の候補指示子が時系列データと相関され得る候補指示子セットについて、前記時系列データの値と前記候補指示子セットの各々の指示子の値との間の因果性を、所定の因果性指標(例えば、グレンジャー因果性)を用いて決定するステップと、現在の時間ステップにおいて前記時系列データとの最高の相関関係を生じるよう計算される候補指示子の指示子から、前記ニューラルネットワークの前記入力となるべき指示子サブセットを選択するステップと、を有する。所定の因果性指標は、例えばグレンジャー因果性であっても良いが、任意の他の適切な因果性指標であっても良い。
本発明の第5の態様の一実施形態によると、現在の時間ステップに続く次の時間ステップにおいてニューラルネットワークが非定常時系列データの予測値を出力する予測サイクルを繰り返し実行するよう構成される時系列データ予測装置が提供される。ここで、時系列データの値は、現在の時間ステップまで及びそれについて知られている。装置は、各々の予測サイクルで、ニューラルネットワークの入力を選択する入力選択装置であって、該装置は本発明の第4の態様を具現化する、入力選択処理を有する。
本発明の第5の態様を具現化する装置は、各々の予測サイクルで、ニューラルネットワークの入力が入力選択装置により選択された後に、同じ選択された入力及び出力を有する適切な訓練されたニューラルネットワークが検索のために利用可能か否かを決定するよう動作する決定装置と、決定装置が適切な訓練されたニューラルネットワークが検索のために利用可能であると決定した場合、現在の予測サイクルで使用するために、最近の過去の予測サイクルからこのような訓練されたニューラルネットワークを検索するよう動作する過去のニューラルネットワーク検索装置と、を更に有しても良い。装置は、決定装置が適切な訓練されたニューラルネットワークが検索のために利用可能ではないと決定した場合、現在の予測サイクルで、所要の入力及び出力を有する新しいニューラルネットワークを構築するよう動作するニューラルネットワーク構築装置を更に有する。ニューラルネットワーク訓練装置は、現在の予測サイクルで使用されるべきネットワークを訓練するために設けられる。ここで、検索されたニューラルネットワークは、ネットワークが最後に検索されて以来新しい自身の入力された指示子について得られたデータの任意の過去の値で訓練され、新しいニューラルネットワークは、時系列データの過去の値及び指示子サブセットの中の指示子に基づき訓練される。
前記ニューラルネットワーク訓練装置は、前記指示子サブセットからの過去のm回の時間ステップのデータと前記時系列データとを、前記ニューラルネットワークの訓練セットに変換するよう動作する訓練データ準備装置であって、前記訓練セットは、n個の行を有し、各々の行は、1又は複数の時間ステップの時間枠に渡る前記指示子サブセットの中の前記指示子の値と該時間枠に続く時間ステップの前記時系列データの値とを表し、1つの行は最近の時間枠を表し、他の行は過去の時間枠を表し、1つの時間ステップだけ離れている、訓練データ準備装置を有しても良い。訓練装置は、重み設定装置であって、ニューラルネットワーク学習アルゴリズムを用いて、訓練セットを使用してニューラルネットワークの重みを設定するよう動作する、重み設定装置を更に有しても良い。装置は、望ましくは、訓練の後に、訓練されたニューラルネットワークを格納するよう動作する。
装置は、ニューラルネットワークを用いて、複数の過去の時間枠に渡り前記指示子サブセットの中の各々の指示子の値を前記ニューラルネットワークに入力することにより、前記次の時間ステップにおける前記時系列データの前記値を予測するよう動作しても良い。ここで、各々の時間枠は、1又は複数の時間ステップを有する。
本発明の実施形態は、予測の基づく指示子が因果性の再評価に依存して切り替えられる、ニューラルネットワークを用いる非定常時系列データ予測への向上したアプローチを提供する。
本発明の一実施形態は、現在どの指示子が予測されるべき時系列データとの最強の因果性を示すかに基づき、予測のために使用される指示子を動的に変更する方法を提供することにより、時間及び指示子に関して一般的であるニューラルネットワークを用いる時系列データ予測へのアプローチを提供できる。結果として、システムは、常に、最強の因果性指標を生じる指示子に基づき予測し、例えば、特定の株式、予測子、及び時間期間についてのみより高いヒット率が提示される株式市場予測の場合には、ヒット率は、以前に達成されたヒット率よりも高くなる(又は少なくとも、より一貫性がある)。
因果性指標を用いて指示子を識別する方法は、以前に提案されているが、それらを用いてネットワーク入力に基づきニューラルネットワークの選択を動的に指示するメカニズムは未だ提案されていない。時間と共にネットワークトポロジを変化させる動的ニューラルネットワークも提案されているが、モデル全体又はネットワークにより受信された入力を変更しない。さらに、トポロジの動的変化は、グレンジャー因果性又は入力又は出力の間の任意の他の形式の相関ではなく、ネットワークノード及びコネクションの動作に基づく。
これに対して、本発明の一実施形態は、各々の時点において各々の可能な入力と目標出力との間の因果性を再計算することにより、及び最高の因果関係を有する入力指示子セットに従い出力を予測するために使用されるネットワークを切り替えることにより、異なる指示子がより強力な因果関係を示し得る異なる時間期間に適応可能である。
本発明の実施形態は、精度と計算効率との間の平衡を保つ。予測モデルの中の指示子サブセットを使用する代わりに、可能な指示子のセット全体が使用できると思う人もいるかもしれない。しかしながら、これは、アルゴリズムの計算時間を増大し、予測に使用される指示子セットは、サブセットだけに限定される必要がある場合がある。しかしながら、指示子サブセットの使用が強制される場合、各々の時間ステップにおいて因果性を再評価することなく、ユーザは、最初に高いヒット率を生じるが後の時間にそれを生じない指示子サブセットを選択する可能性がある。各々の時間ステップにおける因果性の自動的再評価は、最高ヒット率を生じる少数の指示子のみが常に使用されることを保証する。
例として、添付の図面を参照する。
本発明を具現化するデータ予測方法を示すフローチャートを示す。 本発明を具現化する時系列データ予測装置を示すブロック図である。 本発明を具現化するニューラルネットワーク入力選択処理の説明で使用する図である。 構築されたニューラルネットワークのための訓練データがどのように生成され得るかの説明で使用する図である。 構築されたニューラルネットワークがどのように訓練され得るかの説明で使用する図である。 訓練されたニューラルネットワークがどのように時系列データを予測するために使用され得るかの説明で使用する図である。 本発明を具現化するニューラルネットワーク入力選択処理の特定の例の説明で使用する図である。 構築されたニューラルネットワークのための訓練データがどのように生成され得るかの特定の例の説明で使用する図である。 構築されたニューラルネットワークがどのように訓練され得るかの特定の例の説明で使用する図である。 訓練されたニューラルネットワークがどのように時系列データを予測するために使用され得るかの特定の例の説明で使用する図である。 図7のサイクルの後のサイクルにおける、本発明を具現化するニューラルネットワーク入力選択処理の特定の例の説明で使用する図である。 本発明を具現化する方法を実行するために適するコンピューティング装置のブロック図である。
本発明により具現化されるデータ予測方法は、現在の時間ステップに続く次の時間ステップにおいてニューラルネットワークが非定常時系列データの予測値を出力する予測サイクルを繰り返し実行する。ここで、時系列データの値は、現在の時間ステップまで及びそれについて知られている。各々の予測サイクルで、ニューラルネットワークの入力は、各々の時間ステップにおいて入力選択処理を実行することにより動的に選択される。入力選択処理は、望ましくは、各々の候補指示子が時系列データと相関され得る候補指示子セットについて、時系列データの値と候補指示子セットの各々の指示子の値との間の因果性を、所定の因果性指標(例えば、グレンジャー因果性)を用いて決定するステップと、現在の時間ステップにおいて時系列データとの最高の相関関係を生じるよう計算される候補指示子の指示子から、ニューラルネットワークの入力となるべき指示子サブセットを選択するステップと、を有する。
つまり、本発明の一実施形態では、各々の時間ステップtにおいて、予測されるべき時系列データセットX、及び候補指示子セットIが与えられると、Xとの最高因果関係を生じると現在示される指示子サブセットJが、Xの次の値の予測で使用するために選択される。Xに対する各々の候補指示子Iの因果性は、任意の因果性指標、例えばグレンジャー因果性分析を用いて測定できる。各々のtで、Jを入力とし及びXの次の値を出力とするニューラルネットワークモデルが、ニューラルネットワークモデルが未だ存在していない場合には構築され、ニューラルネットワークモデルが存在する場合にはメモリから読み出される。ネットワークは、J及びXの過去のデータで訓練され、メモリに保存され、Xの次の値が予測される。
先ず図1を参照し、本発明を具現化する方法は詳細に記載される。図1は、本発明の一実施形態による、Jを選択し及びXを予測する全体の処理を纏める。ステップ1では(「因果性分析」)、各々の時間ステップtで、各々の指示子(Iの各々の構成要素)と目標時系列データXとの間の因果性が計算される。任意の因果性指標、例えばグレンジャー因果性分析が使用されても良い。ステップ2では(「入力/モデル選択」)、指示子Iのうちの固定数のJ(つまりサブセット)が、それらの目標時系列データXについての因果性指標に基づき選択される。ステップ3では(「選択されたモデルは存在するか?」)、適切なモデルのニューラルネットワークが既に(例えば前のサイクルで)生成されているか否かについて決定が行われる。選択された入力及び出力セットを有する選択されたモデルが、メモリに既に存在する場合、ステップ3aで(「前のモデルをロードする」)、格納されたモデルがロードされる。存在しない場合、ステップ3bで(「選択された入力でモデルを生成する」)、選択された指示子の各々からの過去の値を入力とし及び目標時系列データの次の値を出力とするニューラルネットワークが最初から構築される。ステップ4では(「選択されたモデルを訓練する」)、ロードされた又は構築されたネットワークは、次に、現在の指示子の過去のデータ、及び目標時系列データで訓練され、メモリに保存される。既存のネットワークは、メモリから読み出された後に、望ましくは、該ネットワークが最後にロードされて以来、つまり該ネットワークが入力とする指示子が予測指示子として選択されたとき以来、得られた任意の履歴データにより更に訓練される。ネットワークは、それらが訓練される度に、再びメモリに保存される。ステップ5では(「予測を行う」)、ネットワークは、次に、目標時系列データの次の値を予測するために使用される。全体の処理は、次に、次のステップに進み、繰り返す。
図1に示す処理を実行するのに適する時系列データ予測装置10は、図2に示される。装置10は、入力選択装置1、決定装置2、過去のニューラルネットワーク検索装置31、ニューラルネットワーク構築装置32、訓練データ準備装置41と重み設定装置42とを備えるニューラルネットワーク訓練装置4、予測装置5、過去のニューラルネットワーク記憶装置6を有する。
入力選択装置1は、各々の時間ステップで、入力選択処理を実行することにより、ニューラルネットワークの入力を動的に選択するよう構成される。入力選択処理は、各々の候補指示子が時系列データXと相関され得る、装置に入力される候補指示子I,I,I,...,Iのセットについて、時系列データXの値と候補指示子セットの各々の指示子I,I,I,...,Iの値との間の因果性を、所定の因果性指標(例えば、グレンジャー因果性)を用いて決定するステップと、現在の時間ステップにおいて時系列データXとの最高の相関関係を生じるよう計算される候補指示子I,I,I,...,Iの指示子から、ニューラルネットワークの入力となるべき指示子J,J,J,...(3個が示される)のサブセットを選択するステップと、を有する。
決定装置2は、各々の予測サイクルで、ニューラルネットワークの入力が入力選択装置1により選択された後に、同じ選択された入力、指示子J,J,Jのサブセット、及び出力を有する適切に訓練されたニューラルネットワークが、記憶装置6から検索のために利用可能であるか否かを決定するよう動作する。決定装置2が、適切な訓練されたニューラルネットワークが記憶装置6から検索のために利用可能であると決定した場合、過去のニューラルネットワーク検索装置31は、現在の予測サイクルで使用するために、最近の過去の予測サイクルから、このような訓練されたニューラルネットワークを検索するよう動作する。決定装置2が、適切なニューラルネットワークは記憶装置6から検索のために利用可能ではないと決定した場合、ニューラルネットワーク構築装置32は、現在の予測サイクルで、所要の入力、指示子J,J,Jのサブセット、及び出力Xを有する新しいニューラルネットワークを構築するよう動作する。
ニューラルネットワーク訓練装置4は、時系列データXの過去の値及び指示子サブセットの中の指示子J,J,Jに基づき、新しいニューラルネットワークを訓練するよう、又は検索されたニューラルネットワークを更に訓練するよう、動作する。ニューラルネットワーク訓練装置4は、訓練データ準備装置41を有する。訓練データ準備装置41は、指示子J,J,Jのサブセットからの過去のm回の時間ステップのデータ及び時系列データXを、新しいニューラルネットワークのための訓練セットに変換するよう動作する。訓練セットは、n個の行を有する。各々の行は、1又は複数の時間ステップの時間枠に渡る指示子サブセットの中の指示子J,J,Jの値、及び該時間枠に続く時間ステップの時系列データXの値を表す。ここで、1つの行は最近の時間枠を表し、他の行は前の時間枠を表し、1つの時間ステップだけ離れている。ニューラルネットワーク訓練装置4は、重み設定装置42を更に有する。重み設定装置42は、ニューラルネットワーク学習アルゴリズムを用いて、訓練セットを使用してニューラルネットワークの重みを設定するよう動作する。訓練の後、ニューラルネットワークは記憶装置6に格納される。
予測装置5は、次に、次の時間ステップで、ニューラルネットワーク(新しく訓練されたニューラルネットワーク又は更なる訓練に続き検索されたニューラルネットワーク)に、複数の過去の時間枠に渡る指示子サブセットの中の各々の指示子の値J,J,Jを入力することにより、時系列データXの値の予測を実施する。ここで、各々の時間枠は、1又は複数の時間ステップを有する。
図3は、指示子Iと予測されるべき時系列データXとの間の因果性に基づくニューラルネットワークの構築(又は選択)を説明する図である(図1のステップ1〜3(a及びb))。ここで、時間tにおいて、ユーザは、所与の時系列データセットXについて、Jの前のs個の値、指示子サブセットIに基づき、(時間t+1における)次の値を予測したいと望む。I(及びしたがってJ)はX自体を含み得ることに留意すべきである。
図3のステージ1では、各々の指示子(Iの各々の構成要素)とXとの間の因果性が計算される(因果性値は単なる例である)。Iの各々の構成要素について、計算された因果性は、Iの該構成要素からの過去のs個の時間ステップからのデータがXの次の値を予測できる程度を反映する。因果性は、グレンジャー因果性、又は任意の他の因果性の指標に従い計算されても良い。
図3のステージ2では、Xについて最高の因果性を有するIからのこれらN個の時系列は、次に、Xの予測子として選択され、セットJとして格納される。この例では、N=3であるが、0より大きい任意の正整数値も可能である。
図3のステージ3では、Jの現在の構成は、Jの各々の構成要素からのs個の値を入力とし及びXの値を出力するニューラルネットワークを構築するために使用される。代替で、前のサイクルでJのこの構成に遭遇している場合、これが真である最近のサイクルからの訓練されたネットワークがメモリから検索される。新しいネットワークが構築中である場合、重みはランダムに初期化される。その他の場合、検索されたネットワークは、自身の前の訓練サイクルから学習した重みを保持する。
図4及び5は、図1のステップ4を説明する図である。ここで、図1のステージ3aで検索された又は図1のステージ3bで構築されたニューラルネットワークが訓練される。
先ず、図4は、過去のm回の時間ステップのJ及びXの両方からのデータ(図4の左側に示す)が、ネットワークを訓練するための訓練セット(図4の右側に示す)に変換されることを示す。各々の行は、入力セット、及びネットワークが所与の時間について所与の入力を用いて予測することを期待される目標値を含む。つまり、各々の行は、Jの各々の構成要素のs個の連続する値を入力とし、及び該s個の値に続くXの値を出力とする。訓練セットの中の各々の行1〜nは、Jからの(長さsの)異なる時間枠、及び該時間枠に続く時間ステップのXの値を表す。一番上の行は最近の時間枠を表し、続く行は前の時間枠を表し、行毎に1時間ステップだけ戻る。この枠は、第1の行の最近の枠により、各々の行を生成するために、一度に1つの時間ステップを、時系列を通じて戻る。
次に、図5は、ネットワークが図4からの訓練データで訓練されることを示す。例として、図5は、図4の行1からのデータを用いる訓練を表す。ネットワークが示され、訓練データからの各々の行及び重みは、逆伝搬又は任意の他のニューラルネットワーク訓練/学習アルゴリズムに従い調整される。
訓練されたネットワークは、同じ指示子セットが後のサイクルでJのために選択されるならば、潜在的な将来の使用のために保存される。
図6は、図1のステップ5を説明するための図である。ここで、次の時間ステップにおけるXの値の予測は、訓練されたネットワークを用いて行われる。過去のs回の時間ステップに渡るJの中の各々の指示子の値は、入力として表され、訓練されたネットワークは、次の時間ステップで、Xの値の予測を出力する。つまり、時間t+1におけるXの次の値を予測するために、範囲[t−(s−1),t]の各々のJの値は、訓練されたニューラルネットワークに入力され、出力はXt+1の値を予測する。
図1のステップ1からの処理の更なるサイクルは、tをインクリメントすることにより実行される。
任意の時間における任意の新しい時系列データは、Iに追加され、次のサイクルの始めに指示子選択の候補になる。
本発明の一実施形態は、株価予測の問題を一例として用いて、図6〜10を参照して以下に説明される。本実施形態は、所与の時点における所与の株価と相関する指示子を探す適用型の方法を提供する。本例では、ユーザは、Apple(ティッカーシンボルは「AAPL」である)の終値の翌日変動方向を予測したいと望む。ユーザに利用可能な他の時系列データ(つまり指示子)は、AAPLの取引量、ポンドとドルとの間の為替レート、ダウジョーンズ工業株平均(Dow Jones Industrial Average:DJIA)、この特定の株式に関するツイート数、この株式に関するツイートの感想(何らかの感想分析指標に従い測定される)を含む。
図7は、Apple(AAPL)の株価終値Xを、可能な指示子Iと該株価との間の因果性に基づき予測するネットワークの構築を説明する図である(図1のステップ1〜3(a及びb)に対応する)。
図7のステージ1では、各々の指示子(Iの各々の構成要素)と終値Xとの間の因果性が計算される(因果性値は単なる例である)。
図7のステージ2では、終値Xについて最高の因果性を有するN個の指示子(本例ではN=3だが、必須ではない)からセットJを形成することにより、ネットワーク入力が選択される。この場合には、取引量、DJIA、及びTwitter(登録商標)感想が、終値Xについて最高の因果性を有するN=3個の時系列として見出され、したがってXの予測子として選択され、セットJに格納される。
図7のステージ3では、所望の構成を有するネットワークが未だメモリの中に存在しないと仮定し、Jのこの特定の構成を入力とするニューラルネットワークが構築される。つまり、図8に示すように、Jの現在の構成は、Jの各々の構成要素からのs個の値を入力とし及び終値Xの次の予測値を出力とするニューラルネットワークを構築するために使用される。
次にネットワークの訓練が行われる。これは、図8及び9を参照して以下に説明される(時系列データの値及び訓練データのみが例である)。本例では、先ず図8で、過去のm日間のJ及びSの両方からのデータは、−1と1の間の値に正規化され、訓練データセットに変換される。訓練データセットの中の各々の行は、J及びXからのデータの長さsの異なる時間枠(本例ではs=3)を表す。ここで、一番上の行は最近の時間枠を表し、続く表は前の時間枠を表し、行毎に1日だけ戻る。
図9に示すように、次に、ネットワークが図8からの訓練データを用いて訓練される。
つまり、ネットワークが示され、訓練データからの各々の行及び重みは、例えば逆伝搬又は任意の他のニューラルネットワーク学習アルゴリズムに従い調整される。
翌日(時間t+1)の終値の変動方向を予測するために、過去のs日間に渡る、つまり範囲[t−2,t]([t−(s−1),t])の範囲の各々の指示子Jの値は、訓練されたニューラルネットワークに入力され、出力は予測を提供する。図10の例に示すように、ネットワークは、AAPLの株価の変動方向が1であることを予測する。つまり終値の正の変化が予測される。
図7〜10を参照して上述した処理は、毎日繰り返される。後の日付で、図6で識別された指示子と異なる指示子が、終値との最強の相関(因果性)を生じることが分かった場合、処理で使用するために異なる指示子セットJが生成される。例えば、図11に示すように、ダウジョーンズ工業株平均(DJIA)は、依然として最強の相関を生み出すが、為替レート及びツイート数は、2番目及び3番目に強い相関を生み出し、取引量及びTwitter(登録商標)感想はそうではない。したがって、Jの中の指示子セットは、DJIA、為替レート、及びツイート数である。
概して、本発明の実施形態は、任意の非定常時系列データ予測問題に適用できる。例えば、本発明の実施形態は、為替レートの予測、ビットコイン価格、売上高、又は時系列に基づく任意のKPI(主要業績評価指標)の予測のような、株価予測以外の金融用途を有し得る。本発明の別の可能な用途は、時系列が非定常である場合に、特定の話題についての投稿数、その同一の話題に関して投稿するユーザの数、等のような、ソーシャルメディアの傾向の予測であり得る。しかしながら、これらの例は網羅的ではない。
本発明の実施形態は、ハードウェア、1若しくは複数のプロセッサで動作するソフトウェアモジュールとして又はそれらの組合せで実施されてもよい。つまり、当業者は、マイクロプロセッサ又はデジタルシグナルプロセッサ(DSP)が実際には用いられて、上述の機能の一部又は全部を実施してもよいことを理解するだろう。
本発明は、1又は複数の装置若しくは機器の、本願明細書に記載された方法の一部又は全部を実行するプログラム(例えば、コンピュータプログラム及びコンピュータプログラムプロダクト)として具現化されてもよい。このような本発明を具現化するプログラムは、コンピュータ可読媒体又はクラウドに、例えば1又は複数の信号の形式で格納されてもよい。このような信号は、インターネットのウェブサイトからダウンロード可能なデータ信号であってもよく、又はキャリア信号で若しくはどんな他の形式で提供されてもよい。
図12は、本発明を実現し、本発明を具現化する方法のステップの一部又は全部を実施するために及び一実施形態の装置のタスクの一部又は全部を実行するために使用できる、データ記憶サーバのようなコンピューティング装置のブロック図である。例えば、図12のコンピューティング装置は、図1に示したデータ予測方法の全てのステップを実施し、及び図2に示したデータ予測装置の全部のタスクを実行し、又は図1の方法のステップの一部のみを実施し、及び図2の装置のタスクの一部のみを実行するために、使用されても良い。
コンピューティング装置は、プロセッサ993、及びメモリ994を有する。任意で、コンピューティング装置は、コンピューティング装置のような他者、例えば本発明の実施形態の他のコンピューティング装置と通信するためのネットワークインタフェース997も有する。
例えば、一実施形態は、このようなコンピューティング装置のネットワークで構成されても良い。任意で、コンピューティング装置は、キーボード及びマウスのような1又は複数の入力メカニズム996、及び1又は複数のモニタのようなディスプレイユニット995も有する。コンポーネントは、バス992を介して互いに接続可能である。
メモリ994は、コンピュータ実行可能命令を実行する又は格納されたデータ構造を有するよう構成される単一の媒体又は複数の媒体(例えば、集中型又は分散型データベース及び/又は関連するキャッシュ及びサーバ)を表し得るコンピュータ可読媒体を有しても良い。コンピュータ実行可能命令は、例えば、汎用コンピュータ、特定目的コンピュータ又は特定目的処理装置(例えば、1又は複数のプロセッサ)によりアクセス可能であり及び1又は複数の機能又は工程を実行させる命令及びデータを有しても良い。したがって、用語「コンピュータ可読記憶媒体」は、機械による実行のために命令セットを格納しエンコードし又は持ち運ぶことが可能であり、機械に本開示の方法のうち任意の1又は複数を実行させる任意の媒体も含み得る。用語「コンピュータ可読記憶媒体」は、固体メモリ、光学媒体及び磁気媒体を含むと考えられるが、これらに限定されない。例として且つ限定ではなく、このようなコンピュータ可読媒体は、RAM(Random Access Memory)、ROM(Read−Only Memory)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、CD−ROM(Compact Disc Read−Only Memory)又は他の光ディスク記憶装置、磁気ディスク記憶装置又は他の磁気記憶装置を含む非一時的若しくは有形コンピュータ可読記憶媒体、又は他の媒体、フラッシュメモリ装置(例えば、固体メモリ装置)を有し得る。
プロセッサ993は、コンピューティング装置を制御し、処理工程を実行するよう、例えば図1、3、4、5及び/又は6を参照して記載された及び請求の範囲において定められる方法を実施するためにメモリ994に格納されたコンピュータプログラムコードを実行するよう構成される。メモリ994は、プロセッサ993によりリード及びライトされるデータを格納する。本願明細書で参照されるとき、プロセッサは、マイクロプロセッサ、中央処理ユニット、等のような1又は複数の汎用処理装置を含み得る。プロセッサは、CISC(complex instruction set computing)マイクロプロセッサ、RISC(reduced instruction set computing)マイクロプロセッサ、VLIW(very long instruction word)マイクロプロセッサ、又は他の命令セットを実施するプロセッサ、若しくは命令セットの組合せを実施するプロセッサを含み得る。プロセッサは、ASIC(application specific integrated circuit)、FPGA(field programmable gate array)、DSP(digital signal processor)、ネットワークプロセッサ、等のような1又は複数の特定目的処理装置も含み得る。1又は複数の実施形態では、プロセッサは、本願明細書で議論する工程又はステップを実行する命令を実行するよう構成される。
ディスプレイユニット995は、コンピューティング装置により格納されたデータの提示を表示しても良く、ユーザとプログラムとコンピューティング装置に格納されたデータとの間の相互作用を可能にするカーソル及びダイアログボックス及びスクリーンも表示しても良い。入力メカニズム996は、ユーザがデータ及び命令をコンピューティング装置に入力することを可能にし得る。
ネットワークインタフェース(ネットワークI/F)997は、インターネットのようなネットワークに接続され、ネットワークを介して他のコンピューティング装置に接続可能であっても良い。ネットワークI/F997は、ネットワークを介して他の装置からのデータ入力/へのデータ出力を制御しても良い。
マイクロフォン、スピーカ、プリンタ、電源ユニット、ファン、筐体、スキャナ、トラックボール等のような他の周辺装置は、コンピューティング装置に含まれても良い。
本発明を実現する方法は、図12に示されたようなコンピューティング装置で実行されても良い。このようなコンピューティング装置は、図12に示した全てのコンポーネントを有する必要はなく、これらのコンポーネントのうちの部分集合で構成されても良い。本発明を具現化する方法は、ネットワークを介して1又は複数のデータ記憶サーバと通信する単一のコンピューティング装置により実行されても良い。コンピューティング装置は、データの少なくとも一部を格納するデータ記憶装置自体であっても良い。
本発明を実現する方法は、互いに協働して動作する複数のコンピューティング装置により実行されても良い。複数のコンピューティング装置のうちの1又は複数は、データの少なくとも一部を格納するデータ記憶サーバであっても良い。
上述の本発明の実施形態は、実施形態のうちの任意の他の実施形態と独立に又は実施形態のうちの1又は複数の他の実施形態との任意の実現可能な組合せで、使用されても良い。
以上の実施形態に加え、更に以下の付記を開示する。
(付記1) 連続する時間ステップについて、現在の時間ステップに続く次の時間ステップで非定常時系列データの予測値を出力するニューラルネットワークの入力を動的に選択する、コンピュータにより実施される方法であって、前記時系列データの値は、前記現在の時間ステップまで及びそれについて知られており、前記方法は、各々の時間ステップにおいて、入力選択処理を実行するステップを有し、前記入力選択処理は、
各々の候補指示子が前記時系列データと相関し得る候補指示子セットについて、所定の因果性指標を用いて、前記時系列データの値と前記候補指示子セットの各々の指示子の値との間の因果性を決定するステップと、
前記現在の時間ステップにおいて、前記ニューラルネットワークの前記入力になるべき、前記時系列データとの最高の因果関係を生じるよう計算される前記候補指示子の指示子から、指示子サブセットを選択するステップと、
を有する、方法。
(付記2) 前記所定の因果性指標は、グレンジャーの因果性である、付記1に記載の方法。
(付記3) 現在の時間ステップに続く次の時間ステップにおいてニューラルネットワークが非定常時系列データの予測値を出力する予測サイクルを繰り返し実行する、コンピュータにより実施されるデータ予測方法であって、前記時系列データの値は、前記現在の時間ステップまで及びそれについて知られており、各々の予測サイクルで、ニューラルネットワークの前記入力は、付記1又は2に記載の方法に従い選択される、方法。
(付記4) 各々の予測サイクルで、前記ニューラルネットワークの前記入力が選択された後に、
同一の選択された入力及び出力を有する適切に訓練されたニューラルネットワークが検索のために利用可能であるか否かについて決定が行われ、
利用可能である場合、最近の過去の予測サイクルから訓練されたニューラルネットワークが、現在の予測サイクルで使用するために検索され、前記ネットワークが最後に検索されて以来、新しい入力指示子について得られたデータの任意の過去の値について更に訓練され、又は
利用可能ではない場合、所要の入力及び出力を有するニューラルネットワークが、構築され、前記時系列データの過去の値及び前記指示子サブセットの中の前記指示子に基づき訓練される、
付記3に記載の方法。
(付記5) 前記ニューラルネットワークを訓練することは、
前記指示子サブセットからの過去のm回の時間ステップのデータと前記時系列データとを、前記ニューラルネットワークの訓練セットに変換するステップであって、前記訓練セットは、n個の行を有し、各々の行は、1又は複数の時間ステップの時間枠に渡る指示子サブセットの中の前記指示子の値と該時間枠に続く時間ステップの前記時系列データの値とを表し、1つの行は最近の時間枠を表し、他の行は過去の時間枠を表し、1つの時間ステップだけ離れている、ステップと、
ニューラルネットワーク学習アルゴリズムを用いて、前記訓練セットを使用して前記ニューラルネットワークの重みを設定するステップと、
を有する、付記4に記載の方法。
(付記6) 前記ニューラルネットワークは、訓練の後に格納される、付記5に記載の方法。
(付記7) 前記ニューラルネットワークは、複数の過去の時間枠に渡り前記指示子サブセットの中の各々の指示子の値を前記ニューラルネットワークに入力することにより、前記次の時間ステップにおける前記時系列データの前記値を予測するために使用され、各々の時間枠は、1又は複数の時間ステップを有する、付記3乃至6のいずれか一項に記載の方法。
(付記8) コンピュータプログラムであって、コンピュータ上で実行すると、該コンピュータに、付記1又は2に記載の方法及び/又は付記3乃至7のいずれか一項に記載の方法を実行させる、コンピュータプログラム。
(付記9) 連続する時間ステップについて、現在の時間ステップに続く次の時間ステップで非定常時系列データの予測値を出力するニューラルネットワークの入力を動的に選択するよう構成される入力選択装置であって、前記時系列データの値は、前記現在の時間ステップまで及びそれについて知られており、前記装置は、各々の時間ステップにおいて、入力選択処理を実行するよう動作し、前記入力選択処理は、
各々の候補指示子が前記時系列データと相関し得る候補指示子セットについて、所定の因果性指標を用いて、前記時系列データの値と前記候補指示子セットの各々の指示子の値との間の因果性を決定するステップと、
前記現在の時間ステップにおいて、前記ニューラルネットワークの前記入力になるべき、前記時系列データとの最高の因果関係を生じるよう計算される前記候補指示子の指示子から、指示子サブセットを選択するステップと、
を有する、装置。
(付記10) 前記所定の因果性指標は、グレンジャーの因果性である、付記9に記載の装置。
(付記11) 現在の時間ステップに続く次の時間ステップにおいてニューラルネットワークが非定常時系列データの予測値を出力する予測サイクルを繰り返し実行するよう構成される時系列データ予測装置であって、前記時系列データの値は、前記現在の時間ステップまで及びそれについて知られており、前記装置は、各々の予測サイクルで、ニューラルネットワークの前記入力を選択する付記9又は10に記載の入力選択装置を有する、装置。
(付記12) 各々の予測サイクルで、前記ニューラルネットワークの前記入力が前記入力選択装置により選択された後、同一の選択された入力及び出力を有する適切に訓練されたニューラルネットワークが検索のために利用可能であるか否かを決定するよう動作する決定装置と、
前記決定装置が、適切に訓練されたニューラルネットワークが検索のために利用可能であると決定した場合、現在の予測サイクルで使用するために最近の過去の予測サイクルから訓練されたニューラルネットワークを検索するよう動作する過去のニューラルネットワーク検索装置と、
前記決定装置が、適切に訓練されたニューラルネットワークが検索のために利用可能ではないと決定した場合、現在の予測サイクルで、所要の入力及び出力を有する新しいニューラルネットワークを構築するよう動作するニューラルネットワーク構築装置と、
現在の予測サイクルで使用されるべき前記ネットワークを訓練するよう動作するニューラルネットワーク訓練装置であって、検索されたニューラルネットワークは、前記ネットワークが最後に検索されて以来、新しい自身の入力された指示子について得られたデータの任意の過去の値について訓練され、新しいニューラルネットワークは、前記時系列データの過去の値及び前記指示子サブセットの中の前記指示子に基づき訓練される、ニューラルネットワーク訓練装置と、
を更にする付記11に記載の装置。
(付記13) 前記ニューラルネットワーク訓練装置は、
前記指示子サブセットからの過去のm回の時間ステップのデータと前記時系列データとを、前記ニューラルネットワークの訓練セットに変換するよう動作する訓練データ準備装置であって、前記訓練セットは、n個の行を有し、各々の行は、1又は複数の時間ステップの時間枠に渡る前記指示子サブセットの中の前記指示子の値と該時間枠に続く時間ステップの前記時系列データの値とを表し、1つの行は最近の時間枠を表し、他の行は過去の時間枠を表し、1つの時間ステップだけ離れている、訓練データ準備装置と、
ニューラルネットワーク学習アルゴリズムを用いて、前記訓練セットを使用して前記ニューラルネットワークの重みを設定するよう動作する重み設定装置と、
を有する、付記12に記載の装置。
(付記14) 前記装置は、訓練の後に前記ニューラルネットワークを格納するよう動作する、付記13に記載の装置。
(付記15) 前記装置は、前記ニューラルネットワークを用いて、複数の過去の時間枠に渡り前記指示子サブセットの中の各々の指示子の値を前記ニューラルネットワークに入力することにより、前記次の時間ステップにおける前記時系列データの前記値を予測するよう動作し、各々の時間枠は、1又は複数の時間ステップを有する、付記11乃至14のいずれか一項に記載の装置。
1 因果性分析
2 入力/モデル選択
3 選択されたモデルは存在するか?
3a 前のモデルをロードする
3b 選択された入力でモデルを生成する
4 選択されたモデルを訓練する
5 予測を行う

Claims (15)

  1. 連続する時間ステップについて、現在の時間ステップに続く次の時間ステップで非定常時系列データの予測値を出力するニューラルネットワークの入力を動的に選択する、コンピュータにより実施される方法であって、前記時系列データの値は、前記現在の時間ステップまで及びそれについて知られており、前記方法は、各々の時間ステップにおいて、入力選択処理を実行するステップを有し、前記入力選択処理は、
    各々の候補指示子が前記時系列データと相関し得る候補指示子セットについて、所定の因果性指標を用いて、前記時系列データの値と前記候補指示子セットの各々の指示子の値との間の因果性を決定するステップと、
    前記現在の時間ステップにおいて、前記ニューラルネットワークの前記入力になるべき、前記時系列データとの最高の因果関係を生じるよう計算される前記候補指示子の指示子から、指示子サブセットを選択するステップと、
    を有する、方法。
  2. 前記所定の因果性指標は、グレンジャーの因果性である、請求項1に記載の方法。
  3. 現在の時間ステップに続く次の時間ステップにおいてニューラルネットワークが非定常時系列データの予測値を出力する予測サイクルを繰り返し実行する、コンピュータにより実施されるデータ予測方法であって、前記時系列データの値は、前記現在の時間ステップまで及びそれについて知られており、各々の予測サイクルで、ニューラルネットワークの前記入力は、請求項1又は2に記載の方法に従い選択される、方法。
  4. 各々の予測サイクルで、前記ニューラルネットワークの前記入力が選択された後に、
    同一の選択された入力及び出力を有する適切に訓練されたニューラルネットワークが検索のために利用可能であるか否かについて決定が行われ、
    利用可能である場合、最近の過去の予測サイクルから訓練されたニューラルネットワークが、現在の予測サイクルで使用するために検索され、前記ネットワークが最後に検索されて以来、新しい入力指示子について得られたデータの任意の過去の値について更に訓練され、又は
    利用可能ではない場合、所要の入力及び出力を有するニューラルネットワークが、構築され、前記時系列データの過去の値及び前記指示子サブセットの中の前記指示子に基づき訓練される、
    請求項3に記載の方法。
  5. 前記ニューラルネットワークを訓練することは、
    前記指示子サブセットからの過去のm回の時間ステップのデータと前記時系列データとを、前記ニューラルネットワークの訓練セットに変換するステップであって、前記訓練セットは、n個の行を有し、各々の行は、1又は複数の時間ステップの時間枠に渡る指示子サブセットの中の前記指示子の値と該時間枠に続く時間ステップの前記時系列データの値とを表し、1つの行は最近の時間枠を表し、他の行は過去の時間枠を表し、1つの時間ステップだけ離れている、ステップと、
    ニューラルネットワーク学習アルゴリズムを用いて、前記訓練セットを使用して前記ニューラルネットワークの重みを設定するステップと、
    を有する、請求項4に記載の方法。
  6. 前記ニューラルネットワークは、訓練の後に格納される、請求項5に記載の方法。
  7. 前記ニューラルネットワークは、複数の過去の時間枠に渡り前記指示子サブセットの中の各々の指示子の値を前記ニューラルネットワークに入力することにより、前記次の時間ステップにおける前記時系列データの前記値を予測するために使用され、各々の時間枠は、1又は複数の時間ステップを有する、請求項3乃至6のいずれか一項に記載の方法。
  8. コンピュータプログラムであって、コンピュータ上で実行すると、該コンピュータに、請求項1又は2に記載の方法及び/又は請求項3乃至7のいずれか一項に記載の方法を実行させる、コンピュータプログラム。
  9. 連続する時間ステップについて、現在の時間ステップに続く次の時間ステップで非定常時系列データの予測値を出力するニューラルネットワークの入力を動的に選択するよう構成される入力選択装置であって、前記時系列データの値は、前記現在の時間ステップまで及びそれについて知られており、前記装置は、各々の時間ステップにおいて、入力選択処理を実行するよう動作し、前記入力選択処理は、
    各々の候補指示子が前記時系列データと相関し得る候補指示子セットについて、所定の因果性指標を用いて、前記時系列データの値と前記候補指示子セットの各々の指示子の値との間の因果性を決定するステップと、
    前記現在の時間ステップにおいて、前記ニューラルネットワークの前記入力になるべき、前記時系列データとの最高の因果関係を生じるよう計算される前記候補指示子の指示子から、指示子サブセットを選択するステップと、
    を有する、装置。
  10. 前記所定の因果性指標は、グレンジャーの因果性である、請求項9に記載の装置。
  11. 現在の時間ステップに続く次の時間ステップにおいてニューラルネットワークが非定常時系列データの予測値を出力する予測サイクルを繰り返し実行するよう構成される時系列データ予測装置であって、前記時系列データの値は、前記現在の時間ステップまで及びそれについて知られており、前記装置は、各々の予測サイクルで、ニューラルネットワークの前記入力を選択する請求項9又は10に記載の入力選択装置を有する、装置。
  12. 各々の予測サイクルで、前記ニューラルネットワークの前記入力が前記入力選択装置により選択された後、同一の選択された入力及び出力を有する適切に訓練されたニューラルネットワークが検索のために利用可能であるか否かを決定するよう動作する決定装置と、
    前記決定装置が、適切に訓練されたニューラルネットワークが検索のために利用可能であると決定した場合、現在の予測サイクルで使用するために最近の過去の予測サイクルから訓練されたニューラルネットワークを検索するよう動作する過去のニューラルネットワーク検索装置と、
    前記決定装置が、適切に訓練されたニューラルネットワークが検索のために利用可能ではないと決定した場合、現在の予測サイクルで、所要の入力及び出力を有する新しいニューラルネットワークを構築するよう動作するニューラルネットワーク構築装置と、
    現在の予測サイクルで使用されるべき前記ネットワークを訓練するよう動作するニューラルネットワーク訓練装置であって、検索されたニューラルネットワークは、前記ネットワークが最後に検索されて以来、新しい自身の入力された指示子について得られたデータの任意の過去の値について訓練され、新しいニューラルネットワークは、前記時系列データの過去の値及び前記指示子サブセットの中の前記指示子に基づき訓練される、ニューラルネットワーク訓練装置と、
    を更にする請求項11に記載の装置。
  13. 前記ニューラルネットワーク訓練装置は、
    前記指示子サブセットからの過去のm回の時間ステップのデータと前記時系列データとを、前記ニューラルネットワークの訓練セットに変換するよう動作する訓練データ準備装置であって、前記訓練セットは、n個の行を有し、各々の行は、1又は複数の時間ステップの時間枠に渡る前記指示子サブセットの中の前記指示子の値と該時間枠に続く時間ステップの前記時系列データの値とを表し、1つの行は最近の時間枠を表し、他の行は過去の時間枠を表し、1つの時間ステップだけ離れている、訓練データ準備装置と、
    ニューラルネットワーク学習アルゴリズムを用いて、前記訓練セットを使用して前記ニューラルネットワークの重みを設定するよう動作する重み設定装置と、
    を有する、請求項12に記載の装置。
  14. 前記装置は、訓練の後に前記ニューラルネットワークを格納するよう動作する、請求項13に記載の装置。
  15. 前記装置は、前記ニューラルネットワークを用いて、複数の過去の時間枠に渡り前記指示子サブセットの中の各々の指示子の値を前記ニューラルネットワークに入力することにより、前記次の時間ステップにおける前記時系列データの前記値を予測するよう動作し、各々の時間枠は、1又は複数の時間ステップを有する、請求項11乃至14のいずれか一項に記載の装置。
JP2017076562A 2016-04-29 2017-04-07 非定常時系列データの予測に用いる方法及び装置 Active JP6907664B2 (ja)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
GB1607565.7A GB2549792A (en) 2016-04-29 2016-04-29 Methods and apparatus for use in predicting non-stationary time-series data
DE102016207467.9 2016-04-29
DE102016207467 2016-04-29
GB1607565.7 2016-04-29
EP16188780.7A EP3239905A1 (en) 2016-04-29 2016-09-14 Methods and apparatus for use in predicting non-stationary time-series data
EP16188780.7 2016-09-14

Publications (2)

Publication Number Publication Date
JP2017199362A true JP2017199362A (ja) 2017-11-02
JP6907664B2 JP6907664B2 (ja) 2021-07-21

Family

ID=56926111

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017076562A Active JP6907664B2 (ja) 2016-04-29 2017-04-07 非定常時系列データの予測に用いる方法及び装置

Country Status (2)

Country Link
EP (1) EP3239905A1 (ja)
JP (1) JP6907664B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113300897A (zh) * 2021-06-16 2021-08-24 中移(杭州)信息技术有限公司 因果关系的识别方法、终端设备及存储介质
WO2023120737A1 (ja) * 2021-12-24 2023-06-29 ダイキン工業株式会社 コンテンツ提案装置
JP2023095780A (ja) * 2021-12-24 2023-07-06 ダイキン工業株式会社 コンテンツ提案装置

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109190808B (zh) * 2018-08-15 2020-11-24 拍拍信数据服务(上海)有限公司 用户行为预测方法、装置、设备及介质
CN111862585B (zh) * 2019-07-23 2021-11-02 北京嘀嘀无限科技发展有限公司 用于交通预测的系统和方法
CN110490392A (zh) * 2019-09-20 2019-11-22 中国银行股份有限公司 网点配钞方法及装置
CN111967687B (zh) * 2020-09-01 2023-08-11 中国银行股份有限公司 银行网点的配钞调整方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08249007A (ja) * 1995-03-08 1996-09-27 Mitsubishi Electric Corp 予測方法及び予測装置
JP2001236337A (ja) * 2000-02-22 2001-08-31 Fuji Electric Co Ltd ニューラルネットワークによる予測装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5761442A (en) * 1994-08-31 1998-06-02 Advanced Investment Technology, Inc. Predictive neural network means and method for selecting a portfolio of securities wherein each network has been trained using data relating to a corresponding security

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08249007A (ja) * 1995-03-08 1996-09-27 Mitsubishi Electric Corp 予測方法及び予測装置
JP2001236337A (ja) * 2000-02-22 2001-08-31 Fuji Electric Co Ltd ニューラルネットワークによる予測装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113300897A (zh) * 2021-06-16 2021-08-24 中移(杭州)信息技术有限公司 因果关系的识别方法、终端设备及存储介质
CN113300897B (zh) * 2021-06-16 2022-10-18 中移(杭州)信息技术有限公司 因果关系的识别方法、终端设备及存储介质
WO2023120737A1 (ja) * 2021-12-24 2023-06-29 ダイキン工業株式会社 コンテンツ提案装置
JP2023095780A (ja) * 2021-12-24 2023-07-06 ダイキン工業株式会社 コンテンツ提案装置

Also Published As

Publication number Publication date
EP3239905A1 (en) 2017-11-01
JP6907664B2 (ja) 2021-07-21

Similar Documents

Publication Publication Date Title
JP6907664B2 (ja) 非定常時系列データの予測に用いる方法及び装置
Martínez et al. A methodology for applying k-nearest neighbor to time series forecasting
Yang et al. Deep learning for price movement prediction using convolutional neural network and long short-term memory
Zhang et al. Short-term wind speed forecasting using empirical mode decomposition and feature selection
Sharma et al. Lévy flight artificial bee colony algorithm
Gupta et al. Resource usage prediction of cloud workloads using deep bidirectional long short term memory networks
Prayogo et al. Optimization model for construction project resource leveling using a novel modified symbiotic organisms search
JP2006221310A (ja) 予測方法、予測装置、予測プログラムおよび記録媒体
Guo et al. Fuzzy time series forecasting based on axiomatic fuzzy set theory
JP6470165B2 (ja) サーバ、システム及び探索方法
Patel et al. A hybrid CNN-LSTM model for predicting server load in cloud computing
CN103678346A (zh) 一种人机识别的方法和系统
Yang et al. A pattern fusion model for multi-step-ahead CPU load prediction
Raghavendra et al. Artificial humming bird with data science enabled stability prediction model for smart grids
Cortez et al. Multi-step time series prediction intervals using neuroevolution
Mangalampalli et al. WBATimeNet: A deep neural network approach for VM Live Migration in the cloud
Vanhoenshoven et al. Fuzzy cognitive maps employing ARIMA components for time series forecasting
JP6470209B2 (ja) サーバ、システム及び探索方法
Villa et al. A continuous time bayesian network classifier for intraday fx prediction
Ricardo et al. Developing machine learning and deep learning models for host overload detection in cloud data center
Yeh et al. Coal price prediction using financial indices
JP6468653B2 (ja) 予測モデル構築装置
Abdullah et al. An interleaved artificial bee colony algorithm for dynamic optimisation problems
Liang Combining seasonal time series ARIMA method and neural networks with genetic algorithms for predicting the production value of the mechanical industry in Taiwan
GB2549792A (en) Methods and apparatus for use in predicting non-stationary time-series data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210601

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210614

R150 Certificate of patent or registration of utility model

Ref document number: 6907664

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150