JP6998498B1 - 情報処理装置、及びプログラム - Google Patents

情報処理装置、及びプログラム Download PDF

Info

Publication number
JP6998498B1
JP6998498B1 JP2021535264A JP2021535264A JP6998498B1 JP 6998498 B1 JP6998498 B1 JP 6998498B1 JP 2021535264 A JP2021535264 A JP 2021535264A JP 2021535264 A JP2021535264 A JP 2021535264A JP 6998498 B1 JP6998498 B1 JP 6998498B1
Authority
JP
Japan
Prior art keywords
machine learning
information
input data
learning models
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021535264A
Other languages
English (en)
Other versions
JPWO2022003793A1 (ja
Inventor
ルーシャン ユージーン ウォン
ブリューノ アンドレ シャロン
卓志 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Group Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Group Inc filed Critical Rakuten Group Inc
Priority to JP2021206546A priority Critical patent/JP7245314B2/ja
Publication of JPWO2022003793A1 publication Critical patent/JPWO2022003793A1/ja
Application granted granted Critical
Publication of JP6998498B1 publication Critical patent/JP6998498B1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

情報処理装置1が、入力データの入力を受けて所定の推定情報を出力する機械学習モデルであって、機械学習のパラメータを互いに異ならせて設定した2以上の整数N個の機械学習モデルに係る情報を保持し、機械学習モデルに入力する入力データを受け入れ、当該受け入れた入力データを用いて、機械学習モデルの各々に機械学習させ、機械学習モデルの各々を評価した評価情報を取得する。そして当該評価情報に基づいて、N個の機械学習モデルのうち、n個の機械学習モデルを選択して、当該選択された複数の機械学習モデルを用いた所定の推定処理を実行する情報処理装置1である。

Description

本発明は、機械学習モデルを用いる情報処理装置、及びプログラムに関する。
複数のニューラルネットワークなどからなる複数の機械学習モデルの各々に、互いに異なるランダムシードを設定して、当該複数の機械学習モデルのアンサンブル処理により得られる推定結果の精度を向上させる技術が知られている(例えば、特許文献1)。
国際公開第2019/171416号
一方で、機械学習モデルに設定するシードを変更するごとに、機械学習モデルの出力結果が大きく変化してしまう場合があることが知られている。このような場合、機械学習モデルの開発者は、機械学習モデルの出力の安定性を担保するため、機械学習モデル自体を調整し、当該調整した機械学習モデルの検証を行うといった作業を繰り返し行わなければならない。
このことは上記従来例の、互いに異なるランダムシードを設定した複数の機械学習モデルのアンサンブル処理を行う場合でも同様である。すなわち、複数の機械学習モデル間で出力である推定結果のばらつきが大きいときには、所望の推定精度を達成できない可能性があり、機械学習モデルの再調整および再検証が必要になり、したがって、開発に負担がかかるという問題があった。
本発明は上記実情に鑑みてなされたものであり、機械学習モデルの調整や検証の必要を低減しつつ、複数の機械学習モデルのアンサンブル処理により得られる推定結果の精度を向上できる情報処理装置、及びプログラムを提供することを、その目的の一つとする。
上記従来例の問題点を解決するための本発明の一態様は、情報処理装置であり、入力データの入力を受けて所定の推定情報を出力する機械学習モデルであって、機械学習のパラメータを互いに異ならせて設定した2以上の整数N個の機械学習モデルに係る情報を保持する保持手段と、前記機械学習モデルに入力する入力データを受け入れ、当該受け入れた入力データを用いて、前記機械学習モデルの各々に機械学習させる学習処理手段と、前記機械学習モデルの各々を評価した評価情報を取得する評価取得手段と、前記取得した評価情報に基づいて、前記N個の機械学習モデルのうち、2以上かつ前記N未満の整数n個の機械学習モデルを選択する選択手段と、を含み、当該選択された複数の機械学習モデルを用いた所定の推定処理を実行することとしたものである。
本発明によると、機械学習モデルの調整や検証の必要を低減しつつ、複数の機械学習モデルのアンサンブル処理により得られる推定結果の精度を向上できる。
本発明の実施の形態に係る情報処理装置の構成例を表すブロック図である。 本発明の実施の形態に係る情報処理装置の例を表す機能ブロック図である。 本発明の実施の形態に係る情報処理装置による機械学習処理の例を表すフローチャート図である。 本発明の実施の形態に係る情報処理装置による機械学習モデルの設定処理例を表すフローチャート図である。 本発明の実施の形態に係る情報処理装置によるアンサンブル処理の例を表すフローチャート図である。 本発明の実施の形態に係る情報処理装置が生成する情報の例を表す説明図である。 本発明の実施の形態に係る情報処理装置によるもう一つの機械学習モデルの設定処理例を表すフローチャート図である。
本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る情報処理装置1は、図1に例示するように、制御部11、記憶部12、操作部13、表示部14、及び通信部15を含む一般的なコンピュータ装置を用いて実現できる。
以下の説明では、株式の動向を情報処理装置1により推定する例について説明するが、この例は一例であり、この情報処理装置1は、他の情報の推定にも適用できる。
制御部11は、CPU等のプログラム制御デバイスであり、記憶部12に格納されたプログラムを実行する。本実施の形態では、この制御部11は、入力データの入力を受けて所定の推定情報を出力するN個の機械学習モデルを記憶部12に保持する。ここでNは、3以上の整数とする。これら複数の機械学習モデルは、後述のように、機械学習のパラメータを互いに異ならせて設定するものとする。
またこの制御部11は、当該複数の機械学習モデルに入力する入力データを受け入れ、当該受け入れた入力データを用いて、機械学習モデルの各々に機械学習させる。制御部11は、複数の機械学習モデルの各々を評価した評価情報を取得し、当該取得した評価情報に基づいて、N個の機械学習モデルのうち、n個の機械学習モデルを選択する。ここでnは、2以上かつN未満の整数とする。
そして制御部11は、当該選択された複数の機械学習モデルを用いた所定の推定処理を実行する。この制御部11の詳しい動作については後に説明する。
記憶部12は、メモリデバイスやディスクデバイス等であり、制御部11によって実行されるプログラムを保持する。本実施の形態ではこのプログラムは、コンピュータ可読かつ非一時的な、DVD等の記録媒体に格納されて提供され、この記憶部12に格納されたものであってもよい。またこの記憶部12は、制御部11のワークメモリとしても動作する。
操作部13は、マウスやキーボード等であり、利用者の指示操作を受け入れて、当該指示操作の内容を表す情報を、制御部11に出力する。表示部14は、ディスプレイ等であり、制御部11が出力する指示に従って情報を表示する。
通信部15は、ネットワークインタフェース等であり、制御部11が出力する指示に従い、ネットワークを介して接続されるサーバ等に対して情報を送出する。また、この通信部15は、ネットワークを介して接続されるサーバ等から情報を受信して制御部11に出力する。
次に制御部11の動作について説明する。本実施の形態では、制御部11は、記憶部12に格納されたプログラムを実行することで、図2に例示するように、機能的に、機械学習モデル設定部21と、学習処理部22と、評価取得部23と、選択部24と、アンサンブル処理部25とを含む構成を実現する。
機械学習モデル設定部21は、所定の推定情報を出力するN個の機械学習モデルに対し、機械学習のパラメータを設定して、当該機械学習モデルに係る情報を記憶部12に保持する。ここでNは、3以上の整数とする。本実施の形態の一例では、機械学習モデル設定部21は、機械学習のパラメータとして、機械学習モデルに係る情報のシードを、互いに異ならせて設定する。
ここで機械学習モデルに係る情報のシードは、機械学習モデルを特徴づける量であり、例えば機械学習モデルが多層のニューラルネットワークからなるモデルである場合は、当該層間の重みやバイアス値等の初期値である。つまり、本実施の形態の一例では、機械学習モデル設定部21は、N個の機械学習モデルのそれぞれとして多層のニューラルネットワークからなるモデルを設定し、それぞれの層間の重みやバイアス値等の初期値を例えばランダムに設定して、互いに異なるシードとする。
本実施の形態の一例では、情報処理装置1のN個の機械学習モデルに入力される入力データは、例えば複数の特徴量を含む。ここでの例では、複数の特徴量が複数の国のインデックス(株価指数情報)に基づいて算出されるものとする。具体的に入力データは所定の次元のベクトル量であり、複数の特徴量を反映した所定次元のベクトルを入力データとして生成する方法は、機械学習の技術において広く知られた種々の方法を採用できるので、ここでの詳しい説明は省略する。
ここでは推定の対象とする市場のインデックスに加えて、または当該インデックスに代えて、他国のインデックスも用いる。これは、推定の対象とする市場が閉じている間も変化している他国のインデックスデータに基づく特徴量を入力データに含めることで、予測精度を向上できると考えられるためである。
学習処理部22は、機械学習モデル設定部21が設定したN個の機械学習モデルのそれぞれについて入力データと、当該入力データに対応する正解データとを用いて機械学習処理を実行する。
すなわち学習処理部22は、互いに異なるシードが設定されたN個の機械学習モデルのそれぞれに入力データを入力し、その出力と、当該入力データに対応する正解データとの比較の結果に基づいて、対応する機械学習モデルのノード間の重みやバイアス情報をバックプロパゲーションにより更新する。ここでN個の機械学習モデルに入力する入力データは、いずれも共通のものとしてよい。
ここでの例では、ある日付Dにおける日本での市場開場前までの複数国の市場のインデックスに基づく特徴量により入力データを機械学習モデルに入力することとする。そしてこの例では学習処理部22の出力と対応する正解データとは、例えば、当該日付Dにおける日経平均株価(以下「N225」という)の始値に対する終値の比など、所定のインデックスの実際の値に基づくデータを正解データとする。以下、インデックスの始値に対する終値の比を、当該インデックス情報の変化率と呼ぶ。なお、ここで推定し、あるいは正解データとする変化率は、始値に対する高値や安値の比としてもよい。
評価取得部23は、予め定めた評価のタイミングが到来すると、学習処理部22にて機械学習処理したN個の機械学習モデルのそれぞれを評価した評価情報Vを取得する。具体的にここで評価取得部23は、学習処理部22での機械学習処理が終了したと判断されるタイミングで、機械学習処理されたN個の機械学習モデルのそれぞれを評価した評価情報Vを生成する。
この評価情報Vは、例えば広く知られた推定精度、すなわちAccuracyや、適合率、すなわちPrecisionなどの評価値でよい。一例として本実施の形態の上述の例のように、N225の変化率等のインデックスに関する推定を行う場合、当該インデックスの始値に対する終値の比である変化率を、どの程度の精度で正しく推定できたかを表す値、つまり正解率、あるいは勝率を、推定精度とする。
選択部24は、評価取得部23が取得した評価情報Vに基づく所定の条件を用いて、N個の機械学習モデルのうちから、n個の機械学習モデルを選択する。ここでnは2以上かつN未満の整数である。例えば選択部24は、当該評価情報Vが互いにばらつかず、また、評価情報Vの評価が十分高いと判断されるn個の機械学習モデルを選択することとすればよい。
本実施の形態の一例では、選択部24は、N個の機械学習モデルのそれぞれの推定精度を表す評価情報Vを、降順に、つまり高評価なものから順に配列する。そして選択部24は、推定精度を表す評価情報Vが高評価である上位n個の機械学習モデルを選択する。
アンサンブル処理部25は、当該選択されたn個の機械学習モデルを用いて所定の推定処理を実行する。本実施の形態の例では、アンサンブル処理部25は、推定の対象の日付以前の日付Dに得られた複数の種類のインデックス情報を受け入れて、機械学習の処理の際と同様に、選択されたn個の機械学習モデルのそれぞれに入力する入力データを生成する。
アンサンブル処理部25は、選択したn個の機械学習モデルに対して、当該生成した入力データをそれぞれ入力し、各機械学習モデルによる推定の結果を得る。ここで推定の結果は例えば上述のように、機械学習時に正解データとして入力された国のインデックス情報に関わる情報である。本実施の形態の一例では、アンサンブル処理部25は、ある日付Dの日本での市場開場直前までの各国のインデックス情報に基づいて当該日付DにおけるN225の変化率を推定する。そしてアンサンブル処理部25は、当該推定したN225の変化率に基づいて得られる、「買い」、「売り」、「N/A(No Action、何もしない)」のいずれかの取引サインを出力する。
具体的に、アンサンブル処理部25は、選択されたn個の機械学習モデルによる個々の推定の結果を用い、推定されたN225の変化率が、所定の第一しきい値以上であれば「買い」の取引サインを出力する。またアンサンブル処理部25は、推定されたN225の変化率が、所定の第二しきい値以下であれば、「売り」の取引サインを出力する。さらにアンサンブル処理部25は、推定されたN225の変化率が、上記第一しきい値未満であり、第二しきい値より大きい場合は、「N/A」の取引サインを出力する。ここで第一しきい値は、0より大きい割合を表す数値、例えば+1%、あるいは+0.1%などとし、第二しきい値は例えば、0より小さい割合を表す数値、例えば-1%、あるいは-0.1%などとする。これらのしきい値は、経験的、あるいは実験的に定めるものとする。
[動作]
次に、本実施の形態の例に係る情報処理装置1の動作例について説明する。以下の例では、日本の経済指標の一つであるN225に連動するインデックスファンドを購入するか否かを決定するため、本日の日本市場開場の午前9時よりも前に、本日の日本市場開場後のN225に関わる値、例えばその変化率を推定し、本日の午前9時から午後3時までの日本市場開場中にするべき取引を表す「買い」、「売り」、「N/A」のいずれかの取引サインを出力する例について説明する。
本実施の形態の一例では、情報処理装置1は、機械学習処理の段階において、図3に例示するように、まず複数の機械学習モデルを設定する処理を行う(S11)。
具体的にこの処理の内容を図4に例示する。本実施の形態の一例では、情報処理装置1は、複数の機械学習モデルを設定する処理として、機械学習処理のための入力データのもととなる複数のインデックス情報を決定する(S111)。このステップS111において、情報処理装置1は、日本との間で取引の多い複数の国の市場のインデックス情報を、入力データのもととなる情報として決定する。なお、このステップでは、利用者から入力データのもととなるインデックス情報を指定する情報の入力を受けて、当該入力された情報により、機械学習処理のための入力データのもととなる複数のインデックス情報を決定してもよい。
情報処理装置1は、過去の複数の日付Diの日本市場の開場前の、上記ステップS111で決定した複数のインデックス情報IA,IB,IC…を取得する(S112)。ここでiはi=1,2,…なる自然数とする。また、インデックス情報IA,IB,IC…は、上記選択された各国の市場の値動きを表す情報である株価指数情報であり、例えばドイツのDAXインデックス、オランダのAEXインデックス、アメリカのINDUインデックス(ダウ平均株価)等の情報が相当する。これらの情報は、一般にネットワークを介して取得される。
またこのステップS112では、情報処理装置1は、推定の対象となるN225の、上記複数の日付以降に開場する所定の市場での変化率を、新たな正解データとして取得する。
情報処理装置1は、取得した複数のインデックス情報Iごとに、特徴量を得る(S113)。本実施の形態では、情報処理装置1は、インデックス情報Iの、日付Diの日本市場開場以前の日付Di′における
(a)始値に対する終値の比(%)、
(b)高値に対する終値の比(%)、
(c)安値に対する終値の比(%)、及び、
(d)当該日付Di′の前日の終値に対する、日付Diの始値の比(%)、
(e)日付Di′の前日の終値に対する、日付Diの終値の比(%)、
(f)日付Di′におけるボラティリティ、
のそれぞれを表す特徴量を算出する。
情報処理装置1は、次に、互いに異なるシードに設定した、複数の機械学習モデルを設定する(S114)。具体的にここでは情報処理装置1は、32個の機械学習モデルをそれぞれ互いに異なるシードで初期化して、記憶部12に格納する。
既に述べたように、ここでの機械学習モデルは、例えば多層のニューラルネットワークからなるモデルであり、情報処理装置1は、所定の方法により、各機械学習モデルの各層のノード間の重みやバイアス値等の初期値を、互いに異ならせて、例えばそれぞれランダムに定める。
情報処理装置1は、図3のステップS12に戻り、ここで設定した32個の機械学習モデルのそれぞれの機械学習処理を実行する(S12)。
このステップS12では情報処理装置1は、ステップS114で設定した32個の機械学習モデルのそれぞれについて、ステップS113で得た、日付Diにおける特徴量を用いて入力データを生成する。そして情報処理装置1は、当該生成した入力データと、当該入力データに対応する正解データとを用いて機械学習処理を実行する。
ここでは、情報処理装置1は生成した入力データを、各機械学習モデルに入力する。情報処理装置1は、入力データの入力を受けた機械学習モデルの出力と、当該入力データに対応する正解データとの差を求める。そして情報処理装置1は、当該差に基づいて機械学習モデルのノード間の重みやバイアス情報をバックプロパゲーションにより更新する。このバックプロパゲーションの処理については広く知られているので、ここでの詳しい説明は省略する。
情報処理装置1は、ステップS12で機械学習した32個の機械学習モデルのそれぞれについて、推定精度を表す評価情報Vを生成する(S13)。そして情報処理装置1は、32個の機械学習モデルのそれぞれの推定精度を表す評価情報Vを、降順に、つまり高評価なものから順に配列し、その上位n個、例えば4個の機械学習モデルを選択する(S14)。
情報処理装置1は、ステップS14で選択したn個の機械学習モデルをそれぞれ特定する情報を出力する(S15)。
以下、情報処理装置1は、選択された複数個の機械学習モデルを利用して推定を行う推定処理を実行する。この処理では図5に例示するように、情報処理装置1は、推定の対象とする市場の開場前に得られたインデックス情報IA,IB…を受け入れ、機械学習の処理において選択されたn個の機械学習モデルに入力する入力データを生成する。
情報処理装置1は、得られた入力データを、選択されたn個の機械学習モデルにそれぞれ入力して、各機械学習モデルの推定結果を得る(S21)。
本実施の形態のここでの例では、各機械学習モデルはN225の変化率を推定するよう機械学習された状態にあるので、情報処理装置1が得る機械学習モデルの推定結果は、対象とする市場の開場後におけるN225の変化率を推定したものとなる。
そして情報処理装置1は、各機械学習モデルのアンサンブル処理を実行する。具体的に情報処理装置1は、各機械学習モデルが推定したそれぞれのN225の変化率に基づいて、例えば、推定したN225変化率が、所定の第一のしきい値以上となっている場合「買い」とし、所定の第二のしきい値以下となっていれば「売り」とする取引サインを得る。また、情報処理装置1は、推定したN225変化率が、第一のしきい値未満であり、かつ第二のしきい値より大きいならば、「N/A」とする取引サインを得る。
情報処理装置1は、こうして各機械学習モデルから得られた個々の推定の結果に対応して、それぞれ上記「買い」、「売り」、「N/A」の取引サインを得る。情報処理装置1は、「買い」、「売り」、「N/A」の取引サインの数をそれぞれ累算し、累算値が最も大きい取引サインを、出力する取引サインとして決定する(S22)。これはつまり、多数決により出力する取引サインを決定することを意味する。なお、「買い」の取引サインの数と「売り」の取引サインの数とが同数であり、かつその数が「N/A」の取引サインの数よりも多い場合には、情報処理装置1は、出力する取引サインとして「N/A」の取引サインを決定してもよい。そして情報処理装置1は、このステップS22で決定した取引サインを出力して、ユーザに提示する(S23)。
ユーザはこの取引サインを参照して、取引の設定を行うこととすればよい。あるいは、情報処理装置1は、ステップS22で得た取引サインに基づき、人為的操作なしに、所定の時刻、例えば15時に取引を行ってもよい。具体的に情報処理装置1は、ステップS22において「買い」の取引サインが得られた場合は、15時にN225に連動するファンドを所定単位だけ購入する注文を行う。また、情報処理装置1は、ステップS22において「売り」の取引サインが得られた場合は、15時にN225に連動するファンドを所定単位だけ売却する注文を行う。さらに情報処理装置1は、ステップS22において「N/A」の取引サインが得られた場合は、終日、人為的操作なく取引を行わない。
このように、本実施の形態の情報処理装置1は、それぞれ互いに異なる機械学習のパラメータで機械学習したN個の機械学習モデルを用いている。そして情報処理装置1は、機械学習の評価結果が比較的近く、かつ評価の高い所定数個の機械学習モデルを選択する。情報処理装置1は、当該選択した機械学習モデルのアンサンブル処理を行う。これより、本実施の形態の情報処理装置1は、推定結果のばらつきを抑えて、機械学習モデルの調整や検証の必要を低減できる。また、本実施の形態の情報処理装置1は、複数の機械学習モデルのアンサンブル処理により得られる推定結果の精度を向上できる。
[シードの決定処理の変形例]
ここまでの説明では、機械学習モデル設定部21が設定するN個の機械学習モデルのシードを互いに異なるものとするため、それぞれランダムに設定することとしていた。しかしながら、本実施の形態においては、N個の機械学習モデルのシードを単にランダムにするのではなく、次のようにして互いに異なるものとしてもよい。
本実施の形態の一例では、機械学習モデルは多層のニューラルネットワークからなるモデルである。この場合、機械学習モデル設定部21により設定されたシードは、ニューラルネットワークの各層間の重み及びバイアスの初期値を初期化する。以下、第i番目の機械学習モデルにおける第j層と第j+1層との間の重みのベクトルをWi,j、バイアスをbi,jと書くこととする。
機械学習モデル設定部21は、N個の機械学習モデルのシードを互いに異ならせる。ただし、機械学習モデル設定部21は、各機械学習モデルのシードの一部が他の機械学習モデルのシードの一部と共通となるようにしておく。すなわち、機械学習モデル設定部21は、どのiについてもWi,j、bi,jの一部の値がWi',j、bi',jの値と等しくなるように設定する。ここでi′≠iである。
このようなシードを設定するため、機械学習モデル設定部21は、例えば次のように処理を行う。機械学習モデル設定部21は、N個の機械学習モデルのうち、第1番目の機械学習モデルの各層間の重みW1,jとバイアスb1,jをランダムに設定する。
機械学習モデル設定部21は、第2番目の機械学習モデルの各層間の重みW2,jとバイアスb2,jの一部、例えば第1層と第2層との間の重みW2,1とバイアスb2,1を、第1番目の機械学習モデルの対応する層間の重みW1,1とバイアスb1,1を複写して設定する。また、機械学習モデル設定部21は、複写した重みとバイアス以外の層間の重みW2,kとバイアスb2,k(k=2,3,…)を、ランダムに設定する。
以下、機械学習モデル設定部21は、第i番目の機械学習モデルの各層間の重みWi,jとバイアスbi,jの一部である、第m層とその次の第m+1層との間の重みWi,mとバイアスbi,mを、第i-1番目の機械学習モデルの対応する層間の重みWi-1,mとバイアスbi-1,mを複写して設定する。ここでiは2以上の整数であり、m=(i+1) mod (M-1)+1とする。なお、Mは機械学習モデルの層の数、a mod bは、aをbで除した余りを意味する。つまり、mは、iが1ずつ大きくなるごとに、m=1,2,…M-1,1,2…と繰り返す値となる。また機械学習モデル設定部21は、第i番目の機械学習モデルの各層間の重みとバイアスのうち、上記複写した重みとバイアス以外のものについてはランダムに決定する。
このようにすると、第i番目の機械学習モデルの、ある層間の重みとバイアスが、第i-1番目の機械学習モデルの対応する層間の重みとバイアスと同一となり、他の層間の重みとバイアスについては異ならされることとなる。
この例によると、一部のシードのみが重なる複数の機械学習モデルが設定されることとなり、学習処理の結果は互いに異なりつつ、類似した出力を行う機械学習モデルを得ることが期待される。
なお、ここで説明したシードの設定例は一例である。機械学習モデル設定部21の動作は、
・N個の機械学習モデルのシードが互いに異なること、
・各機械学習モデルのシードの少なくとも一部が他の機械学習モデルのシードと共通となるように設定されること、
の条件を満足できれば、どのようなものでもよい。
[機械学習のパラメータの他の例]
また本発明の実施の形態における機械学習パラメータは、機械学習モデル設定部21が設定するN個の機械学習モデルのシードに限られない。本発明の実施の形態における機械学習パラメータは、機械学習モデルに入力する入力データの種類であってもよい。
この例では、機械学習モデル設定部21は、入力データのもととなる情報として、複数の種類の情報を用いる。一例として機械学習モデル設定部21は、互いに異なる国の市場に係る複数のインデックス情報から、互いに異なる1つ以上のインデックス情報を選択し、当該選択したインデックス情報の組み合わせを、予め定めた数X通りだけ作成する。
また機械学習モデル設定部21は、選択したインデックス情報のそれぞれに基づいて複数の特徴量を算出する。そして機械学習モデル設定部21は当該算出した複数の特徴量のうち、少なくとも一部を選択して、当該選択した特徴量の組み合わせを、予め定めた数Y通りだけ作成する。ここでは、一例として、これらX,Yの積、X×Yが、機械学習モデルの数Nに等しくなるようにしておくものとする。
機械学習モデル設定部21は、このX×Y=N通りの特徴量の組み合わせを、N個の機械学習モデルのそれぞれの入力データとして、N個の機械学習モデルの機械学習処理に利用する。ここで特徴量のN通りの組み合わせは、人為的操作を受けることなく所定の条件に基づいて機械学習モデル設定部21が作成してもよいし、利用者が明示的に指定した組み合わせを利用して機械学習モデル設定部21が作成してもよい。
この機械学習モデル設定部21の動作をさらに具体的な例を用いて説明する。本実施の形態の一例では、情報処理装置1は、入力データのもととなる情報として、過去の複数の日付D1,D2,…におけるインデックス情報IA(D1),IA(D2),…IB(D1),IB(D2)…,Ii(Dk),…を受け入れる。ここで、それぞれのインデックス情報Ii(Dk)について、
(a)始値に対する終値の比(%)、
(b)高値に対する終値の比(%)、
(c)安値に対する終値の比(%)、及び、
(d)当該日付Dkの前日の終値に対する、日付Dkiの始値の比(%)、
(e)日付Dkの前日の終値に対する、日付Dkの終値の比(%)、
(f)日付Dkにおけるボラティリティ、
など複数種類の特徴量が算出される。
つまり、ここでは上記6種類の特徴量をそれぞれ算出するために、複数のインデックス情報IA,IB,IC…を、制御部11が受け入れるものとする。上述の例では、制御部11は、過去の複数の日付D1,D2,…ごとに、インデックス情報Iの数×6種類の特徴量を算出することとなる。なお、上記(d),(e)において前日の終値と、その翌日の市場の情報との比を求めているのは、他国の取引の状況を受けて、市場の閉場中であってもインデックス情報が変化することがあることを考慮したものである。
また機械学習モデル設定部21は、日付Dkにおける1つ以上の第1のインデックス情報Ii(Dk)に基づいて算出される特徴量を含む入力データに対応する正解データとして、当該日付Dk以降の日付における第2のインデックス情報に関係する情報を取得する。ここで第2のインデックス情報は、機械学習モデルによる推定の対象となる国のインデックス情報とし、第1のインデックス情報は、当該推定の対象となる国とは異なる国のインデックス情報を含むものとする。
そして機械学習モデル設定部21は、図6に例示するように、インデックス情報IA,IB,IC,ID…のうちから一部を選択して、当該選択したインデックス情報を組み合わせることで、複数通りの互いに異なるインデックス情報の組み合わせxを作成する。さらに機械学習モデル設定部21は、インデックス情報の組み合わせのそれぞれに基づいて算出される、特徴量の種類(a)ないし(f)の組み合わせyを複数列挙する。図6の例では、
組み合わせ1:(a,b,c)
組み合わせ2:(a,b,c,f)
組み合わせ3:(a,b,c,d,f)
組み合わせ4:(a,b,c,e,f)
がそれぞれ列挙されているものとしている。なお、図6では、後に説明する、各インデックス情報の組み合わせと、特徴量の種類の組み合わせとを掛け合わせて特徴量の組み合わせを複数通り設定しており、また、当該複数通りの特徴量の組み合わせのそれぞれに基づく入力データを入力して機械学習した機械学習モデルの評価情報Vも示している。この評価情報Vについては後に述べる。
機械学習モデル設定部21は、ここで用意したX通りのインデックス情報の組み合わせと、Y通りの特徴量の種類との組み合わせとからなるX×Y=N通りの特徴量の組み合わせのそれぞれに対応するN個の機械学習モデルを初期化して、記憶部12に格納する。
この例でも機械学習モデルは、例えば多層のニューラルネットワークからなるモデルでよく、ここでは各層のノード間の重みとバイアス情報とのシードを、例えばランダムな値に設定することが、ここでの機械学習モデルの初期化に相当する。またこの初期化の方法は広く知られた方法を採用できる。
学習処理部22は、機械学習モデル設定部21が設定したN個の機械学習モデルのそれぞれについて対応する入力データと、当該入力データに対応する正解データとを用いて機械学習処理を実行する。
すなわち学習処理部22は、N個の機械学習モデルのうち、第1番目の機械学習モデルについては、各日付D1,D2,…のインデックス情報IA,IB,IC,IHのそれぞれについての上記組み合わせ1に係る種類の特徴量(a),(b),(c)を含む入力データを、対応する入力データとする。
また学習処理部22は、当該入力データを入力したときの第1番目の機械学習モデルの出力を得て、日付Diに係る入力データを第1番目の機械学習モデルに入力して得られた出力と、日付Diに係る入力データに対応する正解データとを比較して、当該比較の結果に基づいて、第1番目の機械学習モデルのノード間の重みやバイアス情報をバックプロパゲーションにより更新する。
学習処理部22は、第j番目の機械学習モデルについても同様に、当該第j番目の機械学習モデルに対応する入力データを入力し、その出力と、当該入力データに対応する正解データとの比較の結果に基づいて、第j番目の機械学習モデルのノード間の重みやバイアス情報をバックプロパゲーションにより更新する。ここでj=2,3…Nである。
評価取得部23は、予め定めた評価のタイミングが到来すると、学習処理部22にて機械学習処理したN個の機械学習モデルのそれぞれを評価した評価情報Vを取得する。具体的にここで評価取得部23は、学習処理部22での機械学習処理が終了したと判断されるタイミングで、機械学習処理されたN個の機械学習モデルのそれぞれを評価した評価情報Vを生成する。
この評価情報Vは、例えば広く知られた推定精度、すなわちAccuracyや、適合率、すなわちPrecisionなどの評価値でよい。一例として本実施の形態の上述の例のように、所定のインデックスに関する推定を行う場合、当該所定のインデックスの始値に対する終値の変化率をどの程度正しく推定できたかを表す値、つまり正解率、あるいは勝率を、推定精度とする。
この評価取得部23の動作により、本実施の形態の情報処理装置1は、図6に例示したように、行方向にX通りのインデックス情報の組み合わせxを配列し、列方向に組み合わせに係るインデックス情報のそれぞれに基づいて算出されるY通りの特徴量の種類の組み合わせyを配列した、X×Y=N個の評価情報Vを得る。この評価情報Vの各々は、N個の機械学習モデルのそれぞれの評価情報となっている。
選択部24は、評価取得部23が取得した評価情報Vに基づく所定の条件を用いて、N個の機械学習モデルのうちから、n個の機械学習モデルを選択する。ここでnは2以上かつN未満の整数である。
本実施の形態の一例では、選択部24は、N個の機械学習モデルのそれぞれの推定精度を表す評価情報Vを、降順に、つまり高評価なものから順に配列する。そして選択部24は、推定精度を表す評価情報Vが高評価である上位n個の機械学習モデルを選択する。
アンサンブル処理部25は、当該選択されたn個の機械学習モデルを用いて所定の推定処理を実行する。本実施の形態の例では、アンサンブル処理部25は、推定の対象の日付以前の日付Dに得られたインデックス情報IA(D),IB(D)…を受け入れて、機械学習の処理の際と同様に、選択されたn個の機械学習モデルのそれぞれについて対応する入力データを生成する。
例えば推定の対象の日付の前日及び前々日のインデックス情報IA,IB,IC,IHから、それぞれに含まれる特徴量(a),(b),(c)を抽出し、当該抽出した特徴量の組み合わせに基づく入力データを用いて機械学習した機械学習モデルL1と、インデックス情報IA,IB,IC,IHから、それぞれに含まれる特徴量(a),(b),(c),(f)を抽出し、当該抽出した特徴量の組み合わせに基づく入力データを用いて機械学習した機械学習モデルL2とが選択されているとする。この場合、アンサンブル処理部25は、上記機械学習モデルL1に対しては、推定の対象の日付以前の日付Dにおけるインデックス情報IA(D),IB(D),IC(D),IH(D)のそれぞれから特徴量(a),(b),(c)を抽出し、当該抽出した特徴量に基づいて入力データを生成する。
また、機械学習モデルL2に対しては、推定の対象の日付以前の日付Dに得られたインデックス情報IA(D),IB(D),IC(D),IH(D)のそれぞれから特徴量(a),(b),(c),(f)を抽出し、当該抽出した特徴量に基づいて入力データを生成する。
アンサンブル処理部25は、以下同様に選択した機械学習モデルに対して、当該機械学習モデルを機械学習する際に用いたものと同じ種類の情報を抽出する。つまりここでの例では、アンサンブル処理部25は、機械学習の際に用いた国のインデックス情報と同じ国のインデックス情報から同じ種類の特徴量を抽出する。そしてアンサンブル処理部25は、当該抽出した特徴量に基づいて入力データを生成する。
アンサンブル処理部25は、選択した機械学習モデルに対して、対応して生成した入力データをそれぞれ入力し、各機械学習モデルによる推定の結果を得る。ここで推定の結果は例えば上述のように、機械学習時に正解データとして入力された国のインデックス情報であり、具体的には上記日付Dの翌日のN225の変化率である。そしてアンサンブル処理部25は、当該推定の結果である変化率に基づいて、「買い」、「売り」、「N/A(No Action、何もしない)」の取引サインのいずれかを選択して出力する。
具体的に、アンサンブル処理部25は、選択されたn個の機械学習モデルによる個々の推定の結果を用い、推定されたN225の変化率が、所定の第一しきい値以上であれば「買い」の取引サインを出力する。またアンサンブル処理部25は、推定されたN225の変化率が、所定の第二しきい値以下であれば、「売り」の取引サインを出力する。さらにアンサンブル処理部25は、推定されたN225の変化率が、上記第一しきい値未満であり、第二しきい値より大きい場合は、「N/A」の取引サインを出力する。ここで第一しきい値は、0より大きい割合を表す数値、例えば+1%、あるいは+0.1%などとし、第二しきい値は例えば、0より小さい割合を表す数値、例えば-1%、あるいは-0.1%などとする。これらのしきい値は、経験的、あるいは実験的に定めるものとする。
アンサンブル処理部25は、各機械学習モデルから得られた個々の推定の結果に対応して、それぞれ上記「買い」、「売り」、「N/A」の取引サインを得る。そしてアンサンブル処理部25は、これらのうち最も数の多く得られた取引サインを出力する。
もっとも、ここで説明したアンサンブル処理部25の処理は一例であり、この他の方法、例えば、各機械学習モデルによる個々の推定の結果を平均してN225の変化率の推定値とし、当該推定値が本日開場時のN225に比べ所定の第一しきい値以上であれば「買い」とし、所定の第二のしきい値以下であれば「売り」とする取引サインを出力することとしてもよい。またこの例でも上記推定値が、所定の第一しきい値未満であり、第二しきい値より大きい場合は「N/A」とする取引サインを出力する。
[選択の処理例]
またここまでの例において、機械学習処理の際に、推定の処理に用いる機械学習モデルを選択する方法として、それぞれ互いに異なる機械学習のパラメータで機械学習したN個の機械学習モデルの評価情報Vを得て、当該評価情報Vの順に配列し、その上位n個の機械学習モデルを選択することとしていた。しかし、本実施の形態における選択の方法はこの方法に限られない。
例えば、情報処理装置1は、インデックス情報を問わず、特徴量の組み合わせが同じである入力データを入力した機械学習モデルの評価情報Vとしての評価値の平均値、中央値、あるいは最大値などの統計量を求める。情報処理装置1は、ここで求めた統計量が、もっとも評価の高いものであることを表している特徴量の組み合わせを見出す。
具体的に図3に例示した評価情報Vであれば、
特徴量の種類の組み合わせ(a,b,c)について、その評価値の平均52.05、標準偏差1.23
組み合わせ(a,b,c,f)について、評価値の平均53.46、標準偏差1.72
組み合わせ(a,b,c,d,f)について、評価値の平均52.36、標準偏差0.70
組み合わせ(a,b,c,e,f)について、評価値の平均51.77、標準偏差0.69
といった統計量が得られる。情報処理装置1はこの統計量を用いて、標準偏差が所定値(例えば、標準偏差の平均値)を下回り、かつ、評価値の平均値が最も高いなどの条件で、一つの特徴量の種類の組み合わせを選択する。ここでの例では、以上の条件から、組み合わせ(a,b,c,d,f)が選択される。
そして情報処理装置1は、インデックス情報を問わず、特徴量の種類(a,b,c,d,f)の組み合わせに基づく入力データにて機械学習処理した機械学習モデルを選択することとしてもよい。
また別の例では、情報処理装置1は、特徴量の種類の組み合わせを問わず、インデックス情報の組み合わせが同じである入力データを入力した機械学習モデルの評価情報Vとしての評価値の平均値、中央値、あるいは最大値などの統計量を求める。情報処理装置1は、ここで求めた統計量が、もっとも評価の高いものであることを表しているインデックス情報の組み合わせを見出す。
図3に例示した評価情報Vであれば、
(1)インデックス情報IA,IB,IC,IHの組み合わせ
(2)インデックス情報IA,IB,IC,IF,IHの組み合わせ

(8)インデックス情報IA,IB,IC,ID,IE,IF,IG,IH,IIの組み合わせのそれぞれに係る評価値について、
(1) 平均51.79、標準偏差0.90
(2) 平均51.98、標準偏差0.58
(3) 平均52.62、標準偏差0.89
(4) 平均51.81、標準偏差1.20
(5) 平均53.43、標準偏差0.39
(6) 平均51.69、標準偏差0.31
(7) 平均53.23、標準偏差2.91
(8) 平均52.72、標準偏差0.80
といった統計量が得られる。情報処理装置1はこの統計量を用いて、標準偏差がその平均を下回り、かつ、評価値の平均値が最も高いなどの条件で、一つの特徴量の組み合わせを選択する。ここでの例では、以上の条件から、インデックス情報の組み合わせ(V)、すなわちインデックス情報IA,IB,IC,ID,IE,IH,IIの組み合わせが選択される。
そして情報処理装置1は、特徴量を問わず、インデックス情報の組み合わせがインデックス情報IA,IB,IC,ID,IE,IH,IIである入力データにて機械学習処理した機械学習モデルを選択してもよい。
このような選択の例によると、ばらつきが比較的小さく、評価値が比較的高いインデックス情報、及び/または特徴量の種類の組み合わせを複数得ることができる。またこの例では、得られた特徴量の組み合わせを利用して機械学習した複数の機械学習モデルのアンサンブル処理を行うようにした。このことで、推定結果のばらつきを抑えて、機械学習モデルの調整や検証の必要を低減しつつ、複数の機械学習モデルのアンサンブル処理結果の精度を向上できる。
もっとも、この例は一例であり、例えば評価情報である評価値が高い順に並べたとき、上位n個の特徴量の組み合わせを選択しても構わない。
[二段階の選択]
またここまでの説明では、例えば入力データの生成に用いる特徴量の組み合わせを選択するために機械学習した機械学習モデルをそのまま推定の処理に用いることとしたが、本実施の形態はこれに限られない。
本実施の形態の一例では、情報処理装置1は、入力データの生成に用いる特徴量の組み合わせを選択する第一段階の選択の処理の後、図7に例示する第二段階の選択の処理を開始することとしてもよい。この第二段階の選択の処理では、情報処理装置1は、機械学習モデルをN′個用意し、それぞれの機械学習パラメータの一例であるシードを互いに異ならせて設定する(S31)。ここでシードを互いに異ならせる方法としては例えばランダムに設定する方法など、既に説明した方法を採用できる。
またここでN′は、3以上の整数であるものとする。そして情報処理装置1は、第一段階の選択の処理で選択した特徴量の組み合わせに基づく入力データを用いて、N′個の機械学習モデルの機械学習処理を実行する(S32)。
情報処理装置1は、ステップS32の機械学習処理の結果として得られたN′個の機械学習モデルのそれぞれについて評価情報を生成する(S33)。ここでの評価情報は既に述べた推定精度の情報でよい。情報処理装置1は、ステップS33で生成した評価情報の降順にN′個の機械学習モデルを配列し、そのうちの一部、上位n′個の機械学習モデルを選択する(S34)。ここでn′は、2以上N′未満の整数である。
そして情報処理装置1は、ここで選択したn′個の機械学習モデルを、アンサンブル処理による推定の処理に供する。
なお、この例では、当初選択する特徴量の組み合わせは複数ある必要は必ずしもない。そこでこの例では、情報処理装置1は、上述の図3のステップS14の処理において、評価情報Vが最も高い値となっている特徴量の組み合わせを一つ選択して、当該選択した特徴量の組み合わせにより、ステップS32における機械学習処理を実行してもよい。
また情報処理装置1は、次のようにして特徴量の組み合わせを一つ選択してもよい。すなわち情報処理装置1は、インデックス情報を問わず、特徴量の組み合わせが同じである入力データを入力した機械学習モデルの評価情報Vとしての評価値の平均値、中央値、あるいは最大値などの統計量を求める。そしてここで求めた統計量が、所定の条件を満足する特徴量の組み合わせを見出す。ここで所定の条件は例えば、標準偏差がその平均値を下回り、かつ、評価値の平均値が最も高いなどの条件でよい。既に述べたように、この条件の下では、図6の例では、組み合わせ(a,b,c,d,f)が選択される。
また情報処理装置1は、特徴量を問わず、インデックス情報の組み合わせが同じである入力データを入力した機械学習モデルの評価情報Vとしての評価値の平均値、中央値、あるいは最大値などの統計量を求める。情報処理装置1は、ここで求めた統計量が、所定の条件を満足するインデックス情報の組み合わせを見出す。
ここでの所定の条件は、標準偏差がその平均値を下回り、かつ、評価値の平均値が最も高いなどの条件でよい。既に述べたように、図6の例では、以上の条件から、インデックス情報の組み合わせ(V)、すなわちインデックス情報IA,IB,IC,ID,IE,IH,IIの組み合わせが選択される。
そして情報処理装置1は、これらの選択により、インデックス情報の組み合わせをインデックス情報IA,IB,IC,ID,IE,IH,IIとし、かつ、特徴量の組み合わせを(a,b,c,d,f)として、この特徴量の組み合わせに基づいて入力データを生成して用いることとする。
このような選択の例によると、インデックス情報や特徴量に欠損があるなどした場合などにおいてもばらつきが比較的小さく、かつ評価値が比較的高いインデックス情報、及び/または特徴量の組み合わせを得ることができる。
[市場が閉じている場合]
さらに本実施の形態の情報処理装置1は、アンサンブル処理部25としての動作を行うにあたり、所定の条件を満足する際には機械学習モデルを用いることなく、情報の出力を行ってもよい。
具体的に情報処理装置1は、入力データの元となる複数の種類のインデックス情報のうちに、取得できないインデックス情報がある場合は、「N/A」とする取引サインを出力してもよい。このような場合としては、当該インデックス情報に係る市場が休日などの都合で休場している場合が考えられる。
また情報処理装置1は、推定の対象とする市場、例えばここまでの例で言えばN225に係る日本市場が、休日などの事情で休場している場合は、「N/A」とする取引サインを出力する。
[その他の変形例]
また上述の例では、日本との間で輸出入の取引の多い複数の国を選択し、当該選択した国のインデックス情報を用いる例について述べたが、この選択は、日本からの輸入量の多い複数の国を選択することとしてもよいし、日本への輸出量の多い複数の国を選択することとしてもよい。また、情報処理装置1は、所定期間(例えば数年以上)に亘る輸出量または輸入量が多い複数の国を選択してもよい。
また、ここでは機械学習の推定の対象が日経平均株価(N225)である場合を例としたが、もちろんこれは一例に過ぎず、例えば、推定の対象がTOPIXであってもよい。
また、インデックス情報の変化量が、機械学習の推定の対象であってもよい。例えばN225の前日からの変化量が、機械学習の推定の対象であってもよい。
1 情報処理装置、11 制御部、12 記憶部、13 操作部、14 表示部、15 通信部、21 機械学習モデル設定部、22 学習処理部、23 評価取得部、24 選択部、25 アンサンブル処理部。

Claims (12)

  1. 入力データの入力を受けて所定の推定情報を出力する機械学習モデルであって、2以上の整数N個の機械学習モデルに係る情報を保持する保持手段と、
    互いに異なる種類の入力データであって、当該入力データの種類が、前記入力データの元となる情報の種類、および当該入力データの元となる情報に基づいて算出される特徴量の種類に基づいて決定される入力データを受け入れ、当該受け入れた互いに異なる種類の入力データを用いて、前記機械学習モデルの各々に機械学習させる学習処理手段と、
    前記機械学習モデルの各々を評価した評価情報を取得する評価取得手段と、
    前記取得した評価情報に基づいて、前記N個の機械学習モデルのうち、1以上かつ前記N未満の整数n個の機械学習モデルを選択する選択手段と、
    を含み、
    前記評価取得手段は、前記N個の機械学習モデルの各々による推定精度を表す評価値を、前記評価情報として取得し、
    前記選択手段は、前記N個の機械学習モデルのうち、前記評価値の統計量が比較的高く、前記評価値の標準偏差が比較的小さい前記N未満の整数n個の機械学習モデルを選択し、
    前記選択手段により選択された機械学習モデルを用いた所定の推定処理を実行する情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記学習処理手段は、前記入力データの元となる複数の種類の情報のX通りの組み合わせと、前記入力データの元となる情報に基づいて算出される複数の種類の特徴量のY通りの組み合わせとを組み合わせて得たX×Y=N種類の入力データを用いて、前記保持手段が保持するN個の機械学習モデルのそれぞれを機械学習させる情報処理装置。
  3. 請求項1または2に記載の情報処理装置であって、
    前記評価取得手段は、前記保持手段が保持するN個の機械学習モデルの各々による推定精度を表す評価値を、前記評価情報として取得し、
    前記選択手段は、前記N個の機械学習モデルのうち、前記評価値が高い順に上位n個の機械学習モデルを選択する情報処理装置。
  4. 請求項1からのいずれか一項に記載の情報処理装置であって、
    前記所定の推定処理は、前記選択された2以上の整数n個の機械学習モデルのそれぞれに対して入力データを入力し、当該n個の機械学習モデルのそれぞれが出力する結果に関する統計処理を行って、推定結果を取得する処理である情報処理装置。
  5. 請求項1からのいずれか一項に記載の情報処理装置であって、
    前記保持手段は、前記選択したn個の機械学習モデル毎にシードを互いに異ならせて設定した3以上の整数N′個の機械学習モデルに係る情報をさらに保持し、
    前記学習処理手段は、前記入力データを用いて、前記N′個の機械学習モデルの各々にさらに機械学習させ、
    前記評価取得手段は、前記N′個の機械学習モデルの各々を評価した評価情報をさらに取得し、
    前記選択手段は、前記取得した評価情報に基づいて、前記N′個の機械学習モデルのうち、前記N′未満の整数n′個の機械学習モデルを最終的に選択する情報処理装置。
  6. 入力データの入力を受けて所定の推定情報を出力する機械学習モデルであって、2以上の整数N個の機械学習モデルに係る情報を保持する保持手段と、
    互いに異なる種類の入力データであって、当該入力データの種類が、前記入力データの元となる情報の種類、および当該入力データの元となる情報に基づいて算出される特徴量の種類に基づいて決定される入力データを受け入れ、当該受け入れた互いに異なる種類の入力データを用いて、前記機械学習モデルの各々に機械学習させる学習処理手段と、
    前記機械学習モデルの各々を評価した評価情報を取得する評価取得手段と、
    前記取得した評価情報に基づいて、前記N個の機械学習モデルのうち、1以上かつ前記N未満の整数n個の機械学習モデルを選択する選択手段と、
    を含み、
    前記保持手段は、前記選択したn個の機械学習モデル毎にシードを互いに異ならせて設定した3以上の整数N′個の機械学習モデルに係る情報をさらに保持し、
    前記学習処理手段は、前記入力データを用いて、前記N′個の機械学習モデルの各々にさらに機械学習させ、
    前記評価取得手段は、前記N′個の機械学習モデルの各々を評価した評価情報をさらに取得し、
    前記選択手段は、前記取得した評価情報に基づいて、前記N′個の機械学習モデルのうち、前記N′未満の整数n′個の機械学習モデルを最終的に選択し、
    前記選択手段により選択された機械学習モデルを用いた所定の推定処理を実行する情報処理装置。
  7. 請求項1から6のいずれか一項に記載の情報処理装置であって、
    前記学習処理手段は、前記受け入れた入力データを用いて、推定の対象となる国の市場推定に係る情報を出力するよう、前記機械学習モデルの各々に機械学習させる手段であり、
    前記入力データは、前記推定の対象となる国とは異なる国の市場インデックスの情報に基づいて得られる特徴量を含み、
    前記評価情報は、前記市場推定に係る情報の正解率である情報処理装置。
  8. 請求項7に記載の情報処理装置であって、
    前記入力データは、前記市場インデックスの情報に基づいて得られる、始値、終値、高値および安値の少なくとも一つに基づいて算出される特徴量を含む情報処理装置。
  9. 請求項7または8に記載の情報処理装置であって、
    前記市場推定に係る情報に基づいて、前記推定の対象となる国の市場で推薦される売買行動を表す情報を出力する情報処理装置。
  10. 請求項7から9のいずれか一項に記載の情報処理装置であって、
    前記市場推定に係る情報は、前記推定の対象となる国の市場インデックスの変化に係る情報である情報処理装置。
  11. コンピュータを、
    入力データの入力を受けて所定の推定情報を出力する機械学習モデルであって、2以上の整数N個の機械学習モデルに係る情報を保持する保持手段と、
    互いに異なる種類の入力データであって、当該入力データの種類が、前記入力データの元となる情報の種類、および当該入力データの元となる情報に基づいて算出される特徴量の種類に基づいて決定される入力データを受け入れ、当該受け入れた互いに異なる種類の入力データを用いて、前記機械学習モデルの各々に機械学習させる学習処理手段と、
    前記機械学習モデルの各々を評価した評価情報を取得する評価取得手段と、
    前記取得した評価情報に基づいて、前記N個の機械学習モデルのうち、1以上かつ前記N未満の整数n個の機械学習モデルを選択する選択手段と、
    として機能させ、
    コンピュータを、前記評価取得手段として機能させる際には、前記N個の機械学習モデルの各々による推定精度を表す評価値を、前記評価情報として取得させ、
    前記選択手段として機能させる際には、前記N個の機械学習モデルのうち、前記評価値の統計量が比較的高く、前記評価値の標準偏差が比較的小さい前記N未満の整数n個の機械学習モデルを選択させ、
    当該選択された複数の機械学習モデルを用いた所定の推定処理を実行させるプログラム。
  12. コンピュータを、
    入力データの入力を受けて所定の推定情報を出力する機械学習モデルであって、2以上の整数N個の機械学習モデルに係る情報を保持する保持手段と、
    互いに異なる種類の入力データであって、当該入力データの種類が、前記入力データの元となる情報の種類、および当該入力データの元となる情報に基づいて算出される特徴量の種類に基づいて決定される入力データを受け入れ、当該受け入れた互いに異なる種類の入力データを用いて、前記機械学習モデルの各々に機械学習させる学習処理手段と、
    前記機械学習モデルの各々を評価した評価情報を取得する評価取得手段と、
    前記取得した評価情報に基づいて、前記N個の機械学習モデルのうち、1以上かつ前記N未満の整数n個の機械学習モデルを選択する選択手段と、
    として機能させ、
    コンピュータを、前記保持手段として機能させる際には、前記選択したn個の機械学習モデル毎にシードを互いに異ならせて設定した3以上の整数N′個の機械学習モデルに係る情報をさらに保持させ、
    前記学習処理手段として機能させる際には、前記入力データを用いて、前記N′個の機械学習モデルの各々にさらに機械学習させ、
    前記評価取得手段として機能させる際には、前記N′個の機械学習モデルの各々を評価した評価情報をさらに取得させ、
    前記選択手段として機能させる際には、前記取得した評価情報に基づいて、前記N′個の機械学習モデルのうち、前記N′未満の整数n′個の機械学習モデルを最終的に選択させて、
    当該選択された複数の機械学習モデルを用いた所定の推定処理を実行させるプログラム。
JP2021535264A 2020-06-29 2020-06-29 情報処理装置、及びプログラム Active JP6998498B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021206546A JP7245314B2 (ja) 2020-06-29 2021-12-20 情報処理装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/025569 WO2022003793A1 (ja) 2020-06-29 2020-06-29 情報処理装置、及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021206546A Division JP7245314B2 (ja) 2020-06-29 2021-12-20 情報処理装置、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2022003793A1 JPWO2022003793A1 (ja) 2022-01-06
JP6998498B1 true JP6998498B1 (ja) 2022-01-18

Family

ID=79317593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021535264A Active JP6998498B1 (ja) 2020-06-29 2020-06-29 情報処理装置、及びプログラム

Country Status (2)

Country Link
JP (1) JP6998498B1 (ja)
WO (1) WO2022003793A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09128360A (ja) * 1995-10-27 1997-05-16 Nippon Telegr & Teleph Corp <Ntt> 時系列データの学習方法及び装置
JP2013020353A (ja) * 2011-07-08 2013-01-31 Fujifilm Corp 判別器生成方法、装置およびプログラム
US20170316164A1 (en) * 2016-04-29 2017-11-02 Stichting Imec Nederland Method and device for estimating a condition of a person
WO2019171416A1 (ja) * 2018-03-05 2019-09-12 日本電気株式会社 画像分類システム、画像分類方法および画像分類プログラム
JP2020009301A (ja) * 2018-07-11 2020-01-16 株式会社日立製作所 情報処理装置および情報処理方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09128360A (ja) * 1995-10-27 1997-05-16 Nippon Telegr & Teleph Corp <Ntt> 時系列データの学習方法及び装置
JP2013020353A (ja) * 2011-07-08 2013-01-31 Fujifilm Corp 判別器生成方法、装置およびプログラム
US20170316164A1 (en) * 2016-04-29 2017-11-02 Stichting Imec Nederland Method and device for estimating a condition of a person
WO2019171416A1 (ja) * 2018-03-05 2019-09-12 日本電気株式会社 画像分類システム、画像分類方法および画像分類プログラム
JP2020009301A (ja) * 2018-07-11 2020-01-16 株式会社日立製作所 情報処理装置および情報処理方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
石原 龍太,多層ニューラルネットワークとGAを用いたTOPIX運用AI,人工知能学 金融情報学研究会(SIG-FIN) 019 [online] ,人工知能学会,2017年10月14日,2.1.4節、2.2節、2.3節、表1、図2
石原 龍太: "多層ニューラルネットワークとGAを用いたTOPIX運用AI", 人工知能学 金融情報学研究会(SIG−FIN) 019 [ONLINE], JPN6021032594, 14 October 2017 (2017-10-14), ISSN: 0004577799 *

Also Published As

Publication number Publication date
WO2022003793A1 (ja) 2022-01-06
JPWO2022003793A1 (ja) 2022-01-06

Similar Documents

Publication Publication Date Title
Clementi et al. Entry, exit, firm dynamics, and aggregate fluctuations
Martinez-Jaramillo et al. An heterogeneous, endogenous and coevolutionary GP-based financial market
US20110184884A1 (en) Optimizing portfolios of financial instruments
JP2003044665A (ja) 金融市場における価格変動シミュレーションプログラム
Phillips et al. Is Schumpeterian ‘creative destruction’a plausible source of endogenous real business cycle shocks?
Adegboye et al. Improving trend reversal estimation in forex markets under a directional changes paradigm with classification algorithms
JP6998498B1 (ja) 情報処理装置、及びプログラム
CN112308623A (zh) 基于监督学习的优质客户流失预测方法、装置及存储介质
EP3876181A1 (en) Information processing device, information processing method, and program
JP7245314B2 (ja) 情報処理装置、及びプログラム
Kinlay Synthetic market data and its applications
Huang et al. Evolutionary frequency and forecasting accuracy: Simulations based on an agent-based artificial stock market
Kelly et al. Australians over the coming 50 years: providing useful projections
Tian Riskiness Choice and Endogenous Productivity Dispersion over the Business Cycle
Assa et al. Assessing reinforcement delta hedging
Davies et al. Capital income taxation in a two-commodity life cycle model: The role of factor intensity and asset capitalization effects
Ko Dissecting Trade and Business Cycle Co-movement
Ravazzolo et al. Predictive gains from forecast combinations using time varying model weights
Clementi et al. Entry, Exit, Firm Dynamics, and Aggregate Fluctuations1
Piguillem et al. Do non‐exporters lose from lower trade costs?
MOLINARI The Rough Heston model
Kim Investor Learning and the Aggregate Allocation of Capital to Active Management
Patani et al. Financial Portfolio Management using Reinforcement Learning
VanOsten et al. Forex Trading Systems: An Algorithmic Approach to Technical Trading
Anderson Forex Trading Systems

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210617

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210617

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211011

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211220

R150 Certificate of patent or registration of utility model

Ref document number: 6998498

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150