JP7245314B2 - Information processing device and program - Google Patents

Information processing device and program Download PDF

Info

Publication number
JP7245314B2
JP7245314B2 JP2021206546A JP2021206546A JP7245314B2 JP 7245314 B2 JP7245314 B2 JP 7245314B2 JP 2021206546 A JP2021206546 A JP 2021206546A JP 2021206546 A JP2021206546 A JP 2021206546A JP 7245314 B2 JP7245314 B2 JP 7245314B2
Authority
JP
Japan
Prior art keywords
machine learning
information
input data
learning models
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021206546A
Other languages
Japanese (ja)
Other versions
JP2022043186A (en
Inventor
ルーシャン ユージーン ウォン
ブリューノ アンドレ シャロン
卓志 梅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Group Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2021535264A external-priority patent/JP6998498B1/en
Application filed by Rakuten Group Inc filed Critical Rakuten Group Inc
Priority to JP2021206546A priority Critical patent/JP7245314B2/en
Publication of JP2022043186A publication Critical patent/JP2022043186A/en
Application granted granted Critical
Publication of JP7245314B2 publication Critical patent/JP7245314B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)

Description

本発明は、機械学習モデルを用いる情報処理装置、及びプログラムに関する。 The present invention relates to an information processing device and a program using a machine learning model.

複数のニューラルネットワークなどからなる複数の機械学習モデルの各々に、互いに異なるランダムシードを設定して、当該複数の機械学習モデルのアンサンブル処理により得られる推定結果の精度を向上させる技術が知られている(例えば、特許文献1)。 A technique is known in which different random seeds are set for each of a plurality of machine learning models made up of a plurality of neural networks, etc. to improve the accuracy of estimation results obtained by ensemble processing of the plurality of machine learning models. (For example, Patent Document 1).

国際公開第2019/171416号WO2019/171416

一方で、機械学習モデルに設定するシードを変更するごとに、機械学習モデルの出力結果が大きく変化してしまう場合があることが知られている。このような場合、機械学習モデルの開発者は、機械学習モデルの出力の安定性を担保するため、機械学習モデル自体を調整し、当該調整した機械学習モデルの検証を行うといった作業を繰り返し行わなければならない。 On the other hand, it is known that every time the seed set in the machine learning model is changed, the output result of the machine learning model may change significantly. In such cases, the developer of the machine learning model must repeatedly adjust the machine learning model itself and verify the adjusted machine learning model in order to ensure the stability of the output of the machine learning model. must.

このことは上記従来例の、互いに異なるランダムシードを設定した複数の機械学習モデルのアンサンブル処理を行う場合でも同様である。すなわち、複数の機械学習モデル間で出力である推定結果のばらつきが大きいときには、所望の推定精度を達成できない可能性があり、機械学習モデルの再調整および再検証が必要になり、したがって、開発に負担がかかるという問題があった。 This is the same as in the case of performing ensemble processing of a plurality of machine learning models in which random seeds different from each other are set as in the conventional example described above. In other words, when there is a large variation in the output estimation results among multiple machine learning models, there is a possibility that the desired estimation accuracy cannot be achieved, and the machine learning models need to be readjusted and revalidated. I had a problem with the load.

本発明は上記実情に鑑みてなされたものであり、機械学習モデルの調整や検証の必要を低減しつつ、複数の機械学習モデルのアンサンブル処理により得られる推定結果の精度を向上できる情報処理装置、及びプログラムを提供することを、その目的の一つとする。 The present invention has been made in view of the above circumstances, and is an information processing device that can improve the accuracy of estimation results obtained by ensemble processing of a plurality of machine learning models while reducing the need for adjustment and verification of machine learning models. and to provide programs.

上記従来例の問題点を解決するための本発明の一態様は、情報処理装置であり、入力データの入力を受けて所定の推定情報を出力する機械学習モデルであって、機械学習のパラメータを互いに異ならせて設定した2以上の整数N個の機械学習モデルに係る情報を保持する保持手段と、前記機械学習モデルに入力する入力データを受け入れ、当該受け入れた入力データを用いて、前記機械学習モデルの各々に機械学習させる学習処理手段と、前記機械学習モデルの各々を評価した評価情報を取得する評価取得手段と、前記取得した評価情報に基づいて、前記N個の機械学習モデルのうち、2以上かつ前記N未満の整数n個の機械学習モデルを選択する選択手段と、を含み、当該選択された複数の機械学習モデルを用いた所定の推定処理を実行することとしたものである。 One aspect of the present invention for solving the problems of the above conventional example is an information processing device, which is a machine learning model that receives input data and outputs predetermined estimated information, wherein the machine learning parameters are holding means for holding information related to N machine learning models, which are integers of two or more set differently from each other; Learning processing means for performing machine learning on each of the models; Evaluation acquisition means for acquiring evaluation information obtained by evaluating each of the machine learning models; Based on the obtained evaluation information, among the N machine learning models, and a selection means for selecting an integer number n of machine learning models equal to or more than 2 and less than the N, and executing a predetermined estimation process using the selected plurality of machine learning models.

本発明によると、機械学習モデルの調整や検証の必要を低減しつつ、複数の機械学習モデルのアンサンブル処理により得られる推定結果の精度を向上できる。 According to the present invention, it is possible to improve the accuracy of estimation results obtained by ensemble processing of a plurality of machine learning models while reducing the need for adjustment and verification of machine learning models.

本発明の実施の形態に係る情報処理装置の構成例を表すブロック図である。1 is a block diagram showing a configuration example of an information processing device according to an embodiment of the present invention; FIG. 本発明の実施の形態に係る情報処理装置の例を表す機能ブロック図である。1 is a functional block diagram showing an example of an information processing device according to an embodiment of the present invention; FIG. 本発明の実施の形態に係る情報処理装置による機械学習処理の例を表すフローチャート図である。FIG. 4 is a flow chart showing an example of machine learning processing by the information processing apparatus according to the embodiment of the present invention; 本発明の実施の形態に係る情報処理装置による機械学習モデルの設定処理例を表すフローチャート図である。FIG. 4 is a flow chart showing an example of setting processing of a machine learning model by the information processing apparatus according to the embodiment of the present invention; 本発明の実施の形態に係る情報処理装置によるアンサンブル処理の例を表すフローチャート図である。FIG. 4 is a flow chart showing an example of ensemble processing by the information processing device according to the embodiment of the present invention; 本発明の実施の形態に係る情報処理装置が生成する情報の例を表す説明図である。FIG. 4 is an explanatory diagram showing an example of information generated by the information processing device according to the embodiment of the present invention; 本発明の実施の形態に係る情報処理装置によるもう一つの機械学習モデルの設定処理例を表すフローチャート図である。FIG. 10 is a flow chart showing another example of setting processing of a machine learning model by the information processing apparatus according to the embodiment of the present invention;

本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る情報処理装置1は、図1に例示するように、制御部11、記憶部12、操作部13、表示部14、及び通信部15を含む一般的なコンピュータ装置を用いて実現できる。 An embodiment of the present invention will be described with reference to the drawings. An information processing apparatus 1 according to an embodiment of the present invention includes a general computer device including a control unit 11, a storage unit 12, an operation unit 13, a display unit 14, and a communication unit 15, as illustrated in FIG. It can be realized by using

以下の説明では、株式の動向を情報処理装置1により推定する例について説明するが、この例は一例であり、この情報処理装置1は、他の情報の推定にも適用できる。 In the following description, an example in which stock trends are estimated by the information processing device 1 will be described, but this example is only an example, and the information processing device 1 can also be applied to estimation of other information.

制御部11は、CPU等のプログラム制御デバイスであり、記憶部12に格納されたプログラムを実行する。本実施の形態では、この制御部11は、入力データの入力を受けて所定の推定情報を出力するN個の機械学習モデルを記憶部12に保持する。ここでNは、3以上の整数とする。これら複数の機械学習モデルは、後述のように、機械学習のパラメータを互いに異ならせて設定するものとする。 The control unit 11 is a program control device such as a CPU, and executes programs stored in the storage unit 12 . In this embodiment, the control unit 11 stores in the storage unit 12 N machine learning models that receive input data and output predetermined estimation information. Here, N is an integer of 3 or more. These multiple machine learning models are set with different machine learning parameters, as will be described later.

またこの制御部11は、当該複数の機械学習モデルに入力する入力データを受け入れ、当該受け入れた入力データを用いて、機械学習モデルの各々に機械学習させる。制御部11は、複数の機械学習モデルの各々を評価した評価情報を取得し、当該取得した評価情報に基づいて、N個の機械学習モデルのうち、n個の機械学習モデルを選択する。ここでnは、2以上かつN未満の整数とする。 The control unit 11 also receives input data to be input to the plurality of machine learning models, and causes each of the machine learning models to perform machine learning using the received input data. The control unit 11 acquires evaluation information obtained by evaluating each of the plurality of machine learning models, and selects n machine learning models out of the N machine learning models based on the acquired evaluation information. Here, n is an integer of 2 or more and less than N.

そして制御部11は、当該選択された複数の機械学習モデルを用いた所定の推定処理を実行する。この制御部11の詳しい動作については後に説明する。 Then, the control unit 11 executes predetermined estimation processing using the selected plurality of machine learning models. A detailed operation of the control unit 11 will be described later.

記憶部12は、メモリデバイスやディスクデバイス等であり、制御部11によって実行されるプログラムを保持する。本実施の形態ではこのプログラムは、コンピュータ可読かつ非一時的な、DVD等の記録媒体に格納されて提供され、この記憶部12に格納されたものであってもよい。またこの記憶部12は、制御部11のワークメモリとしても動作する。 The storage unit 12 is a memory device, a disk device, or the like, and holds programs executed by the control unit 11 . In this embodiment, the program may be provided by being stored in a computer-readable and non-temporary recording medium such as a DVD, and stored in the storage section 12 . The storage section 12 also operates as a work memory for the control section 11 .

操作部13は、マウスやキーボード等であり、利用者の指示操作を受け入れて、当該指示操作の内容を表す情報を、制御部11に出力する。表示部14は、ディスプレイ等であり、制御部11が出力する指示に従って情報を表示する。 The operation unit 13 is a mouse, a keyboard, or the like, receives an instruction operation from the user, and outputs information representing the content of the instruction operation to the control unit 11 . The display unit 14 is a display or the like, and displays information according to instructions output by the control unit 11 .

通信部15は、ネットワークインタフェース等であり、制御部11が出力する指示に従い、ネットワークを介して接続されるサーバ等に対して情報を送出する。また、この通信部15は、ネットワークを介して接続されるサーバ等から情報を受信して制御部11に出力する。 The communication unit 15 is a network interface or the like, and transmits information to a server or the like connected via a network according to instructions output by the control unit 11 . The communication unit 15 also receives information from a server or the like connected via a network and outputs the information to the control unit 11 .

次に制御部11の動作について説明する。本実施の形態では、制御部11は、記憶部12に格納されたプログラムを実行することで、図2に例示するように、機能的に、機械学習モデル設定部21と、学習処理部22と、評価取得部23と、選択部24と、アンサンブル処理部25とを含む構成を実現する。 Next, operation of the control unit 11 will be described. In the present embodiment, the control unit 11 executes a program stored in the storage unit 12 to functionally function as a machine learning model setting unit 21 and a learning processing unit 22 as illustrated in FIG. , an evaluation acquisition unit 23, a selection unit 24, and an ensemble processing unit 25 are implemented.

機械学習モデル設定部21は、所定の推定情報を出力するN個の機械学習モデルに対し、機械学習のパラメータを設定して、当該機械学習モデルに係る情報を記憶部12に保持する。ここでNは、3以上の整数とする。本実施の形態の一例では、機械学習モデル設定部21は、機械学習のパラメータとして、機械学習モデルに係る情報のシードを、互いに異ならせて設定する。 The machine learning model setting unit 21 sets machine learning parameters for N machine learning models that output predetermined estimation information, and stores information related to the machine learning models in the storage unit 12 . Here, N is an integer of 3 or more. In one example of the present embodiment, the machine learning model setting unit 21 sets different seeds of information related to the machine learning model as machine learning parameters.

ここで機械学習モデルに係る情報のシードは、機械学習モデルを特徴づける量であり、例えば機械学習モデルが多層のニューラルネットワークからなるモデルである場合は、当該層間の重みやバイアス値等の初期値である。つまり、本実施の形態の一例では、機械学習モデル設定部21は、N個の機械学習モデルのそれぞれとして多層のニューラルネットワークからなるモデルを設定し、それぞれの層間の重みやバイアス値等の初期値を例えばランダムに設定して、互いに異なるシードとする。 Here, the seed of information related to the machine learning model is a quantity that characterizes the machine learning model. is. That is, in one example of the present embodiment, the machine learning model setting unit 21 sets a model composed of a multi-layered neural network as each of the N machine learning models, and sets initial values such as weights and bias values between the respective layers. are set randomly, for example, to be different seeds from each other.

本実施の形態の一例では、情報処理装置1のN個の機械学習モデルに入力される入力データは、例えば複数の特徴量を含む。ここでの例では、複数の特徴量が複数の国のインデックス(株価指数情報)に基づいて算出されるものとする。具体的に入力データは所定の次元のベクトル量であり、複数の特徴量を反映した所定次元のベクトルを入力データとして生成する方法は、機械学習の技術において広く知られた種々の方法を採用できるので、ここでの詳しい説明は省略する。 In one example of the present embodiment, input data input to the N machine learning models of the information processing device 1 includes, for example, a plurality of feature amounts. In this example, it is assumed that a plurality of feature quantities are calculated based on indices (stock index information) of a plurality of countries. Specifically, the input data is a vector quantity of a predetermined dimension, and various widely known methods in the field of machine learning technology can be used to generate a vector of a predetermined dimension reflecting a plurality of feature values as the input data. Therefore, a detailed description is omitted here.

ここでは推定の対象とする市場のインデックスに加えて、または当該インデックスに代えて、他国のインデックスも用いる。これは、推定の対象とする市場が閉じている間も変化している他国のインデックスデータに基づく特徴量を入力データに含めることで、予測精度を向上できると考えられるためである。 In addition to or instead of the index of the market to be estimated, indexes of other countries are also used here. This is because it is thought that prediction accuracy can be improved by including in the input data features based on index data from other countries, which change even while the target market for estimation is closed.

学習処理部22は、機械学習モデル設定部21が設定したN個の機械学習モデルのそれぞれについて入力データと、当該入力データに対応する正解データとを用いて機械学習処理を実行する。 The learning processing unit 22 executes machine learning processing using input data and correct data corresponding to the input data for each of the N machine learning models set by the machine learning model setting unit 21 .

すなわち学習処理部22は、互いに異なるシードが設定されたN個の機械学習モデルのそれぞれに入力データを入力し、その出力と、当該入力データに対応する正解データとの比較の結果に基づいて、対応する機械学習モデルのノード間の重みやバイアス情報をバックプロパゲーションにより更新する。ここでN個の機械学習モデルに入力する入力データは、いずれも共通のものとしてよい。 That is, the learning processing unit 22 inputs input data to each of N machine learning models set with different seeds, and based on the result of comparison between the output and the correct data corresponding to the input data, Update the weights and bias information between nodes of the corresponding machine learning model by backpropagation. Input data to be input to the N machine learning models may be common.

ここでの例では、ある日付Dにおける日本での市場開場前までの複数国の市場のインデックスに基づく特徴量により入力データを機械学習モデルに入力することとする。そしてこの例では学習処理部22の出力と対応する正解データとは、例えば、当該日付Dにおける日経平均株価(以下「N225」という)の始値に対する終値の比など、所定のインデックスの実際の値に基づくデータを正解データとする。以下、インデックスの始値に対する終値の比を、当該インデックス情報の変化率と呼ぶ。なお、ここで推定し、あるいは正解データとする変化率は、始値に対する高値や安値の比としてもよい。 In this example, the input data is input to the machine learning model using feature values based on indices of markets in a plurality of countries before the opening of the market in Japan on a certain date D. In this example, the correct data corresponding to the output of the learning processing unit 22 is the actual value of a predetermined index, such as the ratio of the closing price to the opening price of the Nikkei Stock Average (hereinafter referred to as "N225") on the date D. The data based on is regarded as the correct data. Hereinafter, the ratio of the closing price to the opening price of the index will be referred to as the rate of change of the index information. The rate of change estimated here or used as correct data may be the ratio of the high or low price to the opening price.

評価取得部23は、予め定めた評価のタイミングが到来すると、学習処理部22にて機械学習処理したN個の機械学習モデルのそれぞれを評価した評価情報Vを取得する。具体的にここで評価取得部23は、学習処理部22での機械学習処理が終了したと判断されるタイミングで、機械学習処理されたN個の機械学習モデルのそれぞれを評価した評価情報Vを生成する。 The evaluation acquisition unit 23 acquires evaluation information V obtained by evaluating each of the N machine learning models machine-learned by the learning processing unit 22 when a predetermined evaluation timing arrives. Specifically, the evaluation acquisition unit 23 acquires evaluation information V obtained by evaluating each of the N machine learning models subjected to the machine learning process at the timing when it is determined that the machine learning process in the learning processing unit 22 has ended. Generate.

この評価情報Vは、例えば広く知られた推定精度、すなわちAccuracyや、適合率、すなわちPrecisionなどの評価値でよい。一例として本実施の形態の上述の例のように、N225の変化率等のインデックスに関する推定を行う場合、当該インデックスの始値に対する終値の比である変化率を、どの程度の精度で正しく推定できたかを表す値、つまり正解率、あるいは勝率を、推定精度とする。 This evaluation information V may be, for example, an evaluation value such as widely known estimation accuracy, namely Accuracy, or precision, or the like. As an example, as in the above example of the present embodiment, when estimating an index such as the rate of change of N225, how accurately can the rate of change, which is the ratio of the closing price to the opening price of the index, be correctly estimated? A value that expresses the accuracy, that is, the correct answer rate or the winning rate is used as the estimation accuracy.

選択部24は、評価取得部23が取得した評価情報Vに基づく所定の条件を用いて、N個の機械学習モデルのうちから、n個の機械学習モデルを選択する。ここでnは2以上かつN未満の整数である。例えば選択部24は、当該評価情報Vが互いにばらつかず、また、評価情報Vの評価が十分高いと判断されるn個の機械学習モデルを選択することとすればよい。 The selection unit 24 selects n machine learning models from among the N machine learning models using a predetermined condition based on the evaluation information V acquired by the evaluation acquisition unit 23 . Here, n is an integer of 2 or more and less than N. For example, the selection unit 24 may select n machine learning models whose evaluation information V does not vary from each other and whose evaluation of the evaluation information V is judged to be sufficiently high.

本実施の形態の一例では、選択部24は、N個の機械学習モデルのそれぞれの推定精度を表す評価情報Vを、降順に、つまり高評価なものから順に配列する。そして選択部24は、推定精度を表す評価情報Vが高評価である上位n個の機械学習モデルを選択する。 In one example of the present embodiment, the selection unit 24 arranges the evaluation information V representing the estimation accuracy of each of the N machine learning models in descending order, that is, in descending order of the highest evaluation. Then, the selection unit 24 selects the top n machine learning models whose evaluation information V representing estimation accuracy is highly evaluated.

アンサンブル処理部25は、当該選択されたn個の機械学習モデルを用いて所定の推定処理を実行する。本実施の形態の例では、アンサンブル処理部25は、推定の対象の日付以前の日付Dに得られた複数の種類のインデックス情報を受け入れて、機械学習の処理の際と同様に、選択されたn個の機械学習モデルのそれぞれに入力する入力データを生成する。 The ensemble processing unit 25 executes predetermined estimation processing using the selected n machine learning models. In the example of the present embodiment, the ensemble processing unit 25 accepts a plurality of types of index information obtained on a date D prior to the date to be estimated, and selects Input data to be input to each of the n machine learning models is generated.

アンサンブル処理部25は、選択したn個の機械学習モデルに対して、当該生成した入力データをそれぞれ入力し、各機械学習モデルによる推定の結果を得る。ここで推定の結果は例えば上述のように、機械学習時に正解データとして入力された国のインデックス情報に関わる情報である。本実施の形態の一例では、アンサンブル処理部25は、ある日付Dの日本での市場開場直前までの各国のインデックス情報に基づいて当該日付DにおけるN225の変化率を推定する。そしてアンサンブル処理部25は、当該推定したN225の変化率に基づいて得られる、「買い」、「売り」、「N/A(No Action、何もしない)」のいずれかの取引サインを出力する。 The ensemble processing unit 25 inputs the generated input data to each of the selected n machine learning models, and obtains a result of estimation by each machine learning model. Here, the result of estimation is, for example, information related to country index information input as correct data during machine learning, as described above. In one example of the present embodiment, the ensemble processing unit 25 estimates the rate of change of N225 on a certain date D based on the index information of each country until just before the opening of the market in Japan on the date D. Then, the ensemble processing unit 25 outputs a transaction sign of "buy", "sell", or "N/A (no action, do nothing)" obtained based on the estimated rate of change of N225. .

具体的に、アンサンブル処理部25は、選択されたn個の機械学習モデルによる個々の推定の結果を用い、推定されたN225の変化率が、所定の第一しきい値以上であれば「買い」の取引サインを出力する。またアンサンブル処理部25は、推定されたN225の変化率が、所定の第二しきい値以下であれば、「売り」の取引サインを出力する。さらにアンサンブル処理部25は、推定されたN225の変化率が、上記第一しきい値未満であり、第二しきい値より大きい場合は、「N/A」の取引サインを出力する。ここで第一しきい値は、0より大きい割合を表す数値、例えば+1%、あるいは+0.1%などとし、第二しきい値は例えば、0より小さい割合を表す数値、例えば-1%、あるいは-0.1%などとする。これらのしきい値は、経験的、あるいは実験的に定めるものとする。 Specifically, the ensemble processing unit 25 uses the results of individual estimation by the selected n machine learning models, and if the estimated change rate of N225 is equal to or greater than a predetermined first threshold, the “buy ” output the transaction sign. Also, the ensemble processing unit 25 outputs a “sell” transaction sign if the estimated rate of change of N225 is equal to or less than a predetermined second threshold value. Furthermore, the ensemble processing unit 25 outputs a transaction sign of "N/A" when the estimated change rate of N225 is less than the first threshold and greater than the second threshold. Here, the first threshold is a numerical value representing a percentage greater than 0, such as +1% or +0.1%, and the second threshold is a numerical value representing a percentage less than 0, such as -1%. Alternatively, it is -0.1%. These thresholds are determined empirically or experimentally.

[動作]
次に、本実施の形態の例に係る情報処理装置1の動作例について説明する。以下の例では、日本の経済指標の一つであるN225に連動するインデックスファンドを購入するか否かを決定するため、本日の日本市場開場の午前9時よりも前に、本日の日本市場開場後のN225に関わる値、例えばその変化率を推定し、本日の午前9時から午後3時までの日本市場開場中にするべき取引を表す「買い」、「売り」、「N/A」のいずれかの取引サインを出力する例について説明する。
[motion]
Next, an operation example of the information processing apparatus 1 according to the example of the present embodiment will be described. In the example below, in order to decide whether to purchase an index fund that tracks N225, one of Japan's economic indicators, the Japanese market opens today before 9:00 am. Estimate the value related to N225 later, for example, its rate of change, and use "Buy", "Sell", and "N/A" to represent the trades that should be made during the opening of the Japanese market from 9:00 am to 3:00 pm today. An example of outputting one of the transaction signs will be described.

本実施の形態の一例では、情報処理装置1は、機械学習処理の段階において、図3に例示するように、まず複数の機械学習モデルを設定する処理を行う(S11)。 In one example of the present embodiment, the information processing apparatus 1 first performs a process of setting a plurality of machine learning models at the stage of the machine learning process, as illustrated in FIG. 3 (S11).

具体的にこの処理の内容を図4に例示する。本実施の形態の一例では、情報処理装置1は、複数の機械学習モデルを設定する処理として、機械学習処理のための入力データのもととなる複数のインデックス情報を決定する(S111)。このステップS111において、情報処理装置1は、日本との間で取引の多い複数の国の市場のインデックス情報を、入力データのもととなる情報として決定する。なお、このステップでは、利用者から入力データのもととなるインデックス情報を指定する情報の入力を受けて、当該入力された情報により、機械学習処理のための入力データのもととなる複数のインデックス情報を決定してもよい。 The details of this processing are specifically illustrated in FIG. In one example of the present embodiment, the information processing apparatus 1 determines a plurality of pieces of index information that serve as sources of input data for machine learning processing as processing for setting a plurality of machine learning models (S111). In this step S111, the information processing apparatus 1 determines the index information of the markets of a plurality of countries with many transactions with Japan as the information to be the source of the input data. Note that in this step, the input of information specifying the index information that is the source of the input data is received from the user, and the input information is used to create a plurality of index information that is the source of the input data for the machine learning process. Index information may be determined.

情報処理装置1は、過去の複数の日付Diの日本市場の開場前の、上記ステップS111で決定した複数のインデックス情報IA,IB,IC…を取得する(S112)。ここでiはi=1,2,…なる自然数とする。また、インデックス情報IA,IB,IC…は、上記選択された各国の市場の値動きを表す情報である株価指数情報であり、例えばドイツのDAXインデックス、オランダのAEXインデックス、アメリカのINDUインデックス(ダウ平均株価)等の情報が相当する。これらの情報は、一般にネットワークを介して取得される。 The information processing apparatus 1 acquires a plurality of pieces of index information IA, IB, IC, . Here, i is a natural number i=1, 2, . . . The index information IA, IB, IC, . stock price), etc. These information are generally obtained through a network.

またこのステップS112では、情報処理装置1は、推定の対象となるN225の、上記複数の日付以降に開場する所定の市場での変化率を、新たな正解データとして取得する。 Further, in step S112, the information processing apparatus 1 acquires, as new correct data, the rate of change of N225 to be estimated in a predetermined market that opens on or after the plurality of dates.

情報処理装置1は、取得した複数のインデックス情報Iごとに、特徴量を得る(S113)。本実施の形態では、情報処理装置1は、インデックス情報Iの、日付Diの日本市場開場以前の日付Di′における
(a)始値に対する終値の比(%)、
(b)高値に対する終値の比(%)、
(c)安値に対する終値の比(%)、及び、
(d)当該日付Di′の前日の終値に対する、日付Diの始値の比(%)、
(e)日付Di′の前日の終値に対する、日付Diの終値の比(%)、
(f)日付Di′におけるボラティリティ、
のそれぞれを表す特徴量を算出する。
The information processing device 1 obtains a feature amount for each of the obtained pieces of index information I (S113). In the present embodiment, the information processing apparatus 1 provides (a) the ratio (%) of the closing price to the opening price of the index information I on the date Di′ before the opening of the Japanese market on the date Di;
(b) ratio of closing price to high price (%);
(c) the ratio of the closing price to the low price (%), and
(d) Ratio (%) of the opening price of the date Di to the closing price of the previous day of the relevant date Di';
(e) the ratio (%) of the closing price on date Di' to the closing price on the previous day on date Di';
(f) volatility on date Di';
A feature amount representing each of the is calculated.

情報処理装置1は、次に、互いに異なるシードに設定した、複数の機械学習モデルを設定する(S114)。具体的にここでは情報処理装置1は、32個の機械学習モデルをそれぞれ互いに異なるシードで初期化して、記憶部12に格納する。 The information processing apparatus 1 next sets a plurality of machine learning models set to different seeds (S114). Specifically, here, the information processing apparatus 1 initializes 32 machine learning models with mutually different seeds and stores them in the storage unit 12 .

既に述べたように、ここでの機械学習モデルは、例えば多層のニューラルネットワークからなるモデルであり、情報処理装置1は、所定の方法により、各機械学習モデルの各層のノード間の重みやバイアス値等の初期値を、互いに異ならせて、例えばそれぞれランダムに定める。 As described above, the machine learning model here is, for example, a model made up of a multi-layered neural network, and the information processing apparatus 1 uses a predetermined method to determine the weights and bias values between nodes in each layer of each machine learning model. etc. are set to be different from each other, for example, randomly.

情報処理装置1は、図3のステップS12に戻り、ここで設定した32個の機械学習モデルのそれぞれの機械学習処理を実行する(S12)。 The information processing apparatus 1 returns to step S12 in FIG. 3 and executes machine learning processing for each of the 32 machine learning models set here (S12).

このステップS12では情報処理装置1は、ステップS114で設定した32個の機械学習モデルのそれぞれについて、ステップS113で得た、日付Diにおける特徴量を用いて入力データを生成する。そして情報処理装置1は、当該生成した入力データと、当該入力データに対応する正解データとを用いて機械学習処理を実行する。 In this step S12, the information processing apparatus 1 generates input data using the feature amount on the date Di obtained in step S113 for each of the 32 machine learning models set in step S114. Then, the information processing apparatus 1 executes machine learning processing using the generated input data and correct data corresponding to the input data.

ここでは、情報処理装置1は生成した入力データを、各機械学習モデルに入力する。情報処理装置1は、入力データの入力を受けた機械学習モデルの出力と、当該入力データに対応する正解データとの差を求める。そして情報処理装置1は、当該差に基づいて機械学習モデルのノード間の重みやバイアス情報をバックプロパゲーションにより更新する。このバックプロパゲーションの処理については広く知られているので、ここでの詳しい説明は省略する。 Here, the information processing apparatus 1 inputs the generated input data to each machine learning model. The information processing apparatus 1 obtains the difference between the output of the machine learning model that receives the input data and the correct data corresponding to the input data. Then, the information processing apparatus 1 updates weights and bias information between nodes of the machine learning model by back propagation based on the difference. Since this backpropagation process is widely known, detailed description thereof is omitted here.

情報処理装置1は、ステップS12で機械学習した32個の機械学習モデルのそれぞれについて、推定精度を表す評価情報Vを生成する(S13)。そして情報処理装置1は、32個の機械学習モデルのそれぞれの推定精度を表す評価情報Vを、降順に、つまり高評価なものから順に配列し、その上位n個、例えば4個の機械学習モデルを選択する(S14)。 The information processing apparatus 1 generates evaluation information V representing estimation accuracy for each of the 32 machine learning models machine-learned in step S12 (S13). Then, the information processing apparatus 1 arranges the evaluation information V representing the estimation accuracy of each of the 32 machine learning models in descending order, that is, in descending order of evaluation, and ranks the top n machine learning models, for example, 4 machine learning models. is selected (S14).

情報処理装置1は、ステップS14で選択したn個の機械学習モデルをそれぞれ特定する情報を出力する(S15)。 The information processing device 1 outputs information specifying each of the n machine learning models selected in step S14 (S15).

以下、情報処理装置1は、選択された複数個の機械学習モデルを利用して推定を行う推定処理を実行する。この処理では図5に例示するように、情報処理装置1は、推定の対象とする市場の開場前に得られたインデックス情報IA,IB…を受け入れ、機械学習の処理において選択されたn個の機械学習モデルに入力する入力データを生成する。 Thereafter, the information processing device 1 executes an estimation process of performing estimation using a plurality of selected machine learning models. In this process, as exemplified in FIG. 5, the information processing device 1 receives index information IA, IB, . Generate input data to feed into a machine learning model.

情報処理装置1は、得られた入力データを、選択されたn個の機械学習モデルにそれぞれ入力して、各機械学習モデルの推定結果を得る(S21)。 The information processing apparatus 1 inputs the obtained input data to each of the selected n machine learning models, and obtains the estimation result of each machine learning model (S21).

本実施の形態のここでの例では、各機械学習モデルはN225の変化率を推定するよう機械学習された状態にあるので、情報処理装置1が得る機械学習モデルの推定結果は、対象とする市場の開場後におけるN225の変化率を推定したものとなる。 In this example of the present embodiment, each machine learning model is in a state of being machine-learned to estimate the change rate of N225, so the estimation result of the machine learning model obtained by the information processing apparatus 1 is the target It is an estimate of the change rate of N225 after the market opens.

そして情報処理装置1は、各機械学習モデルのアンサンブル処理を実行する。具体的に情報処理装置1は、各機械学習モデルが推定したそれぞれのN225の変化率に基づいて、例えば、推定したN225変化率が、所定の第一のしきい値以上となっている場合「買い」とし、所定の第二のしきい値以下となっていれば「売り」とする取引サインを得る。また、情報処理装置1は、推定したN225変化率が、第一のしきい値未満であり、かつ第二のしきい値より大きいならば、「N/A」とする取引サインを得る。 Then, the information processing device 1 executes ensemble processing of each machine learning model. Specifically, based on the rate of change of N225 estimated by each machine learning model, the information processing apparatus 1, for example, when the estimated rate of change of N225 is greater than or equal to a predetermined first threshold value, " Obtain a trade signal of "buy" and "sell" if below a predetermined second threshold. If the estimated N225 change rate is less than the first threshold and greater than the second threshold, the information processing device 1 obtains a transaction sign of "N/A".

情報処理装置1は、こうして各機械学習モデルから得られた個々の推定の結果に対応して、それぞれ上記「買い」、「売り」、「N/A」の取引サインを得る。情報処理装置1は、「買い」、「売り」、「N/A」の取引サインの数をそれぞれ累算し、累算値が最も大きい取引サインを、出力する取引サインとして決定する(S22)。これはつまり、多数決により出力する取引サインを決定することを意味する。なお、「買い」の取引サインの数と「売り」の取引サインの数とが同数であり、かつその数が「N/A」の取引サインの数よりも多い場合には、情報処理装置1は、出力する取引サインとして「N/A」の取引サインを決定してもよい。そして情報処理装置1は、このステップS22で決定した取引サインを出力して、ユーザに提示する(S23)。 The information processing apparatus 1 thus obtains the transaction signs of "buy", "sell", and "N/A" corresponding to individual estimation results obtained from each machine learning model. The information processing apparatus 1 accumulates the numbers of "buy", "sell", and "N/A" transaction signs, respectively, and determines the transaction sign with the largest accumulated value as the transaction sign to be output (S22). . This means that the trading signature to be output is determined by a majority vote. When the number of "buy" transaction signs and the number of "sell" transaction signs are the same and the number is greater than the number of "N/A" transaction signs, the information processing device 1 may determine a trade sign of "N/A" as the trade sign to output. Then, the information processing apparatus 1 outputs the transaction signature determined in step S22 and presents it to the user (S23).

ユーザはこの取引サインを参照して、取引の設定を行うこととすればよい。あるいは、情報処理装置1は、ステップS22で得た取引サインに基づき、人為的操作なしに、所定の時刻、例えば15時に取引を行ってもよい。具体的に情報処理装置1は、ステップS22において「買い」の取引サインが得られた場合は、15時にN225に連動するファンドを所定単位だけ購入する注文を行う。また、情報処理装置1は、ステップS22において「売り」の取引サインが得られた場合は、15時にN225に連動するファンドを所定単位だけ売却する注文を行う。さらに情報処理装置1は、ステップS22において「N/A」の取引サインが得られた場合は、終日、人為的操作なく取引を行わない。 The user can refer to this transaction signature to set the transaction. Alternatively, the information processing device 1 may perform a transaction at a predetermined time, such as 15:00, without any manual operation, based on the transaction signature obtained in step S22. Specifically, when the "buy" transaction sign is obtained in step S22, the information processing apparatus 1 places an order to purchase a predetermined unit of funds linked to N225 at 15:00. Further, when the "sell" transaction sign is obtained in step S22, the information processing apparatus 1 places an order to sell a predetermined unit of the fund linked to N225 at 15:00. Furthermore, the information processing apparatus 1 does not conduct transactions without human intervention throughout the day when the transaction signature of "N/A" is obtained in step S22.

このように、本実施の形態の情報処理装置1は、それぞれ互いに異なる機械学習のパラメータで機械学習したN個の機械学習モデルを用いている。そして情報処理装置1は、機械学習の評価結果が比較的近く、かつ評価の高い所定数個の機械学習モデルを選択する。情報処理装置1は、当該選択した機械学習モデルのアンサンブル処理を行う。これより、本実施の形態の情報処理装置1は、推定結果のばらつきを抑えて、機械学習モデルの調整や検証の必要を低減できる。また、本実施の形態の情報処理装置1は、複数の機械学習モデルのアンサンブル処理により得られる推定結果の精度を向上できる。 In this manner, the information processing apparatus 1 of the present embodiment uses N machine learning models that are machine-learned using different machine-learning parameters. Then, the information processing apparatus 1 selects a predetermined number of machine learning models with relatively close machine learning evaluation results and high evaluations. The information processing device 1 performs ensemble processing of the selected machine learning model. As a result, the information processing apparatus 1 according to the present embodiment can suppress variations in the estimation results and reduce the need for adjustment and verification of the machine learning model. In addition, the information processing apparatus 1 of the present embodiment can improve the accuracy of estimation results obtained by ensemble processing of a plurality of machine learning models.

[シードの決定処理の変形例]
ここまでの説明では、機械学習モデル設定部21が設定するN個の機械学習モデルのシードを互いに異なるものとするため、それぞれランダムに設定することとしていた。しかしながら、本実施の形態においては、N個の機械学習モデルのシードを単にランダムにするのではなく、次のようにして互いに異なるものとしてもよい。
[Modified example of seed determination processing]
In the description so far, the seeds of the N machine learning models set by the machine learning model setting unit 21 are different from each other, so that they are set randomly. However, in the present embodiment, the seeds of the N machine learning models may be different from each other as follows instead of being simply randomized.

本実施の形態の一例では、機械学習モデルは多層のニューラルネットワークからなるモデルである。この場合、機械学習モデル設定部21により設定されたシードは、ニューラルネットワークの各層間の重み及びバイアスの初期値を初期化する。以下、第i番目の機械学習モデルにおける第j層と第j+1層との間の重みのベクトルをWi,j、バイアスをbi,jと書くこととする。 In one example of this embodiment, the machine learning model is a model consisting of a multi-layered neural network. In this case, the seed set by the machine learning model setting unit 21 initializes initial values of weights and biases between layers of the neural network. Hereinafter, the weight vector between the j-th layer and the j+1-th layer in the i-th machine learning model is written as Wi,j, and the bias is written as bi,j.

機械学習モデル設定部21は、N個の機械学習モデルのシードを互いに異ならせる。ただし、機械学習モデル設定部21は、各機械学習モデルのシードの一部が他の機械学習モデルのシードの一部と共通となるようにしておく。すなわち、機械学習モデル設定部21は、どのiについてもWi,j、bi,jの一部の値がWi',j、bi',jの値と等しくなるように設定する。ここでi′≠iである。 The machine learning model setting unit 21 makes the seeds of the N machine learning models different from each other. However, the machine learning model setting unit 21 makes a part of the seed of each machine learning model common to a part of the seed of other machine learning models. That is, the machine learning model setting unit 21 sets the values of some of Wi,j and bi,j to be equal to the values of Wi',j and bi',j for any i. where i'≠i.

このようなシードを設定するため、機械学習モデル設定部21は、例えば次のように処理を行う。機械学習モデル設定部21は、N個の機械学習モデルのうち、第1番目の機械学習モデルの各層間の重みW1,jとバイアスb1,jをランダムに設定する。 In order to set such seeds, the machine learning model setting unit 21 performs, for example, the following processing. The machine learning model setting unit 21 randomly sets the weight W1,j and the bias b1,j between the layers of the first machine learning model among the N machine learning models.

機械学習モデル設定部21は、第2番目の機械学習モデルの各層間の重みW2,jとバイアスb2,jの一部、例えば第1層と第2層との間の重みW2,1とバイアスb2,1を、第1番目の機械学習モデルの対応する層間の重みW1,1とバイアスb1,1を複写して設定する。また、機械学習モデル設定部21は、複写した重みとバイアス以外の層間の重みW2,kとバイアスb2,k(k=2,3,…)を、ランダムに設定する。 The machine learning model setting unit 21 sets a part of the weight W2,j and the bias b2,j between each layer of the second machine learning model, for example, the weight W2,1 and the bias between the first layer and the second layer. b2,1 is set by copying the weight W1,1 and the bias b1,1 between the corresponding layers of the first machine learning model. In addition, the machine learning model setting unit 21 randomly sets the weight W2,k and the bias b2,k (k=2, 3, . . . ) between the layers other than the copied weight and bias.

以下、機械学習モデル設定部21は、第i番目の機械学習モデルの各層間の重みWi,jとバイアスbi,jの一部である、第m層とその次の第m+1層との間の重みWi,mとバイアスbi,mを、第i-1番目の機械学習モデルの対応する層間の重みWi-1,mとバイアスbi-1,mを複写して設定する。ここでiは2以上の整数であり、m=(i+1) mod (M-1)+1とする。なお、Mは機械学習モデルの層の数、a mod bは、aをbで除した余りを意味する。つまり、mは、iが1ずつ大きくなるごとに、m=1,2,…M-1,1,2…と繰り返す値となる。また機械学習モデル設定部21は、第i番目の機械学習モデルの各層間の重みとバイアスのうち、上記複写した重みとバイアス以外のものについてはランダムに決定する。 Hereafter, the machine learning model setting unit 21 sets the weight Wi,j and the bias bi,j between each layer of the i-th machine learning model, which is part of the The weight Wi,m and the bias bi,m are set by copying the weight Wi-1,m and the bias bi-1,m between the corresponding layers of the (i-1)th machine learning model. Here, i is an integer of 2 or more, and m=(i+1) mod (M−1)+1. Note that M is the number of layers of the machine learning model, and a mod b is the remainder obtained by dividing a by b. That is, m is a value that repeats m=1, 2, . . . M−1, 1, 2, . The machine learning model setting unit 21 randomly determines weights and biases between layers of the i-th machine learning model other than the weights and biases copied above.

このようにすると、第i番目の機械学習モデルの、ある層間の重みとバイアスが、第i-1番目の機械学習モデルの対応する層間の重みとバイアスと同一となり、他の層間の重みとバイアスについては異ならされることとなる。 In this way, the weights and biases between layers of the i-th machine learning model are the same as the weights and biases between the corresponding layers of the (i−1)-th machine learning model, and the weights and biases between other layers will be different.

この例によると、一部のシードのみが重なる複数の機械学習モデルが設定されることとなり、学習処理の結果は互いに異なりつつ、類似した出力を行う機械学習モデルを得ることが期待される。 According to this example, a plurality of machine learning models are set in which only some of the seeds overlap, and it is expected to obtain machine learning models that produce similar outputs while the results of learning processing differ from each other.

なお、ここで説明したシードの設定例は一例である。機械学習モデル設定部21の動作は、
・N個の機械学習モデルのシードが互いに異なること、
・各機械学習モデルのシードの少なくとも一部が他の機械学習モデルのシードと共通となるように設定されること、
の条件を満足できれば、どのようなものでもよい。
Note that the seed setting example described here is just an example. The operation of the machine learning model setting unit 21 is
- the seeds of the N machine learning models are different from each other;
- At least part of the seed of each machine learning model is set so as to be common to the seeds of other machine learning models;
Anything can be used as long as it satisfies the following conditions.

[機械学習のパラメータの他の例]
また本発明の実施の形態における機械学習パラメータは、機械学習モデル設定部21が設定するN個の機械学習モデルのシードに限られない。本発明の実施の形態における機械学習パラメータは、機械学習モデルに入力する入力データの種類であってもよい。
[Other examples of machine learning parameters]
Moreover, the machine learning parameters in the embodiment of the present invention are not limited to the seeds of the N machine learning models set by the machine learning model setting unit 21 . A machine learning parameter in the embodiment of the present invention may be the type of input data to be input to the machine learning model.

この例では、機械学習モデル設定部21は、入力データのもととなる情報として、複数の種類の情報を用いる。一例として機械学習モデル設定部21は、互いに異なる国の市場に係る複数のインデックス情報から、互いに異なる1つ以上のインデックス情報を選択し、当該選択したインデックス情報の組み合わせを、予め定めた数X通りだけ作成する。 In this example, the machine learning model setting unit 21 uses a plurality of types of information as information that is the source of input data. As an example, the machine learning model setting unit 21 selects one or more different index information from a plurality of pieces of index information related to markets in different countries, and combines the selected index information in a predetermined number X ways. only create.

また機械学習モデル設定部21は、選択したインデックス情報のそれぞれに基づいて複数の特徴量を算出する。そして機械学習モデル設定部21は当該算出した複数の特徴量のうち、少なくとも一部を選択して、当該選択した特徴量の組み合わせを、予め定めた数Y通りだけ作成する。ここでは、一例として、これらX,Yの積、X×Yが、機械学習モデルの数Nに等しくなるようにしておくものとする。 The machine learning model setting unit 21 also calculates a plurality of feature amounts based on each of the selected index information. Then, the machine learning model setting unit 21 selects at least some of the calculated plurality of feature amounts, and creates a predetermined number Y of combinations of the selected feature amounts. Here, as an example, it is assumed that the product of X and Y, X×Y, is equal to the number N of machine learning models.

機械学習モデル設定部21は、このX×Y=N通りの特徴量の組み合わせを、N個の機械学習モデルのそれぞれの入力データとして、N個の機械学習モデルの機械学習処理に利用する。ここで特徴量のN通りの組み合わせは、人為的操作を受けることなく所定の条件に基づいて機械学習モデル設定部21が作成してもよいし、利用者が明示的に指定した組み合わせを利用して機械学習モデル設定部21が作成してもよい。 The machine learning model setting unit 21 uses the X×Y=N combination of feature amounts as input data for each of the N machine learning models for machine learning processing of the N machine learning models. Here, the N combinations of feature amounts may be created by the machine learning model setting unit 21 based on predetermined conditions without being subjected to human operation, or combinations explicitly specified by the user may be used. may be created by the machine learning model setting unit 21.

この機械学習モデル設定部21の動作をさらに具体的な例を用いて説明する。本実施の形態の一例では、情報処理装置1は、入力データのもととなる情報として、過去の複数の日付D1,D2,…におけるインデックス情報IA(D1),IA(D2),…IB(D1),IB(D2)…,Ii(Dk),…を受け入れる。ここで、それぞれのインデックス情報Ii(Dk)について、
(a)始値に対する終値の比(%)、
(b)高値に対する終値の比(%)、
(c)安値に対する終値の比(%)、及び、
(d)当該日付Dkの前日の終値に対する、日付Dkiの始値の比(%)、
(e)日付Dkの前日の終値に対する、日付Dkの終値の比(%)、
(f)日付Dkにおけるボラティリティ、
など複数種類の特徴量が算出される。
The operation of this machine learning model setting unit 21 will be described using a more specific example. In one example of the present embodiment, the information processing apparatus 1 uses index information IA(D1), IA(D2), . D1), IB (D2), . . . , Ii (Dk), . Here, for each index information Ii (Dk),
(a) ratio of closing price to opening price (%),
(b) ratio of closing price to high price (%);
(c) the ratio of the closing price to the low price (%), and
(d) Ratio (%) of the opening price of the date Dk to the closing price of the previous day of the relevant date Dk,
(e) the ratio (%) of the closing price of date Dk to the closing price of the previous day of date Dk;
(f) volatility on date Dk;
A plurality of types of feature amounts such as are calculated.

つまり、ここでは上記6種類の特徴量をそれぞれ算出するために、複数のインデックス情報IA,IB,IC…を、制御部11が受け入れるものとする。上述の例では、制御部11は、過去の複数の日付D1,D2,…ごとに、インデックス情報Iの数×6種類の特徴量を算出することとなる。なお、上記(d),(e)において前日の終値と、その翌日の市場の情報との比を求めているのは、他国の取引の状況を受けて、市場の閉場中であってもインデックス情報が変化することがあることを考慮したものである。 That is, here, the control unit 11 receives a plurality of pieces of index information IA, IB, IC, . In the above example, the control unit 11 calculates the number of index information items I×6 types of feature amounts for each of a plurality of past dates D1, D2, . In (d) and (e) above, the ratio between the previous day's closing price and the next day's market information is calculated because the index It takes into consideration that information may change.

また機械学習モデル設定部21は、日付Dkにおける1つ以上の第1のインデックス情報Ii(Dk)に基づいて算出される特徴量を含む入力データに対応する正解データとして、当該日付Dk以降の日付における第2のインデックス情報に関係する情報を取得する。ここで第2のインデックス情報は、機械学習モデルによる推定の対象となる国のインデックス情報とし、第1のインデックス情報は、当該推定の対象となる国とは異なる国のインデックス情報を含むものとする。 In addition, the machine learning model setting unit 21 selects dates after the date Dk as correct data corresponding to input data including feature amounts calculated based on one or more pieces of first index information Ii (Dk) on the date Dk. obtain information related to the second index information in . Here, the second index information shall be index information of a country to be estimated by the machine learning model, and the first index information shall include index information of a country different from the country to be estimated.

そして機械学習モデル設定部21は、図6に例示するように、インデックス情報IA,IB,IC,ID…のうちから一部を選択して、当該選択したインデックス情報を組み合わせることで、複数通りの互いに異なるインデックス情報の組み合わせxを作成する。さらに機械学習モデル設定部21は、インデックス情報の組み合わせのそれぞれに基づいて算出される、特徴量の種類(a)ないし(f)の組み合わせyを複数列挙する。図6の例では、
組み合わせ1:(a,b,c)
組み合わせ2:(a,b,c,f)
組み合わせ3:(a,b,c,d,f)
組み合わせ4:(a,b,c,e,f)
がそれぞれ列挙されているものとしている。なお、図6では、後に説明する、各インデックス情報の組み合わせと、特徴量の種類の組み合わせとを掛け合わせて特徴量の組み合わせを複数通り設定しており、また、当該複数通りの特徴量の組み合わせのそれぞれに基づく入力データを入力して機械学習した機械学習モデルの評価情報Vも示している。この評価情報Vについては後に述べる。
Then, as illustrated in FIG. 6, the machine learning model setting unit 21 selects part of the index information IA, IB, IC, ID, . A combination x of different index information is created. Further, the machine learning model setting unit 21 enumerates a plurality of combinations y of types (a) to (f) of feature amounts calculated based on each combination of index information. In the example of Figure 6,
Combination 1: (a, b, c)
Combination 2: (a, b, c, f)
Combination 3: (a, b, c, d, f)
Combination 4: (a, b, c, e, f)
are listed respectively. Note that in FIG. 6, a plurality of combinations of feature amounts are set by multiplying a combination of each index information and a combination of types of feature amounts, which will be described later. The evaluation information V of the machine learning model machine-learned by inputting the input data based on each is also shown. This evaluation information V will be described later.

機械学習モデル設定部21は、ここで用意したX通りのインデックス情報の組み合わせと、Y通りの特徴量の種類との組み合わせとからなるX×Y=N通りの特徴量の組み合わせのそれぞれに対応するN個の機械学習モデルを初期化して、記憶部12に格納する。 The machine learning model setting unit 21 corresponds to each of X×Y=N combinations of feature amounts, which are X combinations of index information prepared here and Y combinations of types of feature amounts. N machine learning models are initialized and stored in the storage unit 12 .

この例でも機械学習モデルは、例えば多層のニューラルネットワークからなるモデルでよく、ここでは各層のノード間の重みとバイアス情報とのシードを、例えばランダムな値に設定することが、ここでの機械学習モデルの初期化に相当する。またこの初期化の方法は広く知られた方法を採用できる。 In this example as well, the machine learning model may be, for example, a model consisting of a multilayer neural network. Corresponds to model initialization. A widely known method can be adopted for this initialization method.

学習処理部22は、機械学習モデル設定部21が設定したN個の機械学習モデルのそれぞれについて対応する入力データと、当該入力データに対応する正解データとを用いて機械学習処理を実行する。 The learning processing unit 22 executes machine learning processing using input data corresponding to each of the N machine learning models set by the machine learning model setting unit 21 and correct data corresponding to the input data.

すなわち学習処理部22は、N個の機械学習モデルのうち、第1番目の機械学習モデルについては、各日付D1,D2,…のインデックス情報IA,IB,IC,IHのそれぞれについての上記組み合わせ1に係る種類の特徴量(a),(b),(c)を含む入力データを、対応する入力データとする。 That is, the learning processing unit 22 performs the above combination 1 for each of the index information IA, IB, IC, IH of each date D1, D2, . Let the input data containing the feature amounts (a), (b), and (c) of the type concerned be the corresponding input data.

また学習処理部22は、当該入力データを入力したときの第1番目の機械学習モデルの出力を得て、日付Diに係る入力データを第1番目の機械学習モデルに入力して得られた出力と、日付Diに係る入力データに対応する正解データとを比較して、当該比較の結果に基づいて、第1番目の機械学習モデルのノード間の重みやバイアス情報をバックプロパゲーションにより更新する。 Further, the learning processing unit 22 obtains the output of the first machine learning model when the input data is input, and the output obtained by inputting the input data related to the date Di to the first machine learning model and the correct data corresponding to the input data on the date Di, and based on the result of the comparison, weights and bias information between nodes of the first machine learning model are updated by back propagation.

学習処理部22は、第j番目の機械学習モデルについても同様に、当該第j番目の機械学習モデルに対応する入力データを入力し、その出力と、当該入力データに対応する正解データとの比較の結果に基づいて、第j番目の機械学習モデルのノード間の重みやバイアス情報をバックプロパゲーションにより更新する。ここでj=2,3…Nである。 The learning processing unit 22 similarly inputs the input data corresponding to the j-th machine learning model for the j-th machine learning model, and compares the output with the correct data corresponding to the input data. Based on the result of , the weight and bias information between the nodes of the j-th machine learning model are updated by back propagation. where j=2,3...N.

評価取得部23は、予め定めた評価のタイミングが到来すると、学習処理部22にて機械学習処理したN個の機械学習モデルのそれぞれを評価した評価情報Vを取得する。具体的にここで評価取得部23は、学習処理部22での機械学習処理が終了したと判断されるタイミングで、機械学習処理されたN個の機械学習モデルのそれぞれを評価した評価情報Vを生成する。 The evaluation acquisition unit 23 acquires evaluation information V obtained by evaluating each of the N machine learning models machine-learned by the learning processing unit 22 when a predetermined evaluation timing arrives. Specifically, the evaluation acquisition unit 23 acquires evaluation information V obtained by evaluating each of the N machine learning models subjected to the machine learning process at the timing when it is determined that the machine learning process in the learning processing unit 22 has ended. Generate.

この評価情報Vは、例えば広く知られた推定精度、すなわちAccuracyや、適合率、すなわちPrecisionなどの評価値でよい。一例として本実施の形態の上述の例のように、所定のインデックスに関する推定を行う場合、当該所定のインデックスの始値に対する終値の変化率をどの程度正しく推定できたかを表す値、つまり正解率、あるいは勝率を、推定精度とする。 This evaluation information V may be, for example, an evaluation value such as widely known estimation accuracy, namely Accuracy, or precision, or the like. As an example, when estimating a predetermined index as in the above example of the present embodiment, a value representing how accurately the change rate of the closing price with respect to the opening price of the predetermined index was estimated, that is, the accuracy rate, Alternatively, the winning percentage is used as the estimation accuracy.

この評価取得部23の動作により、本実施の形態の情報処理装置1は、図6に例示したように、行方向にX通りのインデックス情報の組み合わせxを配列し、列方向に組み合わせに係るインデックス情報のそれぞれに基づいて算出されるY通りの特徴量の種類の組み合わせyを配列した、X×Y=N個の評価情報Vを得る。この評価情報Vの各々は、N個の機械学習モデルのそれぞれの評価情報となっている。 By the operation of the evaluation acquisition unit 23, the information processing apparatus 1 of the present embodiment arranges X combinations x of index information in the row direction and indexes related to the combinations in the column direction, as illustrated in FIG. X×Y=N pieces of evaluation information V are obtained by arranging Y combinations y of types of feature amounts calculated based on each piece of information. Each piece of this evaluation information V is evaluation information for each of the N machine learning models.

選択部24は、評価取得部23が取得した評価情報Vに基づく所定の条件を用いて、N個の機械学習モデルのうちから、n個の機械学習モデルを選択する。ここでnは2以上かつN未満の整数である。 The selection unit 24 selects n machine learning models from among the N machine learning models using a predetermined condition based on the evaluation information V acquired by the evaluation acquisition unit 23 . Here, n is an integer of 2 or more and less than N.

本実施の形態の一例では、選択部24は、N個の機械学習モデルのそれぞれの推定精度を表す評価情報Vを、降順に、つまり高評価なものから順に配列する。そして選択部24は、推定精度を表す評価情報Vが高評価である上位n個の機械学習モデルを選択する。 In one example of the present embodiment, the selection unit 24 arranges the evaluation information V representing the estimation accuracy of each of the N machine learning models in descending order, that is, in descending order of the highest evaluation. Then, the selection unit 24 selects the top n machine learning models whose evaluation information V representing estimation accuracy is highly evaluated.

アンサンブル処理部25は、当該選択されたn個の機械学習モデルを用いて所定の推定処理を実行する。本実施の形態の例では、アンサンブル処理部25は、推定の対象の日付以前の日付Dに得られたインデックス情報IA(D),IB(D)…を受け入れて、機械学習の処理の際と同様に、選択されたn個の機械学習モデルのそれぞれについて対応する入力データを生成する。 The ensemble processing unit 25 executes predetermined estimation processing using the selected n machine learning models. In the example of the present embodiment, the ensemble processing unit 25 receives the index information IA(D), IB(D), . Similarly, generate corresponding input data for each of the n selected machine learning models.

例えば推定の対象の日付の前日及び前々日のインデックス情報IA,IB,IC,IHから、それぞれに含まれる特徴量(a),(b),(c)を抽出し、当該抽出した特徴量の組み合わせに基づく入力データを用いて機械学習した機械学習モデルL1と、インデックス情報IA,IB,IC,IHから、それぞれに含まれる特徴量(a),(b),(c),(f)を抽出し、当該抽出した特徴量の組み合わせに基づく入力データを用いて機械学習した機械学習モデルL2とが選択されているとする。この場合、アンサンブル処理部25は、上記機械学習モデルL1に対しては、推定の対象の日付以前の日付Dにおけるインデックス情報IA(D),IB(D),IC(D),IH(D)のそれぞれから特徴量(a),(b),(c)を抽出し、当該抽出した特徴量に基づいて入力データを生成する。 For example, the feature values (a), (b), and (c) included in each index information IA, IB, IC, and IH of the day before and two days before the date to be estimated are extracted, and the extracted feature values Machine learning model L1 machine-learned using input data based on a combination of and from index information IA, IB, IC, and IH, feature amounts (a), (b), (c), and (f) included in each is extracted, and a machine learning model L2 that has undergone machine learning using input data based on the combination of the extracted feature amounts is selected. In this case, for the machine learning model L1, the ensemble processing unit 25 performs index information IA(D), IB(D), IC(D), and IH(D) on dates D before the date to be estimated. and extracts feature amounts (a), (b), and (c) from each, and generates input data based on the extracted feature amounts.

また、機械学習モデルL2に対しては、推定の対象の日付以前の日付Dに得られたインデックス情報IA(D),IB(D),IC(D),IH(D)のそれぞれから特徴量(a),(b),(c),(f)を抽出し、当該抽出した特徴量に基づいて入力データを生成する。 Also, for the machine learning model L2, the feature values (a), (b), (c), and (f) are extracted, and input data is generated based on the extracted feature amounts.

アンサンブル処理部25は、以下同様に選択した機械学習モデルに対して、当該機械学習モデルを機械学習する際に用いたものと同じ種類の情報を抽出する。つまりここでの例では、アンサンブル処理部25は、機械学習の際に用いた国のインデックス情報と同じ国のインデックス情報から同じ種類の特徴量を抽出する。そしてアンサンブル処理部25は、当該抽出した特徴量に基づいて入力データを生成する。 The ensemble processing unit 25 similarly extracts the same type of information as that used when performing machine learning on the selected machine learning model. That is, in this example, the ensemble processing unit 25 extracts the same type of feature amount from the index information of the same country as the index information of the country used in the machine learning. Then, the ensemble processing unit 25 generates input data based on the extracted feature amount.

アンサンブル処理部25は、選択した機械学習モデルに対して、対応して生成した入力データをそれぞれ入力し、各機械学習モデルによる推定の結果を得る。ここで推定の結果は例えば上述のように、機械学習時に正解データとして入力された国のインデックス情報であり、具体的には上記日付Dの翌日のN225の変化率である。そしてアンサンブル処理部25は、当該推定の結果である変化率に基づいて、「買い」、「売り」、「N/A(No Action、何もしない)」の取引サインのいずれかを選択して出力する。 The ensemble processing unit 25 inputs the input data generated corresponding to the selected machine learning model, and obtains the result of estimation by each machine learning model. Here, the result of estimation is, for example, the country index information input as correct data during machine learning, as described above, and specifically, the change rate of N225 on the day after the date D described above. Then, the ensemble processing unit 25 selects one of the transaction signs of "buy", "sell", and "N/A (no action, do nothing)" based on the rate of change that is the result of the estimation. Output.

具体的に、アンサンブル処理部25は、選択されたn個の機械学習モデルによる個々の推定の結果を用い、推定されたN225の変化率が、所定の第一しきい値以上であれば「買い」の取引サインを出力する。またアンサンブル処理部25は、推定されたN225の変化率が、所定の第二しきい値以下であれば、「売り」の取引サインを出力する。さらにアンサンブル処理部25は、推定されたN225の変化率が、上記第一しきい値未満であり、第二しきい値より大きい場合は、「N/A」の取引サインを出力する。ここで第一しきい値は、0より大きい割合を表す数値、例えば+1%、あるいは+0.1%などとし、第二しきい値は例えば、0より小さい割合を表す数値、例えば-1%、あるいは-0.1%などとする。これらのしきい値は、経験的、あるいは実験的に定めるものとする。 Specifically, the ensemble processing unit 25 uses the results of individual estimation by the selected n machine learning models, and if the estimated change rate of N225 is equal to or greater than a predetermined first threshold, the “buy ” output the transaction sign. Also, the ensemble processing unit 25 outputs a “sell” transaction sign if the estimated rate of change of N225 is equal to or less than a predetermined second threshold value. Furthermore, the ensemble processing unit 25 outputs a transaction sign of "N/A" when the estimated change rate of N225 is less than the first threshold and greater than the second threshold. Here, the first threshold is a numerical value representing a percentage greater than 0, such as +1% or +0.1%, and the second threshold is a numerical value representing a percentage less than 0, such as -1%. Alternatively, -0.1% or the like is used. These thresholds are determined empirically or experimentally.

アンサンブル処理部25は、各機械学習モデルから得られた個々の推定の結果に対応して、それぞれ上記「買い」、「売り」、「N/A」の取引サインを得る。そしてアンサンブル処理部25は、これらのうち最も数の多く得られた取引サインを出力する。 The ensemble processing unit 25 obtains the "buy", "sell", and "N/A" transaction signs corresponding to the individual estimation results obtained from each machine learning model. Then, the ensemble processing unit 25 outputs the transaction signature obtained in the largest number among them.

もっとも、ここで説明したアンサンブル処理部25の処理は一例であり、この他の方法、例えば、各機械学習モデルによる個々の推定の結果を平均してN225の変化率の推定値とし、当該推定値が本日開場時のN225に比べ所定の第一しきい値以上であれば「買い」とし、所定の第二のしきい値以下であれば「売り」とする取引サインを出力することとしてもよい。またこの例でも上記推定値が、所定の第一しきい値未満であり、第二しきい値より大きい場合は「N/A」とする取引サインを出力する。 However, the processing of the ensemble processing unit 25 described here is an example, and another method, for example, averaging individual estimation results by each machine learning model to obtain an estimated value of the rate of change of N225, and the estimated value If the N225 at the time of opening today is equal to or greater than a predetermined first threshold value, a transaction signal of "buy" is output, and if the value is equal to or less than a predetermined second threshold value, a transaction signal of "sell" is output. . Also in this example, if the estimated value is less than a predetermined first threshold value and greater than a second threshold value, a transaction sign of "N/A" is output.

[選択の処理例]
またここまでの例において、機械学習処理の際に、推定の処理に用いる機械学習モデルを選択する方法として、それぞれ互いに異なる機械学習のパラメータで機械学習したN個の機械学習モデルの評価情報Vを得て、当該評価情報Vの順に配列し、その上位n個の機械学習モデルを選択することとしていた。しかし、本実施の形態における選択の方法はこの方法に限られない。
[Selection processing example]
In the examples so far, as a method of selecting a machine learning model to be used for estimation processing during machine learning processing, evaluation information V of N machine learning models machine-learned with mutually different machine learning parameters is used. are obtained, arranged in the order of the evaluation information V, and the top n machine learning models are selected. However, the selection method in this embodiment is not limited to this method.

例えば、情報処理装置1は、インデックス情報を問わず、特徴量の組み合わせが同じである入力データを入力した機械学習モデルの評価情報Vとしての評価値の平均値、中央値、あるいは最大値などの統計量を求める。情報処理装置1は、ここで求めた統計量が、もっとも評価の高いものであることを表している特徴量の組み合わせを見出す。 For example, regardless of the index information, the information processing apparatus 1 can determine the average value, median value, maximum value, or the like of the evaluation values as the evaluation information V of the machine learning model to which the input data having the same combination of feature amounts is input. Find statistics. The information processing apparatus 1 finds a combination of feature amounts that indicates that the statistical amount obtained here has the highest evaluation.

具体的に図3に例示した評価情報Vであれば、
特徴量の種類の組み合わせ(a,b,c)について、その評価値の平均52.05、標準偏差1.23
組み合わせ(a,b,c,f)について、評価値の平均53.46、標準偏差1.72
組み合わせ(a,b,c,d,f)について、評価値の平均52.36、標準偏差0.70
組み合わせ(a,b,c,e,f)について、評価値の平均51.77、標準偏差0.69
といった統計量が得られる。情報処理装置1はこの統計量を用いて、標準偏差が所定値(例えば、標準偏差の平均値)を下回り、かつ、評価値の平均値が最も高いなどの条件で、一つの特徴量の種類の組み合わせを選択する。ここでの例では、以上の条件から、組み合わせ(a,b,c,d,f)が選択される。
Specifically, if the evaluation information V illustrated in FIG. 3 is
For the combination of feature types (a, b, c), the average of the evaluation values is 52.05 and the standard deviation is 1.23.
For the combination (a, b, c, f), the average of the evaluation values 53.46, the standard deviation 1.72
For the combination (a, b, c, d, f), the average of the evaluation values 52.36, the standard deviation 0.70
For the combination (a, b, c, e, f), the average of the evaluation values 51.77, the standard deviation 0.69
statistic is obtained. The information processing device 1 uses this statistic to determine the type of one feature amount under conditions such as the standard deviation being below a predetermined value (for example, the average value of standard deviations) and the average evaluation value being the highest. choose a combination of In the example here, the combination (a, b, c, d, f) is selected from the above conditions.

そして情報処理装置1は、インデックス情報を問わず、特徴量の種類(a,b,c,d,f)の組み合わせに基づく入力データにて機械学習処理した機械学習モデルを選択することとしてもよい。 Then, the information processing apparatus 1 may select a machine learning model that has undergone machine learning processing using input data based on combinations of the types of feature amounts (a, b, c, d, f) regardless of the index information. .

また別の例では、情報処理装置1は、特徴量の種類の組み合わせを問わず、インデックス情報の組み合わせが同じである入力データを入力した機械学習モデルの評価情報Vとしての評価値の平均値、中央値、あるいは最大値などの統計量を求める。情報処理装置1は、ここで求めた統計量が、もっとも評価の高いものであることを表しているインデックス情報の組み合わせを見出す。 In another example, the information processing apparatus 1 receives the input data having the same combination of index information regardless of the combination of the types of feature amounts, the average value of the evaluation values as the evaluation information V of the machine learning model, Find a statistic such as the median or maximum value. The information processing apparatus 1 finds a combination of index information indicating that the statistic obtained here has the highest evaluation.

図3に例示した評価情報Vであれば、
(1)インデックス情報IA,IB,IC,IHの組み合わせ
(2)インデックス情報IA,IB,IC,IF,IHの組み合わせ

(8)インデックス情報IA,IB,IC,ID,IE,IF,IG,IH,IIの組み合わせのそれぞれに係る評価値について、
(1) 平均51.79、標準偏差0.90
(2) 平均51.98、標準偏差0.58
(3) 平均52.62、標準偏差0.89
(4) 平均51.81、標準偏差1.20
(5) 平均53.43、標準偏差0.39
(6) 平均51.69、標準偏差0.31
(7) 平均53.23、標準偏差2.91
(8) 平均52.72、標準偏差0.80
といった統計量が得られる。情報処理装置1はこの統計量を用いて、標準偏差がその平均を下回り、かつ、評価値の平均値が最も高いなどの条件で、一つの特徴量の組み合わせを選択する。ここでの例では、以上の条件から、インデックス情報の組み合わせ(V)、すなわちインデックス情報IA,IB,IC,ID,IE,IH,IIの組み合わせが選択される。
If the evaluation information V illustrated in FIG. 3,
(1) Combination of index information IA, IB, IC and IH (2) Combination of index information IA, IB, IC, IF and IH...
(8) Evaluation values for each combination of index information IA, IB, IC, ID, IE, IF, IG, IH, and II:
(1) average 51.79, standard deviation 0.90
(2) Average 51.98, standard deviation 0.58
(3) average 52.62, standard deviation 0.89
(4) mean 51.81, standard deviation 1.20
(5) average 53.43, standard deviation 0.39
(6) average 51.69, standard deviation 0.31
(7) average 53.23, standard deviation 2.91
(8) average 52.72, standard deviation 0.80
statistic is obtained. The information processing apparatus 1 uses this statistic to select one combination of feature amounts under conditions such as the standard deviation being below the average and the average evaluation value being the highest. In this example, the combination (V) of index information, that is, the combination of index information IA, IB, IC, ID, IE, IH, and II is selected from the above conditions.

そして情報処理装置1は、特徴量を問わず、インデックス情報の組み合わせがインデックス情報IA,IB,IC,ID,IE,IH,IIである入力データにて機械学習処理した機械学習モデルを選択してもよい。 Then, the information processing apparatus 1 selects a machine learning model subjected to machine learning processing using input data whose combination of index information is index information IA, IB, IC, ID, IE, IH, and II, regardless of the feature amount. good too.

このような選択の例によると、ばらつきが比較的小さく、評価値が比較的高いインデックス情報、及び/または特徴量の種類の組み合わせを複数得ることができる。またこの例では、得られた特徴量の組み合わせを利用して機械学習した複数の機械学習モデルのアンサンブル処理を行うようにした。このことで、推定結果のばらつきを抑えて、機械学習モデルの調整や検証の必要を低減しつつ、複数の機械学習モデルのアンサンブル処理結果の精度を向上できる。 According to such a selection example, it is possible to obtain a plurality of combinations of types of index information and/or feature amounts with relatively small variations and relatively high evaluation values. Also, in this example, ensemble processing of a plurality of machine learning models machine-learned using combinations of obtained feature amounts is performed. As a result, it is possible to improve the accuracy of ensemble processing results of a plurality of machine learning models while suppressing variations in estimation results and reducing the need for machine learning model adjustment and verification.

もっとも、この例は一例であり、例えば評価情報である評価値が高い順に並べたとき、上位n個の特徴量の組み合わせを選択しても構わない。 However, this example is only an example, and for example, when the evaluation values, which are the evaluation information, are arranged in descending order, a combination of the top n feature amounts may be selected.

[二段階の選択]
またここまでの説明では、例えば入力データの生成に用いる特徴量の組み合わせを選択するために機械学習した機械学習モデルをそのまま推定の処理に用いることとしたが、本実施の形態はこれに限られない。
[Two step selection]
In addition, in the description so far, for example, a machine learning model that has undergone machine learning is used as it is for estimation processing in order to select a combination of feature amounts used to generate input data, but the present embodiment is not limited to this. do not have.

本実施の形態の一例では、情報処理装置1は、入力データの生成に用いる特徴量の組み合わせを選択する第一段階の選択の処理の後、図7に例示する第二段階の選択の処理を開始することとしてもよい。この第二段階の選択の処理では、情報処理装置1は、機械学習モデルをN′個用意し、それぞれの機械学習パラメータの一例であるシードを互いに異ならせて設定する(S31)。ここでシードを互いに異ならせる方法としては例えばランダムに設定する方法など、既に説明した方法を採用できる。 In one example of the present embodiment, the information processing device 1 performs the second stage selection process illustrated in FIG. It may be started. In this second-stage selection process, the information processing apparatus 1 prepares N′ machine learning models and sets different seeds, which are examples of machine learning parameters (S31). Here, as a method for making the seeds different from each other, the method already described, such as the method of setting the seeds at random, can be adopted.

またここでN′は、3以上の整数であるものとする。そして情報処理装置1は、第一段階の選択の処理で選択した特徴量の組み合わせに基づく入力データを用いて、N′個の機械学習モデルの機械学習処理を実行する(S32)。 Also, here, N' is an integer of 3 or more. Then, the information processing apparatus 1 executes the machine learning process of the N' machine learning models using the input data based on the combination of feature amounts selected in the selection process of the first stage (S32).

情報処理装置1は、ステップS32の機械学習処理の結果として得られたN′個の機械学習モデルのそれぞれについて評価情報を生成する(S33)。ここでの評価情報は既に述べた推定精度の情報でよい。情報処理装置1は、ステップS33で生成した評価情報の降順にN′個の機械学習モデルを配列し、そのうちの一部、上位n′個の機械学習モデルを選択する(S34)。ここでn′は、2以上N′未満の整数である。 The information processing device 1 generates evaluation information for each of the N' machine learning models obtained as a result of the machine learning process of step S32 (S33). The evaluation information here may be information on the estimation accuracy already described. The information processing apparatus 1 arranges the N' machine learning models in descending order of the evaluation information generated in step S33, and selects some of them, the top n' machine learning models (S34). Here, n' is an integer of 2 or more and less than N'.

そして情報処理装置1は、ここで選択したn′個の機械学習モデルを、アンサンブル処理による推定の処理に供する。 Then, the information processing apparatus 1 uses the n′ machine learning models selected here for estimation processing by ensemble processing.

なお、この例では、当初選択する特徴量の組み合わせは複数ある必要は必ずしもない。そこでこの例では、情報処理装置1は、上述の図3のステップS14の処理において、評価情報Vが最も高い値となっている特徴量の組み合わせを一つ選択して、当該選択した特徴量の組み合わせにより、ステップS32における機械学習処理を実行してもよい。 Note that, in this example, it is not always necessary to have a plurality of combinations of feature amounts to be initially selected. Therefore, in this example, the information processing apparatus 1 selects one combination of feature amounts with which the evaluation information V has the highest value in the process of step S14 in FIG. Depending on the combination, machine learning processing in step S32 may be performed.

また情報処理装置1は、次のようにして特徴量の組み合わせを一つ選択してもよい。すなわち情報処理装置1は、インデックス情報を問わず、特徴量の組み合わせが同じである入力データを入力した機械学習モデルの評価情報Vとしての評価値の平均値、中央値、あるいは最大値などの統計量を求める。そしてここで求めた統計量が、所定の条件を満足する特徴量の組み合わせを見出す。ここで所定の条件は例えば、標準偏差がその平均値を下回り、かつ、評価値の平均値が最も高いなどの条件でよい。既に述べたように、この条件の下では、図6の例では、組み合わせ(a,b,c,d,f)が選択される。 The information processing apparatus 1 may also select one combination of feature amounts as follows. That is, the information processing apparatus 1 provides statistics such as the average value, the median value, or the maximum value of the evaluation values as the evaluation information V of the machine learning model to which the input data having the same combination of feature amounts is input, regardless of the index information. ask for quantity. Then, a combination of feature amounts is found in which the statistic obtained here satisfies a predetermined condition. Here, the predetermined condition may be, for example, a condition that the standard deviation is below the average value and the average evaluation value is the highest. As already mentioned, under this condition, the combination (a, b, c, d, f) is selected in the example of FIG.

また情報処理装置1は、特徴量を問わず、インデックス情報の組み合わせが同じである入力データを入力した機械学習モデルの評価情報Vとしての評価値の平均値、中央値、あるいは最大値などの統計量を求める。情報処理装置1は、ここで求めた統計量が、所定の条件を満足するインデックス情報の組み合わせを見出す。 The information processing apparatus 1 also provides statistics such as the average value, the median value, or the maximum value of the evaluation values as the evaluation information V of the machine learning model to which the input data having the same combination of index information is input, regardless of the feature amount. ask for quantity. The information processing apparatus 1 finds a combination of index information whose statistic obtained here satisfies a predetermined condition.

ここでの所定の条件は、標準偏差がその平均値を下回り、かつ、評価値の平均値が最も高いなどの条件でよい。既に述べたように、図6の例では、以上の条件から、インデックス情報の組み合わせ(V)、すなわちインデックス情報IA,IB,IC,ID,IE,IH,IIの組み合わせが選択される。 The predetermined condition here may be a condition such that the standard deviation is below the average value and the average evaluation value is the highest. As already described, in the example of FIG. 6, the combination (V) of index information, that is, the combination of index information IA, IB, IC, ID, IE, IH, and II, is selected from the above conditions.

そして情報処理装置1は、これらの選択により、インデックス情報の組み合わせをインデックス情報IA,IB,IC,ID,IE,IH,IIとし、かつ、特徴量の組み合わせを(a,b,c,d,f)として、この特徴量の組み合わせに基づいて入力データを生成して用いることとする。 By these selections, the information processing apparatus 1 sets the combination of index information as index information IA, IB, IC, ID, IE, IH, and II, and the combination of feature amounts as (a, b, c, d, As f), input data is generated and used based on the combination of the feature amounts.

このような選択の例によると、インデックス情報や特徴量に欠損があるなどした場合などにおいてもばらつきが比較的小さく、かつ評価値が比較的高いインデックス情報、及び/または特徴量の組み合わせを得ることができる。 According to an example of such selection, it is possible to obtain a combination of index information and/or feature amounts with relatively small variations and relatively high evaluation values even when index information or feature amounts are missing. can be done.

[市場が閉じている場合]
さらに本実施の形態の情報処理装置1は、アンサンブル処理部25としての動作を行うにあたり、所定の条件を満足する際には機械学習モデルを用いることなく、情報の出力を行ってもよい。
[When the market is closed]
Further, when the information processing apparatus 1 of the present embodiment operates as the ensemble processing unit 25 and satisfies a predetermined condition, the information processing apparatus 1 may output information without using the machine learning model.

具体的に情報処理装置1は、入力データの元となる複数の種類のインデックス情報のうちに、取得できないインデックス情報がある場合は、「N/A」とする取引サインを出力してもよい。このような場合としては、当該インデックス情報に係る市場が休日などの都合で休場している場合が考えられる。 Specifically, the information processing apparatus 1 may output a transaction sign of "N/A" when there is index information that cannot be obtained among the plurality of types of index information that are the sources of the input data. As such a case, it is conceivable that the market related to the index information is closed due to a holiday or the like.

また情報処理装置1は、推定の対象とする市場、例えばここまでの例で言えばN225に係る日本市場が、休日などの事情で休場している場合は、「N/A」とする取引サインを出力する。 In addition, the information processing device 1, when the market to be estimated, for example, the Japanese market related to N225 in the example so far, is closed due to a holiday or other reasons, the transaction sign of "N/A" to output

[その他の変形例]
また上述の例では、日本との間で輸出入の取引の多い複数の国を選択し、当該選択した国のインデックス情報を用いる例について述べたが、この選択は、日本からの輸入量の多い複数の国を選択することとしてもよいし、日本への輸出量の多い複数の国を選択することとしてもよい。また、情報処理装置1は、所定期間(例えば数年以上)に亘る輸出量または輸入量が多い複数の国を選択してもよい。
[Other Modifications]
Also, in the above example, we described an example in which multiple countries with large import and export transactions with Japan are selected and the index information of the selected countries is used. A plurality of countries may be selected, or a plurality of countries with large export volumes to Japan may be selected. Further, the information processing device 1 may select a plurality of countries with large export or import volumes over a predetermined period (for example, several years or longer).

また、ここでは機械学習の推定の対象が日経平均株価(N225)である場合を例としたが、もちろんこれは一例に過ぎず、例えば、推定の対象がTOPIXであってもよい。 Also, here, the case where the target of machine learning estimation is the Nikkei Stock Average (N225) is taken as an example, but this is, of course, only an example, and for example, the target of estimation may be TOPIX.

また、インデックス情報の変化量が、機械学習の推定の対象であってもよい。例えばN225の前日からの変化量が、機械学習の推定の対象であってもよい。 Also, the amount of change in index information may be subject to machine learning estimation. For example, the amount of change in N225 from the previous day may be subject to machine learning estimation.

1 情報処理装置、11 制御部、12 記憶部、13 操作部、14 表示部、15 通信部、21 機械学習モデル設定部、22 学習処理部、23 評価取得部、24 選択部、25 アンサンブル処理部。

1 information processing device, 11 control unit, 12 storage unit, 13 operation unit, 14 display unit, 15 communication unit, 21 machine learning model setting unit, 22 learning processing unit, 23 evaluation acquisition unit, 24 selection unit, 25 ensemble processing unit .

Claims (8)

入力データの入力を受けて所定の推定情報を出力する機械学習モデルであって、2以上の整数N個の機械学習モデルに係る情報を保持する保持手段と、
互いに異なる種類の入力データであって、当該入力データの種類が、前記入力データの元となる情報の種類、および当該入力データの元となる情報に基づいて算出される特徴量の種類に基づいて決定される入力データを受け入れ、当該受け入れた互いに異なる種類の入力データを用いて、前記機械学習モデルの各々に機械学習させる学習処理手段と、
前記機械学習モデルの各々を評価した評価情報を取得する評価取得手段と、
前記取得した評価情報に基づいて、前記N個の機械学習モデルのうち、1以上かつ前記N未満の整数n個の機械学習モデルを選択する選択手段と、
を含み、
前記学習処理手段は、前記入力データの元となる複数の種類の情報から選択される、互いに異なる1以上の前記入力データの元となる情報の種類のX通りの組み合わせと、前記選択された入力データの元となる情報に基づいて算出される複数の種類の特徴量のY通りの組み合わせとを組み合わせて得たX×Y=N種類の入力データを用いて、前記保持手段が保持するN個の機械学習モデルのそれぞれを機械学習させ、
前記選択手段により選択された機械学習モデルを用いた所定の推定処理を実行する情報処理装置。
a machine learning model that receives an input of input data and outputs predetermined estimated information, the holding means holding information related to N machine learning models, an integer equal to or greater than 2;
input data of different types, the type of the input data is based on the type of information that is the source of the input data, and the type of feature amount that is calculated based on the information that is the source of the input data learning processing means for receiving determined input data and using the received different types of input data to cause each of the machine learning models to perform machine learning;
an evaluation acquisition means for acquiring evaluation information obtained by evaluating each of the machine learning models;
selection means for selecting n machine learning models, an integer equal to or greater than 1 and less than N, from among the N machine learning models based on the acquired evaluation information;
including
The learning processing means comprises X combinations of one or more different types of information that are sources of the input data, selected from a plurality of types of information that are sources of the input data, and the selected input. Using X×Y=N types of input data obtained by combining Y combinations of a plurality of types of feature amounts calculated based on the information that is the source of the data, N pieces of input data held by the holding means Machine learning each of the machine learning models of
An information processing apparatus that executes a predetermined estimation process using the machine learning model selected by the selection means.
請求項1に記載の情報処理装置であって、
前記評価取得手段は、前記保持手段が保持するN個の機械学習モデルの各々による推定精度を表す評価値を、前記評価情報として取得し、
前記選択手段は、前記N個の機械学習モデルのうち、前記評価値が高い順に上位n個の機械学習モデルを選択する情報処理装置。
The information processing device according to claim 1,
The evaluation acquisition means acquires, as the evaluation information, an evaluation value representing the estimation accuracy of each of the N machine learning models held by the holding means,
The information processing device, wherein the selecting means selects the top n machine learning models in descending order of the evaluation value from the N machine learning models.
請求項1または2に記載の情報処理装置であって、
前記所定の推定処理は、前記選択された2以上の整数n個の機械学習モデルのそれぞれに対して入力データを入力し、当該n個の機械学習モデルのそれぞれが出力する結果に関する統計処理を行って、推定結果を取得する処理である情報処理装置。
The information processing device according to claim 1 or 2,
The predetermined estimation process inputs input data to each of the selected n machine learning models, which is an integer of 2 or more, and performs statistical processing on results output from each of the n machine learning models. and an information processing device that acquires an estimation result.
請求項1から3のいずれか一項に記載の情報処理装置であって、
前記学習処理手段は、前記受け入れた入力データを用いて、推定の対象となる国の市場推定に係る情報を出力するよう、前記機械学習モデルの各々に機械学習させる手段であり、
前記入力データは、前記推定の対象となる国とは異なる国の市場インデックスの情報に基づいて得られる特徴量を含み、
前記評価情報は、前記市場推定に係る情報の正解率である情報処理装置。
The information processing device according to any one of claims 1 to 3,
The learning processing means uses the received input data to cause each of the machine learning models to perform machine learning so as to output information related to market estimation of the country to be estimated,
The input data includes a feature value obtained based on market index information in a country different from the country to be estimated,
The information processing device in which the evaluation information is an accuracy rate of the information related to the market estimation.
請求項4に記載の情報処理装置であって、
前記入力データは、前記市場インデックスの情報に基づいて得られる、始値、終値、高値および安値の少なくとも一つに基づいて算出される特徴量を含む情報処理装置。
The information processing device according to claim 4,
The information processing device, wherein the input data includes a feature amount calculated based on at least one of an opening price, a closing price, a high price, and a low price obtained based on the information of the market index.
請求項4または5に記載の情報処理装置であって、
前記市場推定に係る情報に基づいて、前記推定の対象となる国の市場で推薦される売買行動を表す情報を出力する情報処理装置。
The information processing device according to claim 4 or 5,
An information processing device that outputs information representing recommended trading behavior in the market of the country targeted for the estimation based on the information related to the market estimation.
請求項4から6のいずれか一項に記載の情報処理装置であって、
前記市場推定に係る情報は、前記推定の対象となる国の市場インデックスの変化に係る情報である情報処理装置。
The information processing device according to any one of claims 4 to 6,
The information processing apparatus in which the information related to the market estimation is information related to changes in the market index of the country targeted for the estimation.
コンピュータを、
入力データの入力を受けて所定の推定情報を出力する機械学習モデルであって、2以上の整数N個の機械学習モデルに係る情報を保持する保持手段と、
互いに異なる種類の入力データであって、当該入力データの種類が、前記入力データの元となる情報の種類、および当該入力データの元となる情報に基づいて算出される特徴量の種類に基づいて決定される入力データを受け入れ、当該受け入れた互いに異なる種類の入力データを用いて、前記機械学習モデルの各々に機械学習させる学習処理手段と、
前記機械学習モデルの各々を評価した評価情報を取得する評価取得手段と、
前記取得した評価情報に基づいて、前記N個の機械学習モデルのうち、1以上かつ前記N未満の整数n個の機械学習モデルを選択する選択手段と、
当該選択された複数の機械学習モデルを用いた所定の推定処理を実行する手段と、として機能させ、
前記学習処理手段として機能させるときには、前記入力データの元となる複数の種類の情報から選択される、互いに異なる1以上の前記入力データの元となる情報の種類のX通りの組み合わせと、前記選択された入力データの元となる情報に基づいて算出される複数の種類の特徴量のY通りの組み合わせとを組み合わせて得たX×Y=N種類の入力データを用いて、前記保持手段が保持するN個の機械学習モデルのそれぞれを機械学習させるプログラム。
the computer,
a machine learning model that receives an input of input data and outputs predetermined estimated information, the holding means holding information related to N machine learning models, an integer equal to or greater than 2;
input data of different types, the type of the input data is based on the type of information that is the source of the input data, and the type of feature amount that is calculated based on the information that is the source of the input data learning processing means for receiving determined input data and using the received different types of input data to cause each of the machine learning models to perform machine learning;
an evaluation acquisition means for acquiring evaluation information obtained by evaluating each of the machine learning models;
selection means for selecting n machine learning models, an integer equal to or greater than 1 and less than N, from among the N machine learning models based on the acquired evaluation information;
functioning as a means for executing a predetermined estimation process using the selected plurality of machine learning models,
When functioning as the learning processing means, X combinations of one or more different types of information that are sources of the input data, which are selected from a plurality of types of information that are sources of the input data, and the selection The holding means holds X×Y=N types of input data obtained by combining Y combinations of a plurality of types of feature amounts calculated based on the information that is the source of the input data. A program that machine-learns each of N machine-learning models.
JP2021206546A 2020-06-29 2021-12-20 Information processing device and program Active JP7245314B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021206546A JP7245314B2 (en) 2020-06-29 2021-12-20 Information processing device and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021535264A JP6998498B1 (en) 2020-06-29 2020-06-29 Information processing equipment and programs
PCT/JP2020/025569 WO2022003793A1 (en) 2020-06-29 2020-06-29 Information processing device and program
JP2021206546A JP7245314B2 (en) 2020-06-29 2021-12-20 Information processing device and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021535264A Division JP6998498B1 (en) 2020-06-29 2020-06-29 Information processing equipment and programs

Publications (2)

Publication Number Publication Date
JP2022043186A JP2022043186A (en) 2022-03-15
JP7245314B2 true JP7245314B2 (en) 2023-03-23

Family

ID=87888345

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021206546A Active JP7245314B2 (en) 2020-06-29 2021-12-20 Information processing device and program

Country Status (1)

Country Link
JP (1) JP7245314B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018079225A1 (en) 2016-10-31 2018-05-03 日本電気株式会社 Automatic prediction system, automatic prediction method and automatic prediction program
JP2019036232A (en) 2017-08-21 2019-03-07 セコム株式会社 Object recognition device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09128360A (en) * 1995-10-27 1997-05-16 Nippon Telegr & Teleph Corp <Ntt> Method for learning time sequence data and device therefor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018079225A1 (en) 2016-10-31 2018-05-03 日本電気株式会社 Automatic prediction system, automatic prediction method and automatic prediction program
JP2019036232A (en) 2017-08-21 2019-03-07 セコム株式会社 Object recognition device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
石原 龍太 Ryota Ishihara,多層ニューラルネットワークとGAを用いたTOPIX運用AI "TOPIX trading AI" using Malti-layer Neural Networks and GA,人工知能学 金融情報学研究会(SIG-FIN) 019 [online] ,日本,人工知能学会

Also Published As

Publication number Publication date
JP2022043186A (en) 2022-03-15

Similar Documents

Publication Publication Date Title
Martinez-Jaramillo et al. An heterogeneous, endogenous and coevolutionary GP-based financial market
Gibbs et al. DSGE Reno: Adding a housing block to a small open economy model
Buguk et al. The Impact of exchange rate variability on agricultural exports of developing countries: The case of Turkey
FR2792746A1 (en) Control of staged production flow in response to random pressures on production stages using the &#39;value at risk&#39; method
JP7245314B2 (en) Information processing device and program
CN112308623A (en) High-quality client loss prediction method and device based on supervised learning and storage medium
JP6998498B1 (en) Information processing equipment and programs
Kawakubo et al. Analysis of an option market dynamics based on a heterogeneous agent model
Lee et al. 3% rules the market: herding behavior of a group of investors, asset market volatility, and return to the group in an agent-based model
Kumar Deep Hawkes process for high-frequency market making
Wailes et al. World rice outlook
Brydon et al. Classification trees and decision-analytic feedforward control: a case study from the video game industry
Wang et al. Pricing barrier options using Monte Carlo methods
Huang et al. Evolutionary frequency and forecasting accuracy: Simulations based on an agent-based artificial stock market
Wu et al. The impact of liquidity constraints on the cash-futures basis dynamics: Evidence from the Chinese market
KR101674456B1 (en) Method and system for deriving indexes concerning financial derivatives
Aloud A real-time adaptive bitcoin trading system using genetic programming
de Prado Causal Factor Investing: Can Factor Investing Become Scientific?
Baviera et al. A note on CVA and wrong way risk
Ko Dissecting Trade and Business Cycle Co-movement
Hussein et al. A Time Series Analysis Of The Determinants Of Domestic Private Investment In Iraq (1970-2010)
Maréchal A tale of two premiums revisited
Fang et al. Market Making of Options via Reinforcement Learning
Patani et al. Financial Portfolio Management using Reinforcement Learning
Farrell Read Between the Filings: Daily Mutual Fund Holdings and Liquidity Provision

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211220

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230310

R150 Certificate of patent or registration of utility model

Ref document number: 7245314

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150