JP2020061027A - Information processing system, information processing method, program, and storage medium - Google Patents

Information processing system, information processing method, program, and storage medium Download PDF

Info

Publication number
JP2020061027A
JP2020061027A JP2018192781A JP2018192781A JP2020061027A JP 2020061027 A JP2020061027 A JP 2020061027A JP 2018192781 A JP2018192781 A JP 2018192781A JP 2018192781 A JP2018192781 A JP 2018192781A JP 2020061027 A JP2020061027 A JP 2020061027A
Authority
JP
Japan
Prior art keywords
information
input
board
order
order information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018192781A
Other languages
Japanese (ja)
Other versions
JP7122214B2 (en
Inventor
太志 西村
Futoshi Nishimura
太志 西村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NS Solutions Corp
Original Assignee
NS Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NS Solutions Corp filed Critical NS Solutions Corp
Priority to JP2018192781A priority Critical patent/JP7122214B2/en
Publication of JP2020061027A publication Critical patent/JP2020061027A/en
Application granted granted Critical
Publication of JP7122214B2 publication Critical patent/JP7122214B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)

Abstract

To reproduce an operation of an actual market using fewer resources and shorter time.SOLUTION: An information processing system includes: prediction means for predicting board information in future at the time point of updating of the board information when first order information is input on the basis of any one or both of the board information in the past at the time when the updated board information and the first order information are input when the first order information is input by using a neural network; and generation means for generating second order information on the basis of the board information to be updated on the basis of the predicted board information in future and the first order information.SELECTED DRAWING: Figure 5

Description

本発明は、情報処理システム、情報処理方法、プログラム及び記憶媒体に関する。   The present invention relates to an information processing system, an information processing method, a program and a storage medium.

マーケットインパクト減衰係数を用いて、マーケットシミュレーションを提供する技術が提案されている(特許文献1)。   A technique for providing a market simulation using a market impact attenuation coefficient has been proposed (Patent Document 1).

特開2015−22690号公報JP, 2015-22690, A

しかしながら、特許文献1の技術では、現実に近い市場の動きを再現することはできなかった。また、特許文献1の技術では、マーケットインパクト減衰係数を算出するために、CPU等のリソースを多く使い、算出する時間もかかっていた。   However, the technique of Patent Document 1 could not reproduce a market movement close to reality. Further, in the technique of Patent Document 1, in order to calculate the market impact attenuation coefficient, many resources such as a CPU are used and it takes time to calculate.

本発明の情報処理システムは、ニューラルネットワークを用いて、第1の注文情報が入力された際に更新された板情報及び前記第1の注文情報が入力されたときより過去の板情報の何れか又は双方に基づいて、前記第1の注文情報が入力された際に板情報が更新されたときより未来の板情報を予測する予測手段と、前記予測された未来の板情報と前記第1の注文情報に基づき更新された板情報とに基づき第2の注文情報を生成する生成手段と、を有する。   The information processing system of the present invention uses a neural network to select one of the board information updated when the first order information is input and the board information older than when the first order information is input. Or, based on both of them, a predicting unit that predicts future plate information more than when the plate information is updated when the first order information is input, the predicted future plate information, and the first Generating means for generating second order information based on the board information updated based on the order information.

本発明によれば、より少ないリソース、及びより短い時間で、より現実に近い市場の動きを再現することができる。   According to the present invention, more realistic market movements can be reproduced with less resources and less time.

図1は、本実施形態のシステムのシステム構成の一例を示す図である。FIG. 1 is a diagram showing an example of a system configuration of the system of this embodiment. 図2は、マーケットシミュレーションシステムのハードウェア構成の一例を示す図である。FIG. 2 is a diagram showing an example of the hardware configuration of the market simulation system. 図3は、マーケットシミュレーションシステムの機能構成等の一例を示す図である。FIG. 3 is a diagram showing an example of the functional configuration of the market simulation system. 図4は、マーケットシミュレーションシステムにおける、注文情報が入力された際の情報処理の一例を示すフローチャートである。FIG. 4 is a flowchart showing an example of information processing in the market simulation system when order information is input. 図5は、S403の処理の詳細の一例を示すフローチャートである。FIG. 5 is a flowchart showing an example of details of the process of S403. 図6Aは、板情報の一例を示す図(その1)である。FIG. 6A is a diagram (part 1) illustrating an example of the board information. 図6Bは、板情報の一例を示す図(その2)である。FIG. 6B is a diagram (part 2) illustrating an example of the board information. 図6Cは、価格−時刻の時系列データの一例を示す図である。FIG. 6C is a diagram showing an example of price-time time series data. 図7は、LSTMを用いた場合の、板生成NN303の学習の一例を示す図である。FIG. 7 is a diagram showing an example of learning of the plate generation NN 303 when the LSTM is used. 図8Aは、CNNを用いた場合の、板生成NN303の学習の一例を説明するための図(その1)である。FIG. 8A is a diagram (part 1) for describing an example of learning of the plate generation NN 303 when using CNN. 図8Bは、CNNを用いた場合の、板生成NN303の学習の一例を説明するための図(その2)である。FIG. 8B is a diagram (part 2) for explaining an example of learning of the plate generation NN 303 when CNN is used. 図9は、CNNにより学習した学習済みモデルに基づいて転移学習する一例を示す図である。FIG. 9 is a diagram showing an example of transfer learning based on a learned model learned by CNN.

以下、本発明の実施形態について図面に基づいて説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本実施形態のシステムのシステム構成の一例を示す図である。
本実施形態のシステムは、ユーザ端末110とマーケットシミュレーションシステム120とを含む。マーケットシミュレーションシステム120は、情報処理システムの一例である。
ユーザ端末110は、マーケットシミュレーションシステム120を利用するユーザの端末であって、ネットワークを介してマーケットシミュレーションシステム120と通信可能に接続されている。ユーザ端末110は、単体の装置であってもよし、複数の装置から構成されたシステムであってもよい。
マーケットシミュレーションシステム120は、株の売り買いを行う市場のバックテスト環境を提供するシステムである。また、マーケットシミュレーションシステム120は、実データに基づいてマーケットインパクトを学習したニューラルネットワークを利用したマーケットシミュレーターである。
マーケットシミュレーションシステム120は、ユーザ端末110から注文情報が入力されると、注文情報が入力された際の板情報を、入力された注文情報に基づき更新し、更新した板情報と、注文情報が入力されたときより過去の板情報とに基づいて、注文情報が入力されたときより未来の板情報を予測する。そして、マーケットシミュレーションシステム120は、予測した未来の板情報と更新した板情報とに基づき、ユーザ端末110から入力された注文情報に応じた、注文情報を生成する。
このような処理を行うことにより、自然な市場の動きを表現でき、バックテストの有効性も向上する。また、マーケットインパクト減衰係数を算出する方法に比べて、より少ないリソース、及びより短い時間で現実の市場の動きを再現可能とすることができる。
FIG. 1 is a diagram showing an example of a system configuration of the system of this embodiment.
The system of this embodiment includes a user terminal 110 and a market simulation system 120. The market simulation system 120 is an example of an information processing system.
The user terminal 110 is a terminal of a user who uses the market simulation system 120, and is communicably connected to the market simulation system 120 via a network. The user terminal 110 may be a single device or a system including a plurality of devices.
The market simulation system 120 is a system that provides a backtest environment for a market where stocks are bought and sold. The market simulation system 120 is a market simulator that uses a neural network that learns the market impact based on actual data.
When the order information is input from the user terminal 110, the market simulation system 120 updates the board information when the order information is input, based on the input order information, and the updated board information and the order information are input. The future board information is predicted based on the past board information when the order information is entered and the future board information when the order information is entered. Then, the market simulation system 120 generates the order information according to the order information input from the user terminal 110, based on the predicted future board information and the updated board information.
By performing such processing, it is possible to express natural market movements and improve the effectiveness of backtesting. Further, compared to the method of calculating the market impact attenuation coefficient, it is possible to reproduce the actual market movement with less resources and in a shorter time.

図2は、マーケットシミュレーションシステム120のハードウェア構成の一例を示す図である。
マーケットシミュレーションシステム120は、ハードウェア構成として、CPU201、メモリ202、表示部203、入力部204、通信部205を少なくとも有する。
CPU201は、マーケットシミュレーションシステム120の全体を制御する。CPU201がメモリ202に記憶されたプログラムに基づき処理を実行することにより、後述する図3のマーケットシミュレーションシステム120の機能及び、後述する図4、図5のフローチャートの処理が実現される。メモリ202は、プログラム、CPU201がプログラムに基づき処理を実行する際に用いるデータ、例えば後述する過去板情報304、過去注文情報305等、を記憶する。表示部203は、各種情報を表示する。入力部204は、キーボード、マウス、表示部203に表示された画面等を介したユーザの操作等を受け付け、入力する。表示部203及び入力部204は、タッチパネルディスプレイ等、一体として構成されてもよい。通信部205は、マーケットシミュレーションシステム120をネットワークに接続し、ネットワークを介した外部装置との通信処理を行う。メモリ202は、記憶媒体の一例である。
他の例としては、マーケットシミュレーションシステム120の機能や処理の少なくとも一部は、複数のCPU、メモリを協働させることにより実現してもよい。また、他の例としては、マーケットシミュレーションシステム120の機能や処理の少なくとも一部は、ハードウェア回路を用いて実現してもよい。また、他の例としては、マーケットシミュレーションシステム120の機能及び処理は、複数の装置が協働して実現してもよい。
ユーザ端末110もマーケットシミュレーションシステム120と同様のハードウェア構成を有し、ユーザ端末110のCPUがユーザ端末110のメモリに記憶されているプログラムに基づき処理を実行することによって、ユーザ端末110の機能を実現させる。
FIG. 2 is a diagram showing an example of the hardware configuration of the market simulation system 120.
The market simulation system 120 has at least a CPU 201, a memory 202, a display unit 203, an input unit 204, and a communication unit 205 as a hardware configuration.
The CPU 201 controls the entire market simulation system 120. When the CPU 201 executes processing based on the program stored in the memory 202, the function of the market simulation system 120 of FIG. 3 described later and the processing of the flowcharts of FIGS. 4 and 5 described later are realized. The memory 202 stores a program, data used when the CPU 201 executes processing based on the program, such as past board information 304 and past order information 305 described later. The display unit 203 displays various information. The input unit 204 receives and inputs a user operation or the like via a keyboard, a mouse, a screen displayed on the display unit 203, and the like. The display unit 203 and the input unit 204 may be integrally configured, such as a touch panel display. The communication unit 205 connects the market simulation system 120 to a network and performs communication processing with an external device via the network. The memory 202 is an example of a storage medium.
As another example, at least a part of the functions and processes of the market simulation system 120 may be realized by cooperating a plurality of CPUs and memories. Further, as another example, at least a part of the functions and processes of the market simulation system 120 may be realized by using a hardware circuit. Further, as another example, the functions and processing of the market simulation system 120 may be implemented by a plurality of devices working together.
The user terminal 110 also has the same hardware configuration as the market simulation system 120, and the CPU of the user terminal 110 executes the processing based on the program stored in the memory of the user terminal 110 so that the functions of the user terminal 110 are realized. make it happen.

図3は、マーケットシミュレーションシステム120の機能構成等の一例を示す図である。
マーケットシミュレーションシステム120は、機能構成として、取引所シミュレータ301、注文シミュレータ302、板生成ニューラルネットワーク(以下、板生成NNという)303を少なくとも有する。過去板情報304は、実際の市場における過去の板情報を記憶する記憶部(DB、メモリ等)である。過去注文情報305は、実際の市場における過去の注文情報を記憶する記憶部(DB、メモリ等)である。板生成NN303は、マーケットインパクト(こういう注文が入ったら市場はこう動く)を学習した(過去データに基づきパラメータ調整した)、学習済みモデルである。後述するように、板生成NN303は、RNN(Recurrent Neural Network)により学習した学習済みモデルであってもよいし、CNN(Convolution Neural Network)により学習した学習済みモデルであってもよい。また、後述するように、板生成NN303は、RNN、又はCNNにより学習した学習済みモデルに基づいて転移学習された学習済みモデルであってもよい。板生成NN303の学習及び転移学習については、後述する図7−図9を用いて説明する。
取引所シミュレータ301は、板情報をユーザ端末110に送信することで、板情報を提示する。板情報の例は、後述する図6A及び図6Bに示す。ユーザ端末110は、送信された板情報を受信し、ユーザ端末110の表示部に表示する。過去注文情報305は、過去板情報304より生成される。過去板情報304には、過日の現実の板情報が時系列で記憶されている。注文シミュレータ302は、それらの板情報から過去の注文情報を生成することができる。即ち、注文シミュレータ302は、ある時刻における過去板情報と、その次の時刻における過去板情報との差分から、そのときに発生した注文情報を生成する。この処理は、シミュレーションの開始前に行って、すべての過去注文情報を事前に生成し、過去注文情報305に記憶させておいてもよいし、マーケットシミュレーションシステム120でカウントされるシミュレーション上の時刻(シミュレーション時刻)に従って生成されてもよい。
注文シミュレータ302は、シミュレーション時刻に応じて過去注文情報305から過去の注文情報を取得し、取引所シミュレータ301に過去の注文情報を入力する。即ち、注文シミュレータ302は、シミュレーションを行うユーザ等によるユーザ端末110からの注文が入力される前は、過日に取引所で実際に発生した注文を同じタイミングで再生することになる。取引所シミュレータ301は、過去の注文情報が入力されると、入力された注文情報に応じた約定シミュレーションを実行し、約定情報をユーザ端末110に送信することで、約定情報を提示する。
この様に過去の市場の動きを再現しているときに、ユーザ端末110から注文情報が入力されると、取引所シミュレータ301は、入力された注文情報に基づき、注文情報が入力された際の板情報を更新する。ユーザ端末110から入力される注文情報は、第1の注文情報の一例である。取引所シミュレータ301は、更新した板情報をユーザ端末110に提示する。また、取引所シミュレータ301は、更新した板情報を現在板情報として注文シミュレータ302に入力する。
FIG. 3 is a diagram showing an example of the functional configuration of the market simulation system 120.
The market simulation system 120 has at least an exchange simulator 301, an order simulator 302, and a plate generation neural network (hereinafter, referred to as plate generation NN) 303 as functional configurations. The past board information 304 is a storage unit (DB, memory, etc.) that stores past board information in the actual market. The past order information 305 is a storage unit (DB, memory, etc.) that stores past order information in the actual market. The plate generation NN 303 is a learned model in which the market impact (the market moves like this when an order is entered) is learned (parameters are adjusted based on past data). As will be described later, the plate generation NN 303 may be a trained model learned by an RNN (Recurring Neural Network) or a trained model learned by a CNN (Convolution Neural Network). Further, as described later, the plate generation NN 303 may be a learned model that has undergone transfer learning based on a learned model that has been learned by the RNN or CNN. Learning of the plate generation NN 303 and transfer learning will be described with reference to FIGS. 7 to 9 described later.
The exchange simulator 301 presents the board information by transmitting the board information to the user terminal 110. An example of the board information is shown in FIGS. 6A and 6B described later. The user terminal 110 receives the transmitted board information and displays it on the display unit of the user terminal 110. The past order information 305 is generated from the past board information 304. In the past board information 304, actual board information of another day is stored in time series. The order simulator 302 can generate past order information from the plate information. That is, the order simulator 302 generates the order information generated at that time from the difference between the past board information at a certain time and the past board information at the next time. This process may be performed before the simulation is started to generate all past order information in advance and store the past order information in the past order information 305. It may be generated according to the simulation time).
The order simulator 302 acquires past order information from the past order information 305 according to the simulation time, and inputs the past order information to the exchange simulator 301. That is, the order simulator 302 reproduces the order actually generated on the exchange on the same day at the same timing before the order is input from the user terminal 110 by the user who performs the simulation. When the past order information is input, the exchange simulator 301 executes the contract simulation according to the input order information and sends the contract information to the user terminal 110 to present the contract information.
When order information is input from the user terminal 110 while the past market movements are being reproduced in this way, the exchange simulator 301 displays the order information when the order information is input, based on the input order information. Update board information. The order information input from the user terminal 110 is an example of first order information. The exchange simulator 301 presents the updated board information to the user terminal 110. Moreover, the exchange simulator 301 inputs the updated board information to the order simulator 302 as current board information.

注文シミュレータ302は、現在板情報が入力されると、現在板情報とユーザ端末110から取引所シミュレータ301に注文情報が入力されたときより過去の所定の期間の板情報とを現在までの板情報として板生成NN303に入力する。
このとき注文シミュレータ302に入力される過去の所定の期間の板情報は、過去板情報又は図示しないシミュレーション板履歴情報記憶部から読み出されキャッシュ的な情報として記憶したものを利用してもよい。なお、シミュレーション履歴板情報記憶部は、取引所シミュレータ301におけるシミュレーションによって生成される板の履歴情報を例えばキャッシュ的に記憶する。
例えば、ユーザ端末110から取引所シミュレータ301に注文情報が入力されたときが8月6日10時00分だった場合、現在板情報は8月6日10時00分の板情報となる。また、ユーザ端末110から取引所シミュレータ301に注文情報が入力されたときより過去の所定の期間の板情報として、注文シミュレータ302は、過去板情報304又は図示しないシミュレーション履歴板情報記憶部より、8月6日9時55分の板情報を取得する。この例の場合、注文シミュレータ302は、8月6日10時00分の板情報と8月6日9時55分の板情報とを板生成NN303に入力する。
なお、ここでは、ユーザ端末110から取引所シミュレータ301に注文情報が入力されたときより過去の所定の期間の板情報として、5分前の板情報を1つだけ取得したが、これに限定されるものではない。5分前の板情報、10分前の板情報の2つを取得するようにしてもよいし、2つ以上を取得するようにしてもよい。同様に、5分前ではなく、1分前の板情報を取得するようにしてもよい。間隔及び数は後述する板生成NN303の学習に依存する。なお、過去板情報としては、実際の連続した時系列データ(実際に板が発生した時間間隔変動)でもよいし、データ間を平均化したものでもよい。即ち、板は均等に5分間隔等で発生するわけではないが、例えば、3分、7分、3分、7分の時間間隔で板が発生していた場合、それらを5分間隔に平均し、3分と7分のタイミングの価格で5分のタイミングの価格を補完し、5分間隔の板情報として用意しておいてもよい。
なお、履歴情報を用いて制約条件を課したほうが、予測精度を向上させることができるが、要求される精度に応じて現在板情報のみから次板情報を予測するような構成としてもよい。
When the current board information is input, the order simulator 302 displays the current board information and the board information for a predetermined period past when the order information was input to the exchange simulator 301 from the user terminal 110 up to the present. Is input to the plate generation NN 303.
At this time, the plate information in the past predetermined period input to the order simulator 302 may be the past plate information or the one read from the simulation plate history information storage unit (not shown) and stored as cache-like information. The simulation history plate information storage unit stores, for example, a cache of plate history information generated by the simulation in the exchange simulator 301.
For example, when the order information is input from the user terminal 110 to the exchange simulator 301 at 10:00 on August 6, the current board information is the board information at 10:00 on August 6. In addition, as the board information for a predetermined period in the past from the time when the order information is input from the user terminal 110 to the exchange simulator 301, the order simulator 302 uses the past board information 304 or the simulation history board information storage unit (not shown) The board information at 9:55 on June 6 is acquired. In the case of this example, the order simulator 302 inputs the plate information at 10:00 on August 6th and the plate information at 9:55 on August 6th into the plate generation NN 303.
Note that, here, only one piece of board information 5 minutes ago is acquired as board information for a predetermined period past when the order information was input to the exchange simulator 301 from the user terminal 110, but the present invention is not limited to this. Not something. Two pieces of the board information 5 minutes ago and the board information 10 minutes ago may be acquired, or two or more pieces may be acquired. Similarly, it is also possible to acquire the board information one minute before instead of five minutes ago. The interval and the number depend on the learning of the plate generation NN 303 described later. The past board information may be actual continuous time-series data (time interval fluctuations in which boards actually occur) or may be data averaged. That is, the plates are not evenly generated at intervals of 5 minutes, but for example, when the plates are generated at time intervals of 3 minutes, 7 minutes, 3 minutes, and 7 minutes, they are averaged at intervals of 5 minutes. However, the price of the timing of 5 minutes may be complemented by the prices of the timing of 3 minutes and the timing of 7 minutes, and the plate information may be prepared at intervals of 5 minutes.
Although it is possible to improve the prediction accuracy by imposing a constraint condition using the history information, a configuration may be adopted in which the next board information is predicted only from the current board information according to the required accuracy.

注文シミュレータ302は、板生成NN303より、取引所シミュレータ301に注文情報が入力されたときより未来の板情報として次板情報を受け取る。即ち、板生成NN303は、現在板情報及び過去の所定期間の板情報から次板情報を生成する。板生成NN303は、後述するようにして、現在板情報及び過去の所定期間の板情報から次板情報を生成するように学習(パラメータが調整)されたニューラルネットワークである。
上述した例では、ユーザ端末110から取引所シミュレータ301に注文情報が入力されたときが8月6日10時00分だった場合、次板情報は、8月6日10時05分の板情報となる。注文シミュレータ302は、現在板情報と次板情報とに基づき、ユーザ端末110から入力された入力情報に応じた注文情報を生成する。
ときに、一般的な取引シミュレータでは、次板情報は、注文シミュレータ302により生成された注文情報と、現在板情報とに基づいて、生成されるものである。しかし、本実施形態のマーケットシミュレーションシステム120では、板生成NN303により現在板情報及び過去の所定期間の板情報から次板情報を予測し、注文シミュレータ302は、そこから逆算する形で注文情報を生成する。
一般的な取引シミュレータでは、注文シミュレータにおいて数式等の係数を用いてマーケットインパクトを考慮した注文を生成するが、どうしても人工的な動きとなってしまい、不自然な注文となることが多い。これに対して、上述のように、実際のマーケットにおける板の動きを学習させたニューラルネットワークを用いることで、マーケットインパクトを考慮した注文が違和感のない形で再現される。
生成された注文情報は、第2の注文情報の一例である。そして、注文シミュレータ302は、生成した注文情報を取引所シミュレータ301に入力する。
取引所シミュレータ301は、注文シミュレータ302から入力された注文情報に基づき、注文情報が入力された際の板情報を更新する。
なお、更新された板情報は、基本的には板生成NN303で生成された次板情報と同じになる場合もあるため、そのような場合には、取引所シミュレータ301は、板生成NN303で生成された次板情報で板情報を更新してもよい。但し、特別気配の場合や板寄せが行われる場合等のデータについては例えば除外する等の例外的な処理が必要になるため、基本的には、注文シミュレータ302において現在板情報及び/又は過去板情報と次板情報とから注文情報を生成し、取引所シミュレータ301において改めて板情報を更新する必要がある。
取引所シミュレータ301は、更新した板情報をユーザ端末110に提示する。また、取引所シミュレータ301は、ユーザ端末110から入力された注文情報と注文シミュレータ302とから入力された注文情報とに基づき約定シミュレーションを実行し、約定情報をユーザ端末110に送信することで、約定情報を提示する。
The order simulator 302 receives the next board information from the board generation NN 303 as future board information from when the order information was input to the exchange simulator 301. That is, the plate generation NN 303 generates the next plate information from the current plate information and the plate information in the past predetermined period. The plate generation NN 303 is a neural network that has been learned (parameters have been adjusted) so as to generate the next plate information from the current plate information and the plate information in the past predetermined period, as described later.
In the above-mentioned example, when the order information is input from the user terminal 110 to the exchange simulator 301 at 10:00 on August 6, the next board information is the board information on August 6, 10:05. Becomes The order simulator 302 generates order information according to the input information input from the user terminal 110, based on the current board information and the next board information.
Sometimes, in a general trading simulator, the next board information is generated based on the order information generated by the order simulator 302 and the current board information. However, in the market simulation system 120 of the present embodiment, the plate generation NN 303 predicts the next plate information from the current plate information and the plate information of a predetermined period in the past, and the order simulator 302 generates the order information from the back calculation form. To do.
In a general trading simulator, an order considering the market impact is generated by using a coefficient such as a mathematical formula in the order simulator, but it is inevitable that the order is artificial and the order is unnatural. On the other hand, as described above, by using the neural network in which the movement of the board in the actual market is learned, the order considering the market impact can be reproduced in a comfortable manner.
The generated order information is an example of second order information. Then, the order simulator 302 inputs the generated order information to the exchange simulator 301.
The exchange simulator 301 updates the board information when the order information is input, based on the order information input from the order simulator 302.
In addition, since the updated board information may be basically the same as the next board information generated by the board generation NN303, in such a case, the exchange simulator 301 generates the board generation NN303. The board information may be updated with the generated next board information. However, since exceptional processing such as exclusion is required for data such as in the case of special quotes or when iterating is performed, basically, the order simulator 302 is used to display the current board information and / or the past board. It is necessary to generate order information from the information and the next board information and update the board information again in the exchange simulator 301.
The exchange simulator 301 presents the updated board information to the user terminal 110. In addition, the exchange simulator 301 executes a contract simulation based on the order information input from the user terminal 110 and the order information input from the order simulator 302, and transmits the contract information to the user terminal 110, thereby executing the contract. Present information.

図4は、マーケットシミュレーションシステム120における、注文情報が入力された際の情報処理の一例を示すフローチャートである。
S401において、取引所シミュレータ301は、ユーザ端末110から注文情報が入力されたか否かを判定する。取引所シミュレータ301は、ユーザ端末110から注文情報が入力されたと判定した場合、S402に処理を進め、ユーザ端末110から注文情報が入力されていないと判定した場合、S401の処理を繰り返す。
S402において、取引所シミュレータ301は、入力された注文情報に基づき、注文情報が入力された際の板情報を更新する。この処理は、第1の更新処理の一例である。
取引所シミュレータ301は、更新した板情報をユーザ端末110に提示する。また、取引所シミュレータ301は、更新した板情報を現在板情報として注文シミュレータ302に入力する。
取引所シミュレータ301より現在板情報が入力されると、S403において、注文シミュレータ302は、注文情報生成処理を実行する。注文情報生成処理の詳細は、後述する図5を用いて説明する。注文情報を生成すると、注文シミュレータ302は、注文情報を、取引所シミュレータ301に入力する。
なお、注文シミュレータ302は、上述のとおり過去板情報304の板情報に基づく過去注文情報305の再現も行う。したがって、注文シミュレータ302は、過去板情報304及び過去注文情報305に基づく再現注文と、ユーザ端末110から注文が入力された場合における板生成NN303により生成される板情報に基づくマーケットインパクト注文とをシームレスな切り替え理論により行う。即ち、注文シミュレータ302は、通常は再現注文を生成しつつ、ユーザ端末110からの注文入力が発生した場合にはマーケットインパクト注文の生成にスイッチするような制御を行う。
S403で生成された注文情報が入力されると、S404において、取引所シミュレータ301は、注文情報が入力された際の板情報を更新する。この処理は、第2の更新処理の一例である。取引所シミュレータ301は、更新した板情報をユーザ端末110に提示する。この処理は、提示処理の一例である。
S405において、取引所シミュレータ301は、ユーザ端末110から入力された注文情報と注文シミュレータ302とから入力された注文情報(又はそれにより更新された板情報)とに基づき約定シミュレーションを実行する。
FIG. 4 is a flowchart showing an example of information processing in the market simulation system 120 when order information is input.
In S401, the exchange simulator 301 determines whether order information is input from the user terminal 110. If the exchange simulator 301 determines that the order information has been input from the user terminal 110, the exchange simulator 301 advances the process to step S402. If it determines that the order information has not been input from the user terminal 110, the exchange simulator 301 repeats the process of step S401.
In S402, the exchange simulator 301 updates the board information when the order information is input, based on the input order information. This process is an example of the first update process.
The exchange simulator 301 presents the updated board information to the user terminal 110. Moreover, the exchange simulator 301 inputs the updated board information to the order simulator 302 as current board information.
When the current board information is input from the exchange simulator 301, the order simulator 302 executes order information generation processing in S403. Details of the order information generation process will be described with reference to FIG. 5 described later. When the order information is generated, the order simulator 302 inputs the order information into the exchange simulator 301.
The order simulator 302 also reproduces the past order information 305 based on the board information of the past board information 304 as described above. Therefore, the order simulator 302 seamlessly performs the reproduction order based on the past board information 304 and the past order information 305 and the market impact order based on the board information generated by the board generation NN 303 when the order is input from the user terminal 110. The switching theory is used. That is, the order simulator 302 normally performs a control to switch to generation of a market impact order when an order input from the user terminal 110 occurs while generating a reproduction order.
When the order information generated in S403 is input, the exchange simulator 301 updates the board information when the order information is input, in S404. This process is an example of the second update process. The exchange simulator 301 presents the updated board information to the user terminal 110. This process is an example of the presentation process.
In S405, the exchange simulator 301 executes a contract simulation based on the order information input from the user terminal 110 and the order information (or the board information updated thereby) input from the order simulator 302.

図5は、S403の処理の詳細の一例を示すフローチャートである。
S501において、注文シミュレータ302は、ユーザ端末110から取引所シミュレータ301に注文情報が入力されたときより過去の所定の期間の板情報(以下、単に過去板情報という)を過去板情報304又は図示しないシミュレーション履歴板情報記憶部から取得する。
S502において、注文シミュレータ302は、取引所シミュレータ301より入力された現在板情報とS501で取得した過去板情報とを板生成NN303に入力する。板生成NN303は、現在板情報及び過去板情報から、取引所シミュレータ301に注文情報が入力されたときより未来の板情報として(現在板情報の次のタイミングの板情報として)次板情報を生成する。予測される情報としては、例えば売気配や買気配の価格とそれらの数量の板情報のほか、その更新時刻等の情報も含まれる。売気配や買気配は最良気配とその他気配ごとに価格や数量の板情報とその更新時刻等が予測されるものであってもよいし、所定の数の売気配、買気配のそれぞれについて価格と数量と更新時刻等が予測されるものであってもよく、特に限定はされない。
S503において、注文シミュレータ302は、板生成NN303より、取引所シミュレータ301に注文情報が入力されたときより未来の板情報として次板情報を受け取る。
S502及びS503の処理は、予測処理の一例である。
S504において、注文シミュレータ302は、現在板情報と次板情報とに基づき、ユーザ端末110から入力された入力情報に応じた注文情報を生成する。即ち、注文シミュレータ302は、現在板情報と、板生成NN303により現在板情報及び過去板情報から予測されたマーケットインパクトが加味された次板情報とから、逆算する形で注文情報を生成する。
S504の処理は、生成処理の一例である。
FIG. 5 is a flowchart showing an example of details of the process of S403.
In S501, the order simulator 302 sets the plate information (hereinafter simply referred to as past plate information) for a predetermined period in the past to the past plate information 304 or not shown when the order information is input to the exchange simulator 301 from the user terminal 110. It is acquired from the simulation history board information storage unit.
In S502, the order simulator 302 inputs the current board information input from the exchange simulator 301 and the past board information acquired in S501 into the board generation NN 303. The board generation NN 303 generates the next board information from the current board information and the past board information as future board information (as the board information at the timing next to the current board information) when the order information is input to the exchange simulator 301. To do. The information to be predicted includes, for example, the price of the selling price or the buying price and the board information of the quantity thereof, as well as information such as the update time. The offer or bid may be the best or other quote for which the price and quantity of the board information and its update time, etc. can be predicted, or the price and price for each of the specified number of bids and offers. The quantity and the update time may be predicted, and there is no particular limitation.
In step S <b> 503, the order simulator 302 receives, from the plate generation NN 303, the next plate information as future plate information from when the order information was input to the exchange simulator 301.
The processing of S502 and S503 is an example of the prediction processing.
In step S504, the order simulator 302 generates order information according to the input information input from the user terminal 110, based on the current plate information and the next plate information. That is, the order simulator 302 generates order information in a backward calculation form from the current plate information and the next plate information in which the market impact predicted by the plate generation NN 303 from the current plate information and the past plate information is added.
The process of S504 is an example of the generation process.

ここで、図6A及び図6Bは、板情報の例を示す図である。
図6Aは、ある日の9時30分の板情報を示している。図6Bは、同じ日の9時35分の板情報を示している。
図6Cは、価格と時刻との時系列データ(板情報の価格を時系列の推移のグラフとして表したもの)の一例を示す図である。図6Cは、株の売り、買いの「価格」と「時刻」との時系列データのみを示しているが、同様に、株の売り、買いの「数量」と「時刻」との時系列データも過去板情報304としてマーケットシミュレーションシステム120は有している。また、図6Cでは、気配X1,2…、気配Y1,2…のすべての時系列データが均等な幅(所定間隔で略平行)になっているが、あくまで説明のため簡略化した形で表しているものにすぎず、実際には気配X1,2…、気配Y1,2…の各時系列データはバラバラな動きをする。更には、時間間隔も一定になっているが、あくまで説明のため簡略化したものであって、リアルなデータをそのまま用いる場合には等間隔とは限らないし、そのような等間隔ではないリアルなデータを補間して図6Cに示すように等間隔にしたものであってもよい。
なお、売気配や買気配は最良気配とその他気配ごとに価格・数量と時刻等が予測されるものであれば、売気配・買気配ごとの最良気配・その他気配の価格・数量と時刻の時系列データとして表される。
Here, FIG. 6A and FIG. 6B are diagrams showing examples of plate information.
FIG. 6A shows the board information at 9:30 on a certain day. FIG. 6B shows the board information at 9:35 on the same day.
FIG. 6C is a diagram showing an example of time-series data of prices and times (a price of plate information is represented as a time-series transition graph). FIG. 6C shows only time series data of “price” and “time” of selling and buying stocks, but similarly, time series data of “quantity” and “time” of selling and buying stocks. Also, the market simulation system 120 has the past board information 304. Further, in FIG. 6C, all the time series data of the quotes X1, 2, ..., The quotes Y1, 2, ... Have uniform widths (substantially parallel at predetermined intervals), but they are represented in a simplified form for the sake of explanation. However, the time series data of the indicative prices X1,2 ..., The indicative prices Y1,2 ... Furthermore, the time intervals are also constant, but they are simplified for the sake of explanation, and if real data are used as they are, they may not be equal intervals, and they may not be equal intervals. The data may be interpolated to have an equal interval as shown in FIG. 6C.
If the price / quantity and time etc. are predicted for the best quote and other quotes, the best quote / other quote price / quantity and time will be used for the sell / buy quotes. It is represented as series data.

以下、学習について説明する。学習を行う主体は、マーケットシミュレーションシステム120のCPU201として説明を行うが、他の情報処理装置(又はコンピュータ)が学習を担当するようにしてもよい。この場合、他の情報処理装置(又はコンピュータ)のCPUが処理の主体となる。
図7は、LSTM(Long Short Term Memory)を用いた場合の、板生成NN303の学習の一例を示す図である。
図7に示されるように、CPU201は、t1(例えば、10時00分)とt2(例えば、10時05分)との板情報を学習データとし、t3(例えば、10時10分)の板情報を教師データとして、板生成NN303を学習させる。同様に、CPU201は、t2(例えば、10時05分)とt3(例えば、10時10分)との板情報を学習データとし、t4(例えば、10時15分)の板情報を教師データとして、板生成NN303を学習させる。このように学習させることで、板生成NN303は、直前の連続する過去の2つの板情報を入力すると、次の板情報を出力(予測)することができるように、LSTMニューラルネットワーク(学習モデル)のパラメータが調整される。
なお、ここでは説明を簡単にするため、あくまで一例として、現在板を含む直前の連続する過去の2つの板情報から次の板情報を予測するための学習モデルを例に説明したが、過去の3つ以上の板情報から次の板を予測する学習モデルであってもよいし、連続しない過去の複数の板情報から次の板情報を予測するような学習モデルであってもよいし、又は直前の1つの板情報(現在板情報)から次の板情報(気配値や数量)を予測するような学習モデルであってもよいし、更には、複数の過去板情報からその間の時刻における価格を線形補間等した値と対応する時刻を用いて次の板情報(気配値や数量)を予測するような学習モデルとして構成してもよく、特に限定はされない。 ここで、LSTMは、RNNの拡張として登場した時系列データに対するモデルの一つである。LSTMは、一例であって、他のRNNを用いてもよい。
The learning will be described below. Although the subject who performs learning is described as the CPU 201 of the market simulation system 120, another information processing device (or computer) may be in charge of learning. In this case, the CPU of another information processing device (or computer) becomes the main body of processing.
FIG. 7 is a diagram illustrating an example of learning of the plate generation NN 303 when using LSTM (Long Short Term Memory).
As shown in FIG. 7, the CPU 201 uses the plate information of t1 (for example, 10:00) and t2 (for example, 10:05) as learning data and sets the plate for t3 (for example, 10:10). The board generation NN 303 is trained using the information as teacher data. Similarly, the CPU 201 uses the board information at t2 (for example, 10:05) and t3 (for example, 10:10) as learning data, and the board information at t4 (for example, 10:15) as teacher data. , Plate generation NN 303 is learned. By performing learning in this manner, the plate generation NN 303 can output (predict) the next plate information when inputting the immediately preceding two pieces of the past plate information, and the LSTM neural network (learning model). Parameters are adjusted.
In order to simplify the description, the learning model for predicting the next plate information from the immediately preceding two previous plate information including the current plate has been described as an example. It may be a learning model that predicts the next board from three or more pieces of board information, or a learning model that predicts the next board information from a plurality of pieces of past discontinuous board information, or It may be a learning model that predicts the next board information (indicative price or quantity) from the immediately preceding one board information (current board information), and further, it may be the price at a time between them based on a plurality of past board information. May be configured as a learning model that predicts the next board information (indicative value or quantity) by using the time corresponding to the value obtained by linear interpolation or the like, and is not particularly limited. Here, LSTM is one of the models for time series data that appeared as an extension of RNN. The LSTM is an example, and another RNN may be used.

図8A及び図8Bは、CNNを用いた場合の、板生成NN303の学習の一例を示す図である。
図8Aは、図6Aで示される板情報を画像で表現したものである。また、図8Bは、図Bで示される板情報を画像で表現したものである。
CPU201は、t1(例えば、10時00分)とt2(例えば、10時05分)との板情報の画像を学習データとし、t3(例えば、10時10分)の価格や数量の板情報(又は、何秒後に、変化なし/変化あり(即ち「上昇する」や「下降する」)といった情報)を教師データとして、板生成NN303を学習させるようにしてもよい。これにより、板生成NN303をCNN学習モデルとして構成することができるようになる。なお、CNNの一例として3D−CNNを用いてもよい。
ときに、CNN、RNN、LSTMについて簡単に補足すれば以下のとおりである。近年、人工知能技術としてディープラーニング(深層学習)の利用が盛んになっている。ディープラーニングは、機械学習技術の一つであるニューラルネットワークの階層を深めたアルゴリズムである。ニューラルネットワークは、生物の脳神経(ニューロン)をモデルとしたアルゴリズムである。ニューラルネットワークは、入力層、隠れ層、出力層の各層をもつ。各層にはノードがあり、ノード間がエッジで結合される構造となっている。隠れ層には複数の層をもつことができる。この隠れ層が深いニューラルネットワークを用いた機械学習がディープラーニングと呼ばれる。換言すれば、ディープラーニングとは、機械学習のうち、ニューラルネットワークを用いて入力データの特徴をコンピュータが自動的に抽出するものである。ディープラーニングは教師あり学習にも教師なし学習にも適用可能であるが、実用化されているものとしては教師あり学習のほうが多い。
ニューラルネットワークの各層は活性化関数と呼ばれる関数をもち、エッジは重みをもつことができる。各ノードの値は、1つ前の層のノードの値から計算される。即ち、各ノードの値は、前の層のノード値、エッジの重みの値、そして活性化関数から計算される。この計算方法には種々のものがあるが、詳細については説明を省略する。
CNNは、画像認識の分野で実績がある。CNNでは、隠れ層は、畳み込み層とプーリング層とから構成される。畳み込み層では前の層の近くのノードに対してフィルタ処理を行う。行列で表されるフィルタを元の入力画像に対してスライドさせていくイメージである。これにより、特徴マップを得ることができる。
プーリング層は、畳み込み層から出力された特徴マップを縮小して新たな特徴マップを生成する。この特徴マップの生成処理により、画像のずれが吸収できるようになる。そして、プーリング層は、局所的な特徴をまとめあげる処理をする。
畢竟、畳み込み層及びプーリング層は、入力画像の特徴を維持しながら画像を縮小処理することを意味する。単なる画像圧縮との違いは、画像の特徴を維持しながら画像を縮小するものであり、換言すれば抽象化する処理であるといえる。
CNNでは、各層は次の層へと意味のあるデータを順に渡していく。層が進むにつれてネットワークはより高レベルな特徴を学習することができる。例えば、最初の層では例えばエッジなどの局所的な特徴を検出し、次の層でそれらを組み合わせてテクスチャを検出するなどし、更にその次の層ではより抽象的な耳などの部位の特徴を検出する。CNNでは、このような特徴を抽出するためのパラメータを自動で学習していく。このようにして、CNNでは、ネットワークに記憶された抽象化された画像イメージを用いて、入力される画像を認識ないしは分類をすることができるようになる。
CNNで扱われるのが主に画像データ(二次元の矩形データ)であったのに対し、RNNが扱うのは、音声データ等の可変長の時系列データである。RNNでは、可変長データをニューラルネットワークで扱うために、隠れ層の値を再び隠れ層に入力するネットワークの構造にしたものである。しかしながら、RNNは、長時間前のデータを利用すると誤差が消滅したり、演算量が膨大になったりするなどの問題がある。そのため、短時間のデータしか処理できなかった。そこで登場したのがLSTMである。LSTMは、RNNの欠点を解消し、長期の時系列データを学習することができる学習モデルである。
FIG. 8A and FIG. 8B are diagrams showing an example of learning of the plate generation NN 303 when using CNN.
FIG. 8A is an image representation of the plate information shown in FIG. 6A. Further, FIG. 8B is an image representation of the plate information shown in FIG.
The CPU 201 uses the image of the plate information of t1 (for example, 10:00) and t2 (for example, 10:05) as learning data, and sets the plate information (price information and quantity of t3 (for example, 10:10)). Alternatively, after a few seconds, the plate generation NN 303 may be learned by using, as teacher data, no change / change (that is, information such as “rise” or “fall”). This allows the plate generation NN 303 to be configured as a CNN learning model. Note that 3D-CNN may be used as an example of CNN.
At this time, a brief supplementary description of CNN, RNN, and LSTM is as follows. In recent years, the use of deep learning has become popular as an artificial intelligence technology. Deep learning is an algorithm that deepens the hierarchy of neural networks, which is one of machine learning techniques. A neural network is an algorithm whose model is the cranial nerve (neuron) of a living being. The neural network has an input layer, a hidden layer, and an output layer. Each layer has nodes, and the nodes are connected by edges. The hidden layer can have multiple layers. Machine learning using a neural network with deep hidden layers is called deep learning. In other words, deep learning is one of machine learning in which a computer automatically extracts the characteristics of input data by using a neural network. Although deep learning can be applied to both supervised and unsupervised learning, supervised learning is the most practical application.
Each layer of the neural network has a function called an activation function, and edges can have weights. The value of each node is calculated from the value of the node in the previous layer. That is, the value of each node is calculated from the node value of the previous layer, the edge weight value, and the activation function. Although there are various calculation methods, detailed description thereof is omitted.
CNN has a track record in the field of image recognition. In CNN, the hidden layer consists of a convolutional layer and a pooling layer. The convolutional layer filters the nodes near the previous layer. This is an image in which the filter represented by a matrix is slid with respect to the original input image. Thereby, a feature map can be obtained.
The pooling layer reduces the feature map output from the convolutional layer to generate a new feature map. This feature map generation processing makes it possible to absorb image shifts. Then, the pooling layer performs a process of collecting local features.
Roughing, convolutional layers, and pooling layers mean to reduce an image while preserving the features of the input image. The difference from the simple image compression is that the image is reduced while maintaining the characteristics of the image, in other words, it is an abstraction process.
In CNN, each layer sequentially passes meaningful data to the next layer. As layers progress, the network can learn higher level features. For example, in the first layer, local features such as edges are detected, in the next layer, they are combined to detect texture, and in the next layer, features of parts such as more abstract ears are detected. To detect. The CNN automatically learns parameters for extracting such features. In this way, the CNN can recognize or classify the input image by using the abstracted image image stored in the network.
The CNN handles mainly image data (two-dimensional rectangular data), whereas the RNN handles variable-length time-series data such as audio data. The RNN has a network structure in which the value of the hidden layer is input to the hidden layer again in order to handle the variable length data by the neural network. However, the RNN has problems such that the error disappears and the amount of calculation becomes enormous when data that has been used for a long time is used. Therefore, only short-time data could be processed. That's where LSTM came in. The LSTM is a learning model that can solve the shortcomings of the RNN and learn long-term time series data.

図9は、CNNにより学習した学習済みモデルに基づいて転移学習する一例を示す図である。上述のとおり、CNNでは、様々な特徴を捉える特徴抽出器(又は識別器)ができあがっている状態といえる。転移学習では、CNNにおいてすでにできあがっている特徴抽出器の部分(ニューラルネットワークのうち入力側に近い層)を再利用し、分類器の部分(ニューラルネットワークのうち出力側に近い層)についてのみ再度学習するものである。これにより、普通に学習させるよりも少ないデータで追加学習させることができる。例えば画像認識においては、犬猫を認識するニューラルネットワークが学習済みの場合、入力側に近いプリミティブな要素や特徴を識別する層を再利用し、出力側に近いより抽象的な要素や特徴を識別する層や対象を分類する層のみを再学習させることで、猿やチンパンジーなどの他の動物をも認識することができるように学習させることができる。これを株取引における板情報の予測へ適用する場合には、出力側に近い層の部分を特定の日時のデータで再学習させるような転移学習を行うことでデータ量を補うことになる。
図9に示されるように、CPU201は、例えば、2018年より前の過去板情報に基づき、学習済みの板生成NNを生成しておく。そして、CPU201は、ベースとなる学習モデルに対して、更に2018年1月のデータを学習させ、2018年1月用の学習済み板生成NNを生成するようにしてもよい。また、CPU201は、ベースとなる学習モデルに対して、更に2018年3月1周目のデータを学習させ、2018年2月1周目用の学習済み板生成NNを生成するようにしてもよい。また、CPU201は、ベースとなる学習モデルに対して、更に2018年3月〇日のデータを学習させ、2018年3月〇日用の学習済み板生成NNを生成するようにしてもよい。
図9では、CNNにより学習した学習済みモデルを例に説明を行ったが、LSTMにより学習した学習済みモデルに対して転移学習するようにしてもよい。また、LSTMの学習において、CNNで獲得した特徴量を利用して再学習させることができる。即ち、LSTMとCNNとを組み合わせて転移学習を行うことができる。
FIG. 9 is a diagram showing an example of transfer learning based on a learned model learned by CNN. As described above, in CNN, it can be said that a feature extractor (or discriminator) that captures various features is completed. In transfer learning, the part of the feature extractor (layer near the input side of the neural network) already created in CNN is reused, and only the classifier part (layer near the output side of the neural network) is learned again. To do. As a result, it is possible to perform additional learning with less data than that normally required. For example, in image recognition, if a neural network that recognizes dogs and cats has been learned, the layer that identifies primitive elements and features near the input side is reused, and more abstract elements and features near the output side are identified. By re-learning only the layer that does and the layer that classifies the target, it is possible to learn so that other animals such as monkeys and chimpanzees can also be recognized. When this is applied to the prediction of plate information in stock trading, the amount of data will be supplemented by performing transfer learning such that the layer portion near the output side is relearned with data at a specific date and time.
As illustrated in FIG. 9, the CPU 201 generates a learned plate generation NN based on the past plate information before 2018, for example. Then, the CPU 201 may further learn the data of January 2018 with respect to the learning model serving as the base, and generate the learned plate generation NN for January 2018. Further, the CPU 201 may further learn the data of the first lap of March, 2018 with respect to the learning model serving as the base, and generate the learned plate generation NN for the first lap of February, 2018. . Further, the CPU 201 may further learn the data of March 0, 2018 with respect to the learning model serving as the base, and generate the learned plate generation NN for March 0, 2018.
In FIG. 9, the learned model learned by CNN is described as an example, but transfer learning may be performed on the learned model learned by LSTM. Further, in the learning of the LSTM, it is possible to re-learn by using the feature amount acquired by the CNN. That is, transfer learning can be performed by combining LSTM and CNN.

<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other embodiments>
The present invention is also realized by executing the following processing. That is, the software (program) that realizes the functions of the above-described embodiments is supplied to the system or device via the network or various storage media. Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads and executes the program.

以上、本発明の実施形態の一例について詳述したが、本発明は係る特定の実施形態に限定されるものではない。   Although one example of the embodiment of the present invention has been described in detail above, the present invention is not limited to the specific embodiment.

以上、上述した各実施形態の処理によれば、より少ないリソース、及びより短い時間で、より現実に近い市場の動きを再現することができる。   As described above, according to the processes of the above-described embodiments, it is possible to reproduce a more realistic movement of the market with less resources and in a shorter time.

120 マーケットシミュレーションシステム
201 CPU
303 板生成NN
120 Market simulation system 201 CPU
303 Plate generation NN

Claims (10)

ニューラルネットワークを用いて、第1の注文情報が入力された際に更新された板情報及び前記第1の注文情報が入力されたときより過去の板情報の何れか又は双方に基づいて、前記第1の注文情報が入力された際に板情報が更新されたときより未来の板情報を予測する予測手段と、
前記予測された未来の板情報と前記第1の注文情報に基づき更新された板情報とに基づき第2の注文情報を生成する生成手段と、
を有する情報処理システム。
Using a neural network, based on either or both of the board information updated when the first order information is input and the board information older than when the first order information is input, both Prediction means for predicting future board information more than when the board information is updated when the order information of 1 is input,
Generating means for generating second order information based on the predicted future board information and board information updated based on the first order information;
Information processing system having.
前記第1の注文情報が入力されると、前記第1の注文情報が入力された際の板情報を更新する第1の更新手段を更に有し、
前記予測手段は、前記ニューラルネットワークを用いて、前記第1の更新手段により更新された前記板情報及び前記第1の注文情報が入力されたときより過去の板情報の何れか又は双方に基づいて、前記第1の注文情報が入力された際に板情報が更新されたときより未来の板情報を予測する請求項1記載の情報処理システム。
When the first order information is input, the system further includes a first updating unit that updates the board information when the first order information is input,
The predicting means uses the neural network, and based on either or both of the board information past when the board information updated by the first updating means and the first order information is input. The information processing system according to claim 1, wherein future board information is predicted from a time when the board information is updated when the first order information is input.
前記生成手段により生成された前記第2の注文情報に基づいて板情報を更新する第2の更新手段を更に有する請求項1又は2記載の情報処理システム。   The information processing system according to claim 1, further comprising a second updating unit that updates plate information based on the second order information generated by the generating unit. 前記第2の更新手段により更新された板情報をユーザに提示する提示手段を更に有する請求項3記載の情報処理システム。   The information processing system according to claim 3, further comprising a presenting unit that presents the board information updated by the second updating unit to the user. 前記ニューラルネットワークは、RNN(Recurrent Neural Network)により学習した学習済みモデルである請求項1乃至4何れか1項記載の情報処理システム。   The information processing system according to any one of claims 1 to 4, wherein the neural network is a learned model learned by RNN (Recurring Neural Network). 前記ニューラルネットワークは、CNN(Convolution Neural Network)により学習した学習済みモデルである請求項1乃至4何れか1項記載の情報処理システム。   The information processing system according to any one of claims 1 to 4, wherein the neural network is a trained model trained by a CNN (Convolution Neural Network). 前記ニューラルネットワークは、RNN、又はCNNにより学習した学習済みモデルに基づいて転移学習された学習済みモデルである請求項1乃至4何れか1項記載の情報処理システム。   The information processing system according to any one of claims 1 to 4, wherein the neural network is a learned model that is transfer-learned based on a learned model learned by RNN or CNN. 情報処理システムが実行する情報処理方法であって、
ニューラルネットワークを用いて、第1の注文情報が入力された際に更新された板情報及び前記第1の注文情報が入力されたときより過去の板情報の何れか又は双方に基づいて、前記第1の注文情報が入力された際に板情報が更新されたときより未来の板情報を予測する予測工程と、
前記予測された未来の板情報と前記第1の注文情報に基づき更新された板情報とに基づき第2の注文情報を生成する生成工程と、
を含む情報処理方法。
An information processing method executed by an information processing system,
Using a neural network, based on either or both of the board information updated when the first order information is input and the board information older than when the first order information is input, both A prediction step of predicting future plate information from the time when the plate information is updated when the order information of 1 is input,
A generating step of generating second order information based on the predicted future board information and the board information updated based on the first order information;
Information processing method including.
コンピュータに、
ニューラルネットワークを用いて、第1の注文情報が入力された際に更新された板情報及び前記第1の注文情報が入力されたときより過去の板情報の何れか又は双方に基づいて、前記第1の注文情報が入力された際に板情報が更新されたときより未来の板情報を予測する予測工程と、
前記予測された未来の板情報と前記第1の注文情報に基づき更新された板情報とに基づき第2の注文情報を生成する生成工程と、
を実行させるためのプログラム。
On the computer,
Using a neural network, based on either or both of the board information updated when the first order information is input and the board information older than when the first order information is input, both A prediction step of predicting future plate information from the time when the plate information is updated when the order information of 1 is input,
A generating step of generating second order information based on the predicted future board information and the board information updated based on the first order information;
A program to execute.
コンピュータに、
ニューラルネットワークを用いて、第1の注文情報が入力された際に更新された板情報及び前記第1の注文情報が入力されたときより過去の板情報の何れか又は双方に基づいて、前記第1の注文情報が入力された際に板情報が更新されたときより未来の板情報を予測する予測工程と、
前記予測された未来の板情報と前記第1の注文情報に基づき更新された板情報とに基づき第2の注文情報を生成する生成工程と、
を実行させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。
On the computer,
Using a neural network, based on either or both of the board information updated when the first order information is input and the board information older than when the first order information is input, both A prediction step of predicting future plate information from the time when the plate information is updated when the order information of 1 is input,
A generating step of generating second order information based on the predicted future board information and the board information updated based on the first order information;
A computer-readable storage medium that stores a program for executing.
JP2018192781A 2018-10-11 2018-10-11 Information processing system, information processing method, program and storage medium Active JP7122214B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018192781A JP7122214B2 (en) 2018-10-11 2018-10-11 Information processing system, information processing method, program and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018192781A JP7122214B2 (en) 2018-10-11 2018-10-11 Information processing system, information processing method, program and storage medium

Publications (2)

Publication Number Publication Date
JP2020061027A true JP2020061027A (en) 2020-04-16
JP7122214B2 JP7122214B2 (en) 2022-08-19

Family

ID=70219999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018192781A Active JP7122214B2 (en) 2018-10-11 2018-10-11 Information processing system, information processing method, program and storage medium

Country Status (1)

Country Link
JP (1) JP7122214B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021199919A1 (en) 2020-03-30 2021-10-07 三井化学東セロ株式会社 Method for producing electronic device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014052941A (en) * 2012-09-10 2014-03-20 Daiwa Institute Of Research Business Innovation Ltd Order placement system
JP2015075942A (en) * 2013-10-09 2015-04-20 新日鉄住金ソリューションズ株式会社 Information processing system, information processing deice, simulation deice, information processing method, simulation method, and program
JP2015090565A (en) * 2013-11-06 2015-05-11 株式会社ゲイターズ Trading order control program and device, and control method of trading order

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014052941A (en) * 2012-09-10 2014-03-20 Daiwa Institute Of Research Business Innovation Ltd Order placement system
JP2015075942A (en) * 2013-10-09 2015-04-20 新日鉄住金ソリューションズ株式会社 Information processing system, information processing deice, simulation deice, information processing method, simulation method, and program
JP2015090565A (en) * 2013-11-06 2015-05-11 株式会社ゲイターズ Trading order control program and device, and control method of trading order

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021199919A1 (en) 2020-03-30 2021-10-07 三井化学東セロ株式会社 Method for producing electronic device

Also Published As

Publication number Publication date
JP7122214B2 (en) 2022-08-19

Similar Documents

Publication Publication Date Title
US20210248651A1 (en) Recommendation model training method, recommendation method, apparatus, and computer-readable medium
Zhao et al. Dear: Deep reinforcement learning for online advertising impression in recommender systems
US20220027359A1 (en) Online hyperparameter tuning in distributed machine learning
US20220058849A1 (en) Image regularization and retargeting system
US20220198289A1 (en) Recommendation model training method, selection probability prediction method, and apparatus
US11507587B2 (en) Advanced systems and methods for allocating capital to trading strategies for big data trading in financial markets
US11948075B2 (en) Generating discrete latent representations of input data items
Pinto et al. Adaptive learning in agents behaviour: A framework for electricity markets simulation
US20230153857A1 (en) Recommendation model training method, recommendation method, apparatus, and computer-readable medium
JP7429101B2 (en) System and method for generating photorealistic composite images based on semantic information
CN110188910A (en) The method and system of on-line prediction service are provided using machine learning model
CN110851699A (en) Deep reinforcement learning-based information flow recommendation method, device, equipment and medium
Ahuja et al. Low-resource adaptation for personalized co-speech gesture generation
CN109308246A (en) Optimization method, device and the equipment of system parameter, readable medium
CN111967971A (en) Bank client data processing method and device
CN110472798A (en) Prediction technique, device and the computer readable storage medium of time series data
Hafez et al. Topological Q-learning with internally guided exploration for mobile robot navigation
JP2017059193A (en) Time series image compensation device, time series image generation method, and program for time series image compensation device
JP2020061027A (en) Information processing system, information processing method, program, and storage medium
CN117056595A (en) Interactive project recommendation method and device and computer readable storage medium
Gao et al. Deeper Hedging: A New Agent-based Model for Effective Deep Hedging
Junyou Stock Price forecasting using PSO-trained neural networks
CN116974584A (en) Model deployment method, device, equipment and storage medium
US11893671B2 (en) Image regularization and retargeting system
CN117217324A (en) Model training method and related equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220808

R150 Certificate of patent or registration of utility model

Ref document number: 7122214

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150