JP2022162456A - Learning method, prediction method, learning device, prediction device, and program - Google Patents

Learning method, prediction method, learning device, prediction device, and program Download PDF

Info

Publication number
JP2022162456A
JP2022162456A JP2021067324A JP2021067324A JP2022162456A JP 2022162456 A JP2022162456 A JP 2022162456A JP 2021067324 A JP2021067324 A JP 2021067324A JP 2021067324 A JP2021067324 A JP 2021067324A JP 2022162456 A JP2022162456 A JP 2022162456A
Authority
JP
Japan
Prior art keywords
function
learning
event
history information
domains
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021067324A
Other languages
Japanese (ja)
Inventor
真耶 大川
Maya Okawa
浩之 戸田
Hiroyuki Toda
久嗣 鹿島
Hisatsugu Kajima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyoto University
Nippon Telegraph and Telephone Corp
Original Assignee
Kyoto University
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyoto University, Nippon Telegraph and Telephone Corp filed Critical Kyoto University
Priority to JP2021067324A priority Critical patent/JP2022162456A/en
Publication of JP2022162456A publication Critical patent/JP2022162456A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide a learning method that predicts an event sequence in a plurality of domains while considering an indirect relationship through a common latent factor.SOLUTION: A learning method according to one embodiment causes a computer to execute an acquisition step for acquiring event history information representing a history of events in a plurality of domains, and a learning step for learning, using the event history information acquired in the acquisition procedure, a parameter of an intensity function represented by a first composite function, which is obtained by combining an integral of a black-box function representing a temporal change in a latent state common among the plurality of domains and a trigger function, the black box function, and a background rate.SELECTED DRAWING: Figure 2

Description

本発明は、学習方法、予測方法、学習装置、予測装置、及びプログラムに関する。 The present invention relates to a learning method, a prediction method, a learning device, a prediction device, and a program.

イベント系列のモデル化には、点過程と呼ばれる確率モデルが広く用いられている。点過程は微小区間におけるイベントの発生数を記述するためのモデルで、「インテンシティ関数」を用いて任意の時刻におけるイベントの発生確率を記述する。 A probabilistic model called a point process is widely used for modeling event sequences. A point process is a model for describing the number of occurrences of events in a minute interval, and describes the probability of occurrence of an event at an arbitrary time using an "intensity function".

イベント系列の中でも、特に犯罪、金融取引、デモやストライキの発生履歴等といったイベント系列は「伝播性」を持つことが知られている。伝播性とは或るイベントが別のイベントを引き起こし、そのイベントがまた別のイベントを引き起こすという事象が連鎖的に続く、といった性質のことである。例えば、或る地域でデモが起きるとそれに呼応して別のデモが起き、そのデモが更に別の地域に広がっていく、といった現象は伝播性を持つイベント系列で表される。このような伝播性を持つイベント系列のモデル化にはHawkes過程が広く用いられている。Hawkes過程は点過程の一種であり、伝播のメカニズムをカーネル関数と呼ばれる関数でモデル化することで、伝播性を持つイベント系列を記述することができる。 Among event sequences, it is known that event sequences such as crimes, financial transactions, occurrence histories of demonstrations and strikes, etc. in particular have "transmissibility". Propagation is the property that an event causes another event, which in turn causes another event, and so on. For example, when a demonstration occurs in a certain area, another demonstration occurs in response to it, and the demonstration spreads to another area. The Hawkes process is widely used for modeling such a propagating event series. A Hawkes process is a kind of point process, and by modeling the mechanism of propagation with a function called a kernel function, it is possible to describe an event sequence with propagating properties.

ここで、通常、Hawkes過程は単一ドメインへの適用に焦点を当てたもので、複数のドメインにおけるイベント系列のモデル化にはそのまま適用することができない。これに対して、複数のドメインにおけるイベント系列のモデル化を可能とした「マルチタスクHawkes過程」というモデルが提案されている(非特許文献1)。 Here, Hawkes processes are usually focused on application to a single domain and cannot be directly applied to modeling event sequences in multiple domains. On the other hand, a model called "multitask Hawkes process" that enables modeling of event sequences in multiple domains has been proposed (Non-Patent Document 1).

Luo, Dixin, et al. Multi-task multi-dimensional hawkes processes for modeling event sequences. (2015).Luo, Dixin, et al. Multi-task multi-dimensional hawkes processes for modeling event sequences. (2015).

しかしながら、上記の非特許文献1で提案されているモデルは、或るドメインにおいてイベントが発生した際、それに応じて別のドメインでのイベント発生確率が高まる、という強い仮定を置いている。そのため、複数のドメイン間の共通潜在因子を介した間接的な関係を記述することができない。一方で、実際には、ドメインごとのイベントの発生確率は共通潜在因子を介して間接的に関係していると考えられる。例えば、犯罪と金融取引という異なるドメインにおける2つのイベントは、景気の変化という共通潜在因子を介して関係していると考えられる。 However, the model proposed in Non-Patent Document 1 above makes a strong assumption that when an event occurs in one domain, the event occurrence probability in another domain increases accordingly. Therefore, it is not possible to describe indirect relationships between multiple domains through common latent factors. On the other hand, in reality, the probability of occurrence of events for each domain is thought to be indirectly related via common latent factors. For example, two events in different domains, crime and financial transactions, may be related through a common latent factor of economic change.

本発明の一実施形態は、上記の点に鑑みてなされたもので、共通潜在因子を介した間接的な関係も考慮して、複数のドメインにおけるイベント系列を予測することを目的とする。 An embodiment of the present invention has been made in view of the above points, and aims to predict event sequences in a plurality of domains, taking into consideration indirect relationships via common latent factors.

上記目的を達成するため、一実施形態に係る学習方法は、複数ドメインにおけるイベントの履歴を表すイベント履歴情報を取得する取得手順と、前記取得手順で取得されたイベント履歴情報を用いて、前記複数ドメイン間で共通する潜在状態の時間変化を表すブラックボックス関数の積分とトリガー関数との第1の合成関数と、前記ブラックボックス関数と、バックグラウンドレートとで表されるインテンシティ関数のパラメータを学習する学習手順と、をコンピュータが実行する。 To achieve the above object, a learning method according to one embodiment includes an acquisition procedure for acquiring event history information representing a history of events in a plurality of domains; Learning the parameters of the intensity function represented by the first composite function of the integral of the black box function representing the time change of the latent state common between domains and the trigger function, the black box function, and the background rate. and a learning procedure to be performed by the computer.

共通潜在因子を介した間接的な関係も考慮して、複数のドメインにおけるイベント系列を予測することができる。 Indirect relationships via common latent factors can also be considered to predict event sequences in multiple domains.

イベント履歴情報の一例を示す図である。It is a figure which shows an example of event history information. 本実施形態に係るイベント予測装置の全体構成の一例を示す図である。It is a figure showing an example of whole composition of an event prediction device concerning this embodiment. 本実施形態に係るパラメータ学習処理の一例を示すフローチャートである。6 is a flowchart showing an example of parameter learning processing according to the embodiment; 本実施形態に係る予測処理の一例を示すフローチャートである。It is a flow chart which shows an example of prediction processing concerning this embodiment. 本実施形態に係るイベント予測装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of the event prediction apparatus which concerns on this embodiment.

以下、本発明の一実施形態について説明する。本実施形態では、共通潜在因子を介した複数ドメイン間の間接的な関係も考慮した点過程モデルを構築し、この点過程モデルにより複数ドメイン間におけるイベントの発生を予測するイベント予測装置10について説明する。 An embodiment of the present invention will be described below. In this embodiment, an event prediction device 10 that builds a point process model that takes into account indirect relationships between multiple domains via common latent factors and predicts the occurrence of events between multiple domains based on this point process model will be described. do.

ここで、点過程モデルは一般に「インテンシティ関数」(又は「強度関数」)と呼ばれる関数で記述され、このインテンシティ関数はイベントの発生確率を表す。本実施形態では、潜在状態の変化を表す関数を導入し、それを用いてHawkes過程のインテンシティ関数を記述することで、複数ドメイン間の共通潜在因子を介した間接的な関係を考慮できるようにする。これにより、複数ドメインにおけるイベント系列の正確なモデル化が可能となり、未来のイベントの発生を高い精度で予測できるようになる。 Here, the point process model is generally described by a function called "intensity function" (or "strength function"), and this intensity function represents the probability of occurrence of an event. In this embodiment, by introducing a function representing changes in the latent state and using it to describe the intensity function of the Hawkes process, it is possible to consider indirect relationships between multiple domains through common latent factors. to This enables accurate modeling of event sequences in multiple domains and enables highly accurate prediction of future event occurrences.

<理論的構成>
まず、本実施形態の理論的構成について説明する。本実施形態では、時刻tから時刻tまでのイベントの履歴を表すイベント履歴情報が与えられるものとする。イベント履歴情報は時刻の系列で表されるデータであり、例えば、犯罪の発生履歴、金融取引の履歴、デモやストライキの発生履歴等を表すデータである。以下、イベント予測装置10で解析対象となるイベント履歴情報を
<Theoretical configuration>
First, the theoretical configuration of this embodiment will be described. In this embodiment, it is assumed that event history information representing a history of events from time t1 to time tN is given. The event history information is data represented by time series, and is data representing, for example, the history of crimes, the history of financial transactions, the history of demonstrations and strikes, and the like. Below, the event history information to be analyzed by the event prediction device 10 is

Figure 2022162456000002
と表す。ここで、tは時刻(イベント発生時刻)、mは時刻tに発生したイベントのドメイン、Nはデータ数(イベント数)である。また、ドメインの数をMとする。
Figure 2022162456000002
is represented as Here, t i is time (event occurrence time), m i is the domain of the event that occurred at time t i , and N is the number of data (number of events). Also, let M be the number of domains.

イベント履歴情報の具体例を図1に示す。図1に示す例は、ドメイン「犯罪」のイベント系列と、ドメイン「金融取引」のイベント系列と、ドメイン「ストライキ」のイベント系列とで構成されるイベント履歴情報である。すなわち、図1に示すイベント履歴情報{(t,m)}は、各i=1,・・・,Nに対して、時刻tにドメインm∈{犯罪,金融取引,ストライキ}のイベントが発生したことを表している。 A specific example of event history information is shown in FIG. The example shown in FIG. 1 is event history information composed of an event sequence of the domain "crime", an event sequence of the domain "financial transaction", and an event sequence of the domain "strike". That is, the event history information { (t i , m i )} shown in FIG. 1 is for each i =1, . event has occurred.

このとき、本実施形態では、与えられたイベント履歴情報を用いて、点過程モデルのパラメータを学習する。 At this time, in this embodiment, given event history information is used to learn the parameters of the point process model.

一般的な点過程モデルの手続きに従い、まずインテンシティ関数の設計を行う。インテンシティ関数は単位時間当たりにイベントが発生(又は生成)する確率を表す関数である。 In accordance with the procedure of general point process model, we first design the intensity function. The intensity function is a function representing the probability of an event occurring (or generating) per unit time.

本実施形態では、ドメインmのインテンシティ関数λ(・)を以下の式(1)で表す。 In this embodiment, the intensity function λ m (·) of the domain m is represented by the following equation (1).

Figure 2022162456000003
ここで、μは「バックグラウンドレート」と呼ばれ、過去のイベントに依らないイベントの発生確率を表す。本実施形態では、簡単のため、時間変化しない定数μを用いるが、以下の説明はμが時間に依存して変化する場合にも容易に一般化することが可能である。また、g(・)は既存のHawkes過程モデルで用いられるトリガー関数であり、例えば、指数減衰関数、ワイブル分布、ガンマ分布等が広く用いられている。本実施形態では、ドメインmごとに異なるバックグラウンドレートとトリガー関数を仮定する。f(t)は潜在状態の時間変化を表す任意のブラックボックス関数であり、例えば、景気の変化等を表す。上記の式(1)に示す定式化は、犯罪や金融取引等の複数ドメインにまたがるイベントの発生が共通の潜在状態f(t)によって時間変化するという仮定に基づいている。
Figure 2022162456000003
Here, μm is called a “background rate” and represents the occurrence probability of an event that does not depend on past events. In this embodiment, for the sake of simplicity, a constant μm that does not change with time is used, but the following description can be easily generalized to the case where μm changes depending on time. Also, g m (·) is a trigger function used in the existing Hawkes process model, and for example, an exponential decay function, Weibull distribution, gamma distribution, etc. are widely used. In this embodiment, we assume different background rates and trigger functions for each domain m. f(t) is an arbitrary black-box function that expresses the temporal change of the latent state, and represents, for example, changes in economic conditions. The formulation shown in Equation (1) above is based on the assumption that the occurrence of events across multiple domains, such as crime and financial transactions, changes over time according to a common latent state f(t).

Figure 2022162456000004
は現在時刻tと過去のイベントの発生時刻tに依存する関数であり、以下の式(2)でモデル化される。
Figure 2022162456000004
is a function that depends on the current time t and the past event occurrence time tj , and is modeled by the following equation (2).

Figure 2022162456000005
ここで、F(t)は潜在状態の時間変化を表す関数f(t)の積分である。本実施形態では、F(t)をニューラルネットワークによりモデル化する。この定式化により、尤度関数をニューラルネットワーク関数F(t)とその微分f(t)のみを用いて書き下すことが可能になる。
Figure 2022162456000005
Here, F(t) is the integral of the function f(t) representing the time change of the latent state. In this embodiment, F(t) is modeled by a neural network. This formulation allows the likelihood function to be written down using only the neural network function F(t) and its derivative f(t).

時刻Tまでのイベント系列 Event sequence up to time T

Figure 2022162456000006
が与えられたとき、本実施形態における点過程モデルの尤度Lは以下の式(3)のように書き下すことができる。
Figure 2022162456000006
is given, the likelihood L of the point process model in this embodiment can be written as the following equation (3).

Figure 2022162456000007
Hawkes過程の学習においては、上記の式(3)のΛに含まれる積分が問題になる。ニューラルネットワーク関数を含む関数の積分は一般に困難であるが、上記の式(1)及び(2)の定式化によりΛの積分を解析的に解くことができる。すなわち、x=F(t)-F(t)と変数変換を行うことで、f(t)dt=dxの置き換えが可能になる。これをΛに代入することで、以下の式(4)が得られる。
Figure 2022162456000007
In the learning of the Hawkes process, the integral included in Λ i of the above equation (3) becomes a problem. Integrating functions, including neural network functions, is generally difficult, but the formulation of equations (1) and (2) above allows the integral of Λ i to be solved analytically. That is, by performing the variable transformation x=F(t)-F(t j ), f(t)dt=dx can be replaced. By substituting this for Λ i , the following equation (4) is obtained.

Figure 2022162456000008
ここで、G(・)はトリガー関数g(・)の積分であり、指数減衰関数、ワイブル分布、ガンマ分布等の多くのトリガー関数g(・)について解析解が得られる。
Figure 2022162456000008
Here, G m (·) is the integral of the trigger function g m (·), and analytical solutions can be obtained for many trigger functions g m (·) such as exponential decay function, Weibull distribution, and gamma distribution.

そして、学習時には、上記の式(3)に示す尤度Lを最小化するようなニューラルネットワーク関数f(・)のパラメータを推定する。なお、パラメータの最適化には既知の任意の最適化手法を用いればよい。上記の式(3)に示す尤度Lは全てのパラメータに関して微分可能であるため、例えば、勾配法等を用いて最適化することができる。なお、尤度Lの微分は、例えば、誤差逆伝播法等により計算することができる。 Then, during learning, parameters of the neural network function f(·) that minimize the likelihood L shown in the above equation (3) are estimated. Any known optimization method may be used for optimizing the parameters. Since the likelihood L shown in the above equation (3) is differentiable with respect to all parameters, it can be optimized using, for example, the gradient method. Note that the differentiation of the likelihood L can be calculated by, for example, the error backpropagation method.

<全体構成>
次に、本実施形態に係るイベント予測装置10の全体構成について、図2を参照しながら説明する。図2は、本実施形態に係るイベント予測装置10の全体構成の一例を示す図である。
<Overall composition>
Next, the overall configuration of the event prediction device 10 according to this embodiment will be described with reference to FIG. FIG. 2 is a diagram showing an example of the overall configuration of the event prediction device 10 according to this embodiment.

図2に示すように、本実施形態に係るイベント予測装置10は、取得部101と、パラメータ学習部102と、指定受付部103と、予測部104と、出力部105と、パラメータ記憶部106とを有する。 As shown in FIG. 2, the event prediction device 10 according to the present embodiment includes an acquisition unit 101, a parameter learning unit 102, a designation reception unit 103, a prediction unit 104, an output unit 105, and a parameter storage unit 106. have

取得部101は、イベント予測装置10と通信ネットワークを介して接続されるイベント履歴情報格納装置20からイベント履歴情報を取得する。 The acquisition unit 101 acquires event history information from the event history information storage device 20 connected to the event prediction device 10 via a communication network.

ここで、イベント履歴情報格納装置20は、例えば、イベント履歴情報を格納するWebサーバやデータベースサーバ等である。なお、イベント履歴情報格納装置20に格納されるイベント履歴情報の操作(登録、削除、修正等)は、例えば、イベント履歴情報格納装置20と通信ネットワークを介して接続される端末(この端末は、イベント予測装置10であってもよいし、イベント履歴情報格納装置20自身であってもよい)等を用いて行うことが可能である。 Here, the event history information storage device 20 is, for example, a web server or database server that stores event history information. The operation (registration, deletion, correction, etc.) of the event history information stored in the event history information storage device 20 can be performed, for example, by a terminal connected to the event history information storage device 20 via a communication network (this terminal can be It may be the event prediction device 10 or the event history information storage device 20 itself).

パラメータ学習部102は、取得部101によって取得されたイベント履歴情報を用いて、上記の式(1)に示すインテンシティ関数λ(t)のパラメータ(つまり、このインテンシティ関数λ(t)に組み込まれているニューラルネットワーク関数f(t)のパラメータ)を学習する。このとき、パラメータ学習部102は、既知の任意の最適化手法(例えば、勾配法等)により、上記の式(3)に示す尤度Lを最小化させることで、当該パラメータを学習する。パラメータ学習部102によって学習されたパラメータ(学習済みパラメータ)は、パラメータ記憶部106に格納される。 The parameter learning unit 102 uses the event history information acquired by the acquisition unit 101 to obtain the parameters of the intensity function λ m (t) shown in the above equation (1) (that is, the intensity function λ m (t) parameters) of the neural network function f(t) embedded in . At this time, the parameter learning unit 102 learns the parameter by minimizing the likelihood L shown in the above equation (3) by any known optimization method (eg, gradient method, etc.). Parameters learned by parameter learning section 102 (learned parameters) are stored in parameter storage section 106 .

指定受付部103は、学習済みパラメータが設定されたインテンシティ関数λ(t)を用いてドメインmにおけるイベントの発生を予測する際に、予測対象となる時刻の指定を受け付ける。なお、例えば、イベントの種類等によっては時刻以外の情報の指定が受け付けられてもよい(例えば、犯罪の発生を予測する場合は、予測対象とする地域を示す情報の指定が受け付けられてもよい。)。 The designation receiving unit 103 receives designation of a prediction target time when predicting the occurrence of an event in the domain m using the intensity function λ m (t) set with the learned parameters. For example, depending on the type of event, designation of information other than time may be accepted (for example, when predicting the occurrence of a crime, designation of information indicating the region to be predicted may be accepted). .).

予測部104は、学習済みのパラメータが設定されたインテンシティ関数λ(t)を用いて、指定受付部103が受け付けた時刻におけるイベントの発生を予測する。このとき、予測部104は、例えば、予測対象となる時刻までのイベントの発生確率を当該インテンシティ関数λ(t)により計算して、点過程シミュレーションを行うことでイベントの発生を予測する。なお、点過程シミュレーションを行う手法は様々なものが存在するが、例えば、thinningと呼ばれる手法を用いることができる。thinningについては、例えば、参考文献「OGATA, Yosihiko. On Lewis' simulation method for point processes. IEEE Transactions on Information Theory, 1981, 27.1: 23-31.」等を参照されたい。 The prediction unit 104 predicts the occurrence of an event at the time received by the designation receiving unit 103 using the intensity function λ m (t) set with the learned parameters. At this time, the prediction unit 104 predicts the occurrence of an event by, for example, calculating the event occurrence probability up to the prediction target time using the intensity function λ m (t) and performing a point process simulation. There are various methods for performing point process simulation, and for example, a method called thinning can be used. For thinning, see, for example, the reference "OGATA, Yoshihiko. On Lewis' simulation method for point processes. IEEE Transactions on Information Theory, 1981, 27.1: 23-31."

出力部105は、予測部104による予測結果を出力する。なお、出力部105は任意の出力先に当該出力結果を出力すればよい。例えば、出力部105は、予測結果をディスプレイ等に表示してもよいし、補助記憶装置等の記憶領域に格納してもよいし、プリンタ等から印刷してもよいし、スピーカ等から音として出力してもよいし、通信ネットワークを介して外部の装置に送信してもよい。 The output unit 105 outputs the result of prediction by the prediction unit 104 . Note that the output unit 105 may output the output result to an arbitrary output destination. For example, the output unit 105 may display the prediction result on a display or the like, store it in a storage area such as an auxiliary storage device, print it from a printer or the like, or output it as sound from a speaker or the like. It may be output or may be transmitted to an external device via a communication network.

なお、図2に示すイベント予測装置10の構成は一例であって、他の構成であってもよい。例えば、イベント履歴情報格納装置20からイベント履歴情報を取得するのではなく、イベント予測装置10が、これらのイベント履歴情報を保持していてもよい。また、例えば、イベント予測装置10は、後述するパラメータ学習処理を実行する装置(学習装置)と、後述する予測処理を実行する装置(予測装置)とで構成されていてもよい。 Note that the configuration of the event prediction device 10 shown in FIG. 2 is an example, and other configurations may be used. For example, instead of acquiring the event history information from the event history information storage device 20, the event prediction device 10 may hold the event history information. Further, for example, the event prediction device 10 may be configured by a device (learning device) that executes parameter learning processing, which will be described later, and a device (prediction device) that executes prediction processing, which will be described later.

<パラメータ学習処理>
次に、上記の式(1)に示すインテンシティ関数λ(t)のパラメータ(つまり、ニューラルネットワーク関数f(t)のパラメータ)を学習する処理の流れについて、図3を参照しながら説明する。図3は、本実施形態に係るパラメータ学習処理の一例を示すフローチャートである。
<Parameter learning processing>
Next, the flow of processing for learning the parameters of the intensity function λ m (t) shown in Equation (1) above (that is, the parameters of the neural network function f(t)) will be described with reference to FIG. . FIG. 3 is a flowchart showing an example of parameter learning processing according to this embodiment.

まず、取得部101は、イベント履歴情報格納装置20からイベント履歴情報を取得する(ステップS101)。なお、このとき、イベント予測装置10のユーザは、例えば、イベント履歴情報として取得される範囲(例えば時間的な範囲、場所的な範囲等)を指定してもよい。 First, the acquisition unit 101 acquires event history information from the event history information storage device 20 (step S101). At this time, the user of the event prediction device 10 may specify, for example, a range (for example, a temporal range, a locational range, etc.) to be acquired as event history information.

次に、パラメータ学習部102は、上記のステップS101で取得されたイベント履歴情報を用いて、上記の式(1)に示すインテンシティ関数λ(t)のパラメータを学習する(ステップS102)。このとき、パラメータ学習部102は、既知の任意の最適化手法により、上記の式(3)に示す尤度Lを最小化させることで、上記の式(1)に示すインテンシティ関数λ(t)のパラメータを学習する。 Next, the parameter learning unit 102 learns the parameters of the intensity function λ m (t) shown in Equation (1) above using the event history information acquired in step S101 (step S102). At this time, parameter learning section 102 minimizes the likelihood L shown in the above equation (3) by any known optimization method, thereby increasing the intensity function λ m ( Learn the parameters of t).

そして、パラメータ学習部102は、上記のステップS102で学習されたパラメータ(学習済みパラメータ)をパラメータ記憶部106に格納する(ステップS103)。これにより、共通潜在因子を介した複数ドメイン間の間接的な関係を考慮することが可能となり、学習済みパラメータを設定したインテンシティ関数λ(t)によってドメインmにおけるイベントの発生を高い精度で予測することが可能となる。 Then, the parameter learning unit 102 stores the parameters (learned parameters) learned in step S102 in the parameter storage unit 106 (step S103). As a result, it becomes possible to consider indirect relationships between multiple domains through common latent factors, and the intensity function λ m (t) set with learned parameters enables highly accurate event occurrence in domain m. Prediction becomes possible.

<予測処理>
次に、学習済みパラメータが設定されたインテンシティ関数λ(t)を用いてドメインmにおけるイベントの発生を予測する処理の流れについて、図4を参照しながら説明する。図4は、本実施形態に係る予測処理の一例を示すフローチャートである。
<Prediction processing>
Next, the flow of processing for predicting the occurrence of an event in domain m using the intensity function λ m (t) set with learned parameters will be described with reference to FIG. FIG. 4 is a flowchart showing an example of prediction processing according to this embodiment.

まず、指定受付部103は、予測対象となる時刻の指定を受け付ける(ステップS201)。なお、予測対象となる時刻は、例えば、イベント予測装置10のディスプレイに表示されたUI(ユーザインタフェース)上でユーザが指定することができる。また、このとき、特定のドメインmのみを予測対象とする場合は、そのドメインmの指定を受け付けてもよい。 First, the designation receiving unit 103 receives designation of a time to be predicted (step S201). The time to be predicted can be specified by the user on a UI (user interface) displayed on the display of the event prediction device 10, for example. Also, at this time, if only a specific domain m is to be predicted, the designation of that domain m may be accepted.

次に、予測部104は、パラメータ記憶部106に記憶されている学習済みのパラメータが設定されたインテンシティ関数λ(t)を用いて、上記のステップS201で受け付けられた時刻におけるイベントの発生を予測する(ステップS202)。 Next, the prediction unit 104 uses the intensity function λ m (t) to which the learned parameters stored in the parameter storage unit 106 are set, to determine the occurrence of an event at the time accepted in step S201 above. is predicted (step S202).

そして、出力部105は、上記のステップS202における予測結果を、予め決められた出力先に出力する(ステップS203)。 Then, the output unit 105 outputs the prediction result in step S202 to a predetermined output destination (step S203).

<ハードウェア構成>
最後に、本実施形態に係るイベント予測装置10のハードウェア構成について、図5を参照しながら説明する。図5は、本実施形態に係るイベント予測装置10のハードウェア構成の一例を示す図である。
<Hardware configuration>
Finally, the hardware configuration of the event prediction device 10 according to this embodiment will be described with reference to FIG. FIG. 5 is a diagram showing an example of the hardware configuration of the event prediction device 10 according to this embodiment.

図5に示すように、本実施形態に係るイベント予測装置10は一般的なコンピュータ又はコンピュータシステムで実現され、入力装置301と、表示装置302と、外部I/F303と、通信I/F304と、プロセッサ305と、メモリ装置306とを有する。これら各ハードウェアは、それぞれがバス307を介して通信可能に接続されている。 As shown in FIG. 5, the event prediction device 10 according to this embodiment is realized by a general computer or computer system, and includes an input device 301, a display device 302, an external I/F 303, a communication I/F 304, It has a processor 305 and a memory device 306 . Each of these pieces of hardware is communicably connected via a bus 307 .

入力装置301は、例えば、キーボードやマウス、タッチパネル等である。表示装置302は、例えば、ディスプレイ等である。なお、イベント予測装置10は、入力装置301及び表示装置302のうちの少なくとも一方を有していなくてもよい。 The input device 301 is, for example, a keyboard, mouse, touch panel, or the like. The display device 302 is, for example, a display. Note that the event prediction device 10 does not have to have at least one of the input device 301 and the display device 302 .

外部I/F303は、外部装置とのインタフェースである。外部装置には、記録媒体303a等がある。イベント予測装置10は、外部I/F303を介して、記録媒体303aの読み取りや書き込み等を行うことができる。記録媒体303aには、例えば、イベント予測装置10が有する各機能部(取得部101、パラメータ学習部102、指定受付部103、予測部104及び出力部105等)を実現する1以上のプログラムが格納されていてもよい。 An external I/F 303 is an interface with an external device. The external device includes a recording medium 303a and the like. The event prediction device 10 can read from and write to the recording medium 303 a via the external I/F 303 . The recording medium 303a stores, for example, one or more programs that realize each function unit (acquisition unit 101, parameter learning unit 102, designation reception unit 103, prediction unit 104, output unit 105, etc.) of the event prediction device 10. may have been

なお、記録媒体303aには、例えば、CD(Compact Disc)、DVD(Digital Versatile Disk)、SDメモリカード(Secure Digital memory card)、USB(Universal Serial Bus)メモリカード等がある。 Note that the recording medium 303a includes, for example, a CD (Compact Disc), a DVD (Digital Versatile Disk), an SD memory card (Secure Digital memory card), a USB (Universal Serial Bus) memory card, and the like.

通信I/F304は、イベント予測装置10を通信ネットワークに接続するためのインタフェースである。イベント予測装置10は、通信I/F304を介して、イベント履歴情報格納装置20からイベント履歴情報を取得することができる。なお、イベント予測装置10が有する各機能部を実現する1以上のプログラムは、通信I/F304を介して、所定のサーバ装置等から取得(ダウンロード)されてもよい。 Communication I/F 304 is an interface for connecting event prediction device 10 to a communication network. The event prediction device 10 can acquire event history information from the event history information storage device 20 via the communication I/F 304 . Note that one or more programs that implement each functional unit of the event prediction device 10 may be acquired (downloaded) from a predetermined server device or the like via the communication I/F 304 .

プロセッサ305は、例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等の各種演算装置である。イベント予測装置10が有する各機能部は、メモリ装置306等に格納されている1以上のプログラムがプロセッサ305に実行させる処理により実現される。 The processor 305 is, for example, various arithmetic units such as a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit). Each functional unit of the event prediction device 10 is implemented by processing that one or more programs stored in the memory device 306 or the like cause the processor 305 to execute.

メモリ装置306は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等の各種記憶装置である。イベント予測装置10が有するパラメータ記憶部106は、メモリ装置306を用いて実現可能である。 The memory device 306 is, for example, various storage devices such as HDD (Hard Disk Drive), SSD (Solid State Drive), RAM (Random Access Memory), ROM (Read Only Memory), and flash memory. The parameter storage unit 106 included in the event prediction device 10 can be implemented using the memory device 306 .

本実施形態に係るイベント予測装置10は、図5に示すハードウェア構成を有することにより、上述したパラメータ学習処理及び予測処理を実現することができる。なお、図5に示すハードウェア構成は一例であって、イベント予測装置10は、他のハードウェア構成を有していてもよい。例えば、イベント予測装置10は、複数のプロセッサ305を有していてもよいし、複数のメモリ装置306を有していてもよい。 The event prediction device 10 according to the present embodiment can implement the above-described parameter learning processing and prediction processing by having the hardware configuration shown in FIG. Note that the hardware configuration shown in FIG. 5 is an example, and the event prediction device 10 may have other hardware configurations. For example, the event prediction device 10 may have multiple processors 305 and may have multiple memory devices 306 .

本発明は、具体的に開示された上記の実施形態に限定されるものではなく、特許請求の範囲の記載から逸脱することなく、種々の変形や変更、既知の技術との組み合わせ等が可能である。 The present invention is not limited to the specifically disclosed embodiments described above, and various variations, modifications, combinations with known techniques, etc. are possible without departing from the scope of the claims. be.

10 イベント予測装置
20 イベント履歴情報格納装置
101 取得部
102 パラメータ学習部
103 指定受付部
104 予測部
105 出力部
106 パラメータ記憶部
301 入力装置
302 表示装置
303 外部I/F
303a 記録媒体
304 通信I/F
305 プロセッサ
306 メモリ装置
307 バス
10 event prediction device 20 event history information storage device 101 acquisition unit 102 parameter learning unit 103 designation reception unit 104 prediction unit 105 output unit 106 parameter storage unit 301 input device 302 display device 303 external I/F
303a recording medium 304 communication I/F
305 processor 306 memory device 307 bus

Claims (8)

複数ドメインにおけるイベントの履歴を表すイベント履歴情報を取得する取得手順と、
前記取得手順で取得されたイベント履歴情報を用いて、前記複数ドメイン間で共通する潜在状態の時間変化を表すブラックボックス関数の積分とトリガー関数との第1の合成関数と、前記ブラックボックス関数と、バックグラウンドレートとで表されるインテンシティ関数のパラメータを学習する学習手順と、
をコンピュータが実行する学習方法。
an acquisition procedure for acquiring event history information representing a history of events in multiple domains;
using the event history information acquired in the acquisition step, a first composite function of an integral of a black box function representing temporal changes in a latent state common among the plurality of domains and a trigger function, and the black box function; a learning procedure for learning the parameters of the intensity function represented by , the background rate and
a computer-implemented learning method.
前記トリガー関数と前記バックグラウンドレートは、前記ドメインごとに異なる、請求項1に記載の学習方法。 2. The learning method of claim 1, wherein the trigger function and the background rate are different for each domain. 前記ブラックボックス関数の積分はニューラルネットワーク関数である、請求項1又は2に記載の学習方法。 3. A learning method according to claim 1 or 2, wherein the integral of the black-box function is a neural network function. 前記学習手順は、
前記トリガー関数と前記ブラックボックス関数との第2の合成関数と、前記ブラックボックス関数との積の積分を変数変換により解析的に解くことで、前記第2の合成関数と前記ブラックボックス関数との積の積分と、前記バックグラウンドレートとで構成される尤度を最小化し、前記インテンシティ関数のパラメータを学習する、請求項1乃至3の何れか一項に記載の学習方法。
The learning procedure includes:
By analytically solving the integral of the product of the second composite function of the trigger function and the black box function and the black box function by variable transformation, the second composite function and the black box function 4. A learning method according to any one of claims 1 to 3, wherein the parameters of the intensity function are learned by minimizing the likelihood consisting of the integral of the product and the background rate.
複数ドメインにおけるイベントの履歴を表すイベント履歴情報を取得する取得手順と、
前記取得手順で取得されたイベント履歴情報を用いて、前記複数ドメイン間で共通する潜在状態の時間変化を表すブラックボックス関数の積分とトリガー関数との第1の合成関数と、前記ブラックボックス関数と、バックグラウンドレートとで表されるインテンシティ関数のパラメータを学習する学習手順と、
前記学習手順で学習されたパラメータを設定したインテンシティ関数により、前記複数のドメインにおける将来のイベントの発生を予測する予測手順と、
をコンピュータが実行する予測方法。
an acquisition procedure for acquiring event history information representing a history of events in multiple domains;
using the event history information acquired in the acquisition step, a first composite function of an integral of a black box function representing temporal changes in a latent state common among the plurality of domains and a trigger function, and the black box function; a learning procedure for learning the parameters of the intensity function represented by , the background rate and
A prediction procedure for predicting the occurrence of future events in the plurality of domains by an intensity function set with parameters learned in the learning procedure;
is a computer-implemented prediction method.
複数ドメインにおけるイベントの履歴を表すイベント履歴情報を取得する取得部と、
前記取得部で取得されたイベント履歴情報を用いて、前記複数ドメイン間で共通する潜在状態の時間変化を表すブラックボックス関数の積分とトリガー関数との第1の合成関数と、前記ブラックボックス関数と、バックグラウンドレートとで表されるインテンシティ関数のパラメータを学習する学習部と、
を有する学習装置。
an acquisition unit that acquires event history information representing the history of events in multiple domains;
using the event history information acquired by the acquisition unit, a first composite function of an integral of a black box function representing temporal changes in a latent state common to the plurality of domains and a trigger function, and the black box function; a learning unit for learning the parameters of the intensity function represented by , background rate and
A learning device having
複数ドメインにおけるイベントの履歴を表すイベント履歴情報を取得する取得部と、
前記取得部で取得されたイベント履歴情報を用いて、前記複数ドメイン間で共通する潜在状態の時間変化を表すブラックボックス関数の積分とトリガー関数との第1の合成関数と、前記ブラックボックス関数と、バックグラウンドレートとで表されるインテンシティ関数のパラメータを学習する学習部と、
前記学習部で学習されたパラメータを設定したインテンシティ関数により、前記複数のドメインにおける将来のイベントの発生を予測する予測部と、
を有する予測装置。
an acquisition unit that acquires event history information representing the history of events in multiple domains;
using the event history information acquired by the acquisition unit, a first composite function of an integral of a black box function representing temporal changes in a latent state common to the plurality of domains and a trigger function, and the black box function; a learning unit for learning the parameters of the intensity function represented by , background rate and
a prediction unit that predicts the occurrence of future events in the plurality of domains using an intensity function set with parameters learned by the learning unit;
A prediction device with
コンピュータに、請求項1乃至4の何れか一項に記載の学習方法、又は、請求項5に記載の予測方法、を実行させるプログラム。 A program that causes a computer to execute the learning method according to any one of claims 1 to 4 or the prediction method according to claim 5.
JP2021067324A 2021-04-12 2021-04-12 Learning method, prediction method, learning device, prediction device, and program Pending JP2022162456A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021067324A JP2022162456A (en) 2021-04-12 2021-04-12 Learning method, prediction method, learning device, prediction device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021067324A JP2022162456A (en) 2021-04-12 2021-04-12 Learning method, prediction method, learning device, prediction device, and program

Publications (1)

Publication Number Publication Date
JP2022162456A true JP2022162456A (en) 2022-10-24

Family

ID=83720928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021067324A Pending JP2022162456A (en) 2021-04-12 2021-04-12 Learning method, prediction method, learning device, prediction device, and program

Country Status (1)

Country Link
JP (1) JP2022162456A (en)

Similar Documents

Publication Publication Date Title
US11861464B2 (en) Graph data structure for using inter-feature dependencies in machine-learning
EP3923207A2 (en) Clustering techniques for machine learning models
US11307978B2 (en) Garbage collection for data storage
US20230023630A1 (en) Creating predictor variables for prediction models from unstructured data using natural language processing
US20210157865A1 (en) Apparatus, method and computer program for cloud scraping using pre-scraped big data
Chau et al. RKHS-SHAP: Shapley values for kernel methods
Neely et al. A more realistic earthquake probability model using long‐term fault memory
Wyatt et al. AI4IO: A suite of AI-based tools for IO-aware scheduling
Sindhu et al. Workload characterization and synthesis for cloud using generative stochastic processes
JP2022162456A (en) Learning method, prediction method, learning device, prediction device, and program
US20200364104A1 (en) Identifying a problem based on log data analysis
CN114757700A (en) Article sales prediction model training method, article sales prediction method and apparatus
US20210312323A1 (en) Generating performance predictions with uncertainty intervals
US11836665B2 (en) Explainable process prediction
JP2014174895A (en) Bug convergence prediction device and bug convergence prediction program
Rabiepour et al. Structural performance and damage prediction using a novel digital cloning technique
Araujo et al. Software aging issues in streaming video player.
WO2021250753A1 (en) Training method, training device, and program
JP7420148B2 (en) Learning devices, learning methods and programs
US20240153007A1 (en) Optimization using a probabilistic framework for time series data and stochastic event data
US20240153006A1 (en) Optimization using a probabilistic framework for time series data and stochastic event data
RU2813245C1 (en) Computer systems, computing components and computing objects, made with possibility of implementing reduction of dynamic deviation caused by outlier values in machine learning models
US11960602B2 (en) Analyzing hardware designs for vulnerabilities to side-channel attacks
Alghamdi et al. Big Data Management and Analytics as a Cloud Service
US20240086947A1 (en) Intelligent prediction of sales opportunity outcome

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20210415

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210415

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231004