JP2022162456A - Learning method, prediction method, learning device, prediction device, and program - Google Patents
Learning method, prediction method, learning device, prediction device, and program Download PDFInfo
- Publication number
- JP2022162456A JP2022162456A JP2021067324A JP2021067324A JP2022162456A JP 2022162456 A JP2022162456 A JP 2022162456A JP 2021067324 A JP2021067324 A JP 2021067324A JP 2021067324 A JP2021067324 A JP 2021067324A JP 2022162456 A JP2022162456 A JP 2022162456A
- Authority
- JP
- Japan
- Prior art keywords
- function
- learning
- event
- history information
- domains
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本発明は、学習方法、予測方法、学習装置、予測装置、及びプログラムに関する。 The present invention relates to a learning method, a prediction method, a learning device, a prediction device, and a program.
イベント系列のモデル化には、点過程と呼ばれる確率モデルが広く用いられている。点過程は微小区間におけるイベントの発生数を記述するためのモデルで、「インテンシティ関数」を用いて任意の時刻におけるイベントの発生確率を記述する。 A probabilistic model called a point process is widely used for modeling event sequences. A point process is a model for describing the number of occurrences of events in a minute interval, and describes the probability of occurrence of an event at an arbitrary time using an "intensity function".
イベント系列の中でも、特に犯罪、金融取引、デモやストライキの発生履歴等といったイベント系列は「伝播性」を持つことが知られている。伝播性とは或るイベントが別のイベントを引き起こし、そのイベントがまた別のイベントを引き起こすという事象が連鎖的に続く、といった性質のことである。例えば、或る地域でデモが起きるとそれに呼応して別のデモが起き、そのデモが更に別の地域に広がっていく、といった現象は伝播性を持つイベント系列で表される。このような伝播性を持つイベント系列のモデル化にはHawkes過程が広く用いられている。Hawkes過程は点過程の一種であり、伝播のメカニズムをカーネル関数と呼ばれる関数でモデル化することで、伝播性を持つイベント系列を記述することができる。 Among event sequences, it is known that event sequences such as crimes, financial transactions, occurrence histories of demonstrations and strikes, etc. in particular have "transmissibility". Propagation is the property that an event causes another event, which in turn causes another event, and so on. For example, when a demonstration occurs in a certain area, another demonstration occurs in response to it, and the demonstration spreads to another area. The Hawkes process is widely used for modeling such a propagating event series. A Hawkes process is a kind of point process, and by modeling the mechanism of propagation with a function called a kernel function, it is possible to describe an event sequence with propagating properties.
ここで、通常、Hawkes過程は単一ドメインへの適用に焦点を当てたもので、複数のドメインにおけるイベント系列のモデル化にはそのまま適用することができない。これに対して、複数のドメインにおけるイベント系列のモデル化を可能とした「マルチタスクHawkes過程」というモデルが提案されている(非特許文献1)。 Here, Hawkes processes are usually focused on application to a single domain and cannot be directly applied to modeling event sequences in multiple domains. On the other hand, a model called "multitask Hawkes process" that enables modeling of event sequences in multiple domains has been proposed (Non-Patent Document 1).
しかしながら、上記の非特許文献1で提案されているモデルは、或るドメインにおいてイベントが発生した際、それに応じて別のドメインでのイベント発生確率が高まる、という強い仮定を置いている。そのため、複数のドメイン間の共通潜在因子を介した間接的な関係を記述することができない。一方で、実際には、ドメインごとのイベントの発生確率は共通潜在因子を介して間接的に関係していると考えられる。例えば、犯罪と金融取引という異なるドメインにおける2つのイベントは、景気の変化という共通潜在因子を介して関係していると考えられる。 However, the model proposed in Non-Patent Document 1 above makes a strong assumption that when an event occurs in one domain, the event occurrence probability in another domain increases accordingly. Therefore, it is not possible to describe indirect relationships between multiple domains through common latent factors. On the other hand, in reality, the probability of occurrence of events for each domain is thought to be indirectly related via common latent factors. For example, two events in different domains, crime and financial transactions, may be related through a common latent factor of economic change.
本発明の一実施形態は、上記の点に鑑みてなされたもので、共通潜在因子を介した間接的な関係も考慮して、複数のドメインにおけるイベント系列を予測することを目的とする。 An embodiment of the present invention has been made in view of the above points, and aims to predict event sequences in a plurality of domains, taking into consideration indirect relationships via common latent factors.
上記目的を達成するため、一実施形態に係る学習方法は、複数ドメインにおけるイベントの履歴を表すイベント履歴情報を取得する取得手順と、前記取得手順で取得されたイベント履歴情報を用いて、前記複数ドメイン間で共通する潜在状態の時間変化を表すブラックボックス関数の積分とトリガー関数との第1の合成関数と、前記ブラックボックス関数と、バックグラウンドレートとで表されるインテンシティ関数のパラメータを学習する学習手順と、をコンピュータが実行する。 To achieve the above object, a learning method according to one embodiment includes an acquisition procedure for acquiring event history information representing a history of events in a plurality of domains; Learning the parameters of the intensity function represented by the first composite function of the integral of the black box function representing the time change of the latent state common between domains and the trigger function, the black box function, and the background rate. and a learning procedure to be performed by the computer.
共通潜在因子を介した間接的な関係も考慮して、複数のドメインにおけるイベント系列を予測することができる。 Indirect relationships via common latent factors can also be considered to predict event sequences in multiple domains.
以下、本発明の一実施形態について説明する。本実施形態では、共通潜在因子を介した複数ドメイン間の間接的な関係も考慮した点過程モデルを構築し、この点過程モデルにより複数ドメイン間におけるイベントの発生を予測するイベント予測装置10について説明する。
An embodiment of the present invention will be described below. In this embodiment, an
ここで、点過程モデルは一般に「インテンシティ関数」(又は「強度関数」)と呼ばれる関数で記述され、このインテンシティ関数はイベントの発生確率を表す。本実施形態では、潜在状態の変化を表す関数を導入し、それを用いてHawkes過程のインテンシティ関数を記述することで、複数ドメイン間の共通潜在因子を介した間接的な関係を考慮できるようにする。これにより、複数ドメインにおけるイベント系列の正確なモデル化が可能となり、未来のイベントの発生を高い精度で予測できるようになる。 Here, the point process model is generally described by a function called "intensity function" (or "strength function"), and this intensity function represents the probability of occurrence of an event. In this embodiment, by introducing a function representing changes in the latent state and using it to describe the intensity function of the Hawkes process, it is possible to consider indirect relationships between multiple domains through common latent factors. to This enables accurate modeling of event sequences in multiple domains and enables highly accurate prediction of future event occurrences.
<理論的構成>
まず、本実施形態の理論的構成について説明する。本実施形態では、時刻t1から時刻tNまでのイベントの履歴を表すイベント履歴情報が与えられるものとする。イベント履歴情報は時刻の系列で表されるデータであり、例えば、犯罪の発生履歴、金融取引の履歴、デモやストライキの発生履歴等を表すデータである。以下、イベント予測装置10で解析対象となるイベント履歴情報を
<Theoretical configuration>
First, the theoretical configuration of this embodiment will be described. In this embodiment, it is assumed that event history information representing a history of events from time t1 to time tN is given. The event history information is data represented by time series, and is data representing, for example, the history of crimes, the history of financial transactions, the history of demonstrations and strikes, and the like. Below, the event history information to be analyzed by the
イベント履歴情報の具体例を図1に示す。図1に示す例は、ドメイン「犯罪」のイベント系列と、ドメイン「金融取引」のイベント系列と、ドメイン「ストライキ」のイベント系列とで構成されるイベント履歴情報である。すなわち、図1に示すイベント履歴情報{(ti,mi)}は、各i=1,・・・,Nに対して、時刻tiにドメインmi∈{犯罪,金融取引,ストライキ}のイベントが発生したことを表している。 A specific example of event history information is shown in FIG. The example shown in FIG. 1 is event history information composed of an event sequence of the domain "crime", an event sequence of the domain "financial transaction", and an event sequence of the domain "strike". That is, the event history information { (t i , m i )} shown in FIG. 1 is for each i =1, . event has occurred.
このとき、本実施形態では、与えられたイベント履歴情報を用いて、点過程モデルのパラメータを学習する。 At this time, in this embodiment, given event history information is used to learn the parameters of the point process model.
一般的な点過程モデルの手続きに従い、まずインテンシティ関数の設計を行う。インテンシティ関数は単位時間当たりにイベントが発生(又は生成)する確率を表す関数である。 In accordance with the procedure of general point process model, we first design the intensity function. The intensity function is a function representing the probability of an event occurring (or generating) per unit time.
本実施形態では、ドメインmのインテンシティ関数λm(・)を以下の式(1)で表す。 In this embodiment, the intensity function λ m (·) of the domain m is represented by the following equation (1).
時刻Tまでのイベント系列 Event sequence up to time T
そして、学習時には、上記の式(3)に示す尤度Lを最小化するようなニューラルネットワーク関数f(・)のパラメータを推定する。なお、パラメータの最適化には既知の任意の最適化手法を用いればよい。上記の式(3)に示す尤度Lは全てのパラメータに関して微分可能であるため、例えば、勾配法等を用いて最適化することができる。なお、尤度Lの微分は、例えば、誤差逆伝播法等により計算することができる。 Then, during learning, parameters of the neural network function f(·) that minimize the likelihood L shown in the above equation (3) are estimated. Any known optimization method may be used for optimizing the parameters. Since the likelihood L shown in the above equation (3) is differentiable with respect to all parameters, it can be optimized using, for example, the gradient method. Note that the differentiation of the likelihood L can be calculated by, for example, the error backpropagation method.
<全体構成>
次に、本実施形態に係るイベント予測装置10の全体構成について、図2を参照しながら説明する。図2は、本実施形態に係るイベント予測装置10の全体構成の一例を示す図である。
<Overall composition>
Next, the overall configuration of the
図2に示すように、本実施形態に係るイベント予測装置10は、取得部101と、パラメータ学習部102と、指定受付部103と、予測部104と、出力部105と、パラメータ記憶部106とを有する。
As shown in FIG. 2, the
取得部101は、イベント予測装置10と通信ネットワークを介して接続されるイベント履歴情報格納装置20からイベント履歴情報を取得する。
The
ここで、イベント履歴情報格納装置20は、例えば、イベント履歴情報を格納するWebサーバやデータベースサーバ等である。なお、イベント履歴情報格納装置20に格納されるイベント履歴情報の操作(登録、削除、修正等)は、例えば、イベント履歴情報格納装置20と通信ネットワークを介して接続される端末(この端末は、イベント予測装置10であってもよいし、イベント履歴情報格納装置20自身であってもよい)等を用いて行うことが可能である。
Here, the event history
パラメータ学習部102は、取得部101によって取得されたイベント履歴情報を用いて、上記の式(1)に示すインテンシティ関数λm(t)のパラメータ(つまり、このインテンシティ関数λm(t)に組み込まれているニューラルネットワーク関数f(t)のパラメータ)を学習する。このとき、パラメータ学習部102は、既知の任意の最適化手法(例えば、勾配法等)により、上記の式(3)に示す尤度Lを最小化させることで、当該パラメータを学習する。パラメータ学習部102によって学習されたパラメータ(学習済みパラメータ)は、パラメータ記憶部106に格納される。
The
指定受付部103は、学習済みパラメータが設定されたインテンシティ関数λm(t)を用いてドメインmにおけるイベントの発生を予測する際に、予測対象となる時刻の指定を受け付ける。なお、例えば、イベントの種類等によっては時刻以外の情報の指定が受け付けられてもよい(例えば、犯罪の発生を予測する場合は、予測対象とする地域を示す情報の指定が受け付けられてもよい。)。
The
予測部104は、学習済みのパラメータが設定されたインテンシティ関数λm(t)を用いて、指定受付部103が受け付けた時刻におけるイベントの発生を予測する。このとき、予測部104は、例えば、予測対象となる時刻までのイベントの発生確率を当該インテンシティ関数λm(t)により計算して、点過程シミュレーションを行うことでイベントの発生を予測する。なお、点過程シミュレーションを行う手法は様々なものが存在するが、例えば、thinningと呼ばれる手法を用いることができる。thinningについては、例えば、参考文献「OGATA, Yosihiko. On Lewis' simulation method for point processes. IEEE Transactions on Information Theory, 1981, 27.1: 23-31.」等を参照されたい。
The
出力部105は、予測部104による予測結果を出力する。なお、出力部105は任意の出力先に当該出力結果を出力すればよい。例えば、出力部105は、予測結果をディスプレイ等に表示してもよいし、補助記憶装置等の記憶領域に格納してもよいし、プリンタ等から印刷してもよいし、スピーカ等から音として出力してもよいし、通信ネットワークを介して外部の装置に送信してもよい。
The
なお、図2に示すイベント予測装置10の構成は一例であって、他の構成であってもよい。例えば、イベント履歴情報格納装置20からイベント履歴情報を取得するのではなく、イベント予測装置10が、これらのイベント履歴情報を保持していてもよい。また、例えば、イベント予測装置10は、後述するパラメータ学習処理を実行する装置(学習装置)と、後述する予測処理を実行する装置(予測装置)とで構成されていてもよい。
Note that the configuration of the
<パラメータ学習処理>
次に、上記の式(1)に示すインテンシティ関数λm(t)のパラメータ(つまり、ニューラルネットワーク関数f(t)のパラメータ)を学習する処理の流れについて、図3を参照しながら説明する。図3は、本実施形態に係るパラメータ学習処理の一例を示すフローチャートである。
<Parameter learning processing>
Next, the flow of processing for learning the parameters of the intensity function λ m (t) shown in Equation (1) above (that is, the parameters of the neural network function f(t)) will be described with reference to FIG. . FIG. 3 is a flowchart showing an example of parameter learning processing according to this embodiment.
まず、取得部101は、イベント履歴情報格納装置20からイベント履歴情報を取得する(ステップS101)。なお、このとき、イベント予測装置10のユーザは、例えば、イベント履歴情報として取得される範囲(例えば時間的な範囲、場所的な範囲等)を指定してもよい。
First, the
次に、パラメータ学習部102は、上記のステップS101で取得されたイベント履歴情報を用いて、上記の式(1)に示すインテンシティ関数λm(t)のパラメータを学習する(ステップS102)。このとき、パラメータ学習部102は、既知の任意の最適化手法により、上記の式(3)に示す尤度Lを最小化させることで、上記の式(1)に示すインテンシティ関数λm(t)のパラメータを学習する。
Next, the
そして、パラメータ学習部102は、上記のステップS102で学習されたパラメータ(学習済みパラメータ)をパラメータ記憶部106に格納する(ステップS103)。これにより、共通潜在因子を介した複数ドメイン間の間接的な関係を考慮することが可能となり、学習済みパラメータを設定したインテンシティ関数λm(t)によってドメインmにおけるイベントの発生を高い精度で予測することが可能となる。
Then, the
<予測処理>
次に、学習済みパラメータが設定されたインテンシティ関数λm(t)を用いてドメインmにおけるイベントの発生を予測する処理の流れについて、図4を参照しながら説明する。図4は、本実施形態に係る予測処理の一例を示すフローチャートである。
<Prediction processing>
Next, the flow of processing for predicting the occurrence of an event in domain m using the intensity function λ m (t) set with learned parameters will be described with reference to FIG. FIG. 4 is a flowchart showing an example of prediction processing according to this embodiment.
まず、指定受付部103は、予測対象となる時刻の指定を受け付ける(ステップS201)。なお、予測対象となる時刻は、例えば、イベント予測装置10のディスプレイに表示されたUI(ユーザインタフェース)上でユーザが指定することができる。また、このとき、特定のドメインmのみを予測対象とする場合は、そのドメインmの指定を受け付けてもよい。
First, the
次に、予測部104は、パラメータ記憶部106に記憶されている学習済みのパラメータが設定されたインテンシティ関数λm(t)を用いて、上記のステップS201で受け付けられた時刻におけるイベントの発生を予測する(ステップS202)。
Next, the
そして、出力部105は、上記のステップS202における予測結果を、予め決められた出力先に出力する(ステップS203)。
Then, the
<ハードウェア構成>
最後に、本実施形態に係るイベント予測装置10のハードウェア構成について、図5を参照しながら説明する。図5は、本実施形態に係るイベント予測装置10のハードウェア構成の一例を示す図である。
<Hardware configuration>
Finally, the hardware configuration of the
図5に示すように、本実施形態に係るイベント予測装置10は一般的なコンピュータ又はコンピュータシステムで実現され、入力装置301と、表示装置302と、外部I/F303と、通信I/F304と、プロセッサ305と、メモリ装置306とを有する。これら各ハードウェアは、それぞれがバス307を介して通信可能に接続されている。
As shown in FIG. 5, the
入力装置301は、例えば、キーボードやマウス、タッチパネル等である。表示装置302は、例えば、ディスプレイ等である。なお、イベント予測装置10は、入力装置301及び表示装置302のうちの少なくとも一方を有していなくてもよい。
The
外部I/F303は、外部装置とのインタフェースである。外部装置には、記録媒体303a等がある。イベント予測装置10は、外部I/F303を介して、記録媒体303aの読み取りや書き込み等を行うことができる。記録媒体303aには、例えば、イベント予測装置10が有する各機能部(取得部101、パラメータ学習部102、指定受付部103、予測部104及び出力部105等)を実現する1以上のプログラムが格納されていてもよい。
An external I/
なお、記録媒体303aには、例えば、CD(Compact Disc)、DVD(Digital Versatile Disk)、SDメモリカード(Secure Digital memory card)、USB(Universal Serial Bus)メモリカード等がある。
Note that the
通信I/F304は、イベント予測装置10を通信ネットワークに接続するためのインタフェースである。イベント予測装置10は、通信I/F304を介して、イベント履歴情報格納装置20からイベント履歴情報を取得することができる。なお、イベント予測装置10が有する各機能部を実現する1以上のプログラムは、通信I/F304を介して、所定のサーバ装置等から取得(ダウンロード)されてもよい。
Communication I/
プロセッサ305は、例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等の各種演算装置である。イベント予測装置10が有する各機能部は、メモリ装置306等に格納されている1以上のプログラムがプロセッサ305に実行させる処理により実現される。
The
メモリ装置306は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等の各種記憶装置である。イベント予測装置10が有するパラメータ記憶部106は、メモリ装置306を用いて実現可能である。
The
本実施形態に係るイベント予測装置10は、図5に示すハードウェア構成を有することにより、上述したパラメータ学習処理及び予測処理を実現することができる。なお、図5に示すハードウェア構成は一例であって、イベント予測装置10は、他のハードウェア構成を有していてもよい。例えば、イベント予測装置10は、複数のプロセッサ305を有していてもよいし、複数のメモリ装置306を有していてもよい。
The
本発明は、具体的に開示された上記の実施形態に限定されるものではなく、特許請求の範囲の記載から逸脱することなく、種々の変形や変更、既知の技術との組み合わせ等が可能である。 The present invention is not limited to the specifically disclosed embodiments described above, and various variations, modifications, combinations with known techniques, etc. are possible without departing from the scope of the claims. be.
10 イベント予測装置
20 イベント履歴情報格納装置
101 取得部
102 パラメータ学習部
103 指定受付部
104 予測部
105 出力部
106 パラメータ記憶部
301 入力装置
302 表示装置
303 外部I/F
303a 記録媒体
304 通信I/F
305 プロセッサ
306 メモリ装置
307 バス
10
305
Claims (8)
前記取得手順で取得されたイベント履歴情報を用いて、前記複数ドメイン間で共通する潜在状態の時間変化を表すブラックボックス関数の積分とトリガー関数との第1の合成関数と、前記ブラックボックス関数と、バックグラウンドレートとで表されるインテンシティ関数のパラメータを学習する学習手順と、
をコンピュータが実行する学習方法。 an acquisition procedure for acquiring event history information representing a history of events in multiple domains;
using the event history information acquired in the acquisition step, a first composite function of an integral of a black box function representing temporal changes in a latent state common among the plurality of domains and a trigger function, and the black box function; a learning procedure for learning the parameters of the intensity function represented by , the background rate and
a computer-implemented learning method.
前記トリガー関数と前記ブラックボックス関数との第2の合成関数と、前記ブラックボックス関数との積の積分を変数変換により解析的に解くことで、前記第2の合成関数と前記ブラックボックス関数との積の積分と、前記バックグラウンドレートとで構成される尤度を最小化し、前記インテンシティ関数のパラメータを学習する、請求項1乃至3の何れか一項に記載の学習方法。 The learning procedure includes:
By analytically solving the integral of the product of the second composite function of the trigger function and the black box function and the black box function by variable transformation, the second composite function and the black box function 4. A learning method according to any one of claims 1 to 3, wherein the parameters of the intensity function are learned by minimizing the likelihood consisting of the integral of the product and the background rate.
前記取得手順で取得されたイベント履歴情報を用いて、前記複数ドメイン間で共通する潜在状態の時間変化を表すブラックボックス関数の積分とトリガー関数との第1の合成関数と、前記ブラックボックス関数と、バックグラウンドレートとで表されるインテンシティ関数のパラメータを学習する学習手順と、
前記学習手順で学習されたパラメータを設定したインテンシティ関数により、前記複数のドメインにおける将来のイベントの発生を予測する予測手順と、
をコンピュータが実行する予測方法。 an acquisition procedure for acquiring event history information representing a history of events in multiple domains;
using the event history information acquired in the acquisition step, a first composite function of an integral of a black box function representing temporal changes in a latent state common among the plurality of domains and a trigger function, and the black box function; a learning procedure for learning the parameters of the intensity function represented by , the background rate and
A prediction procedure for predicting the occurrence of future events in the plurality of domains by an intensity function set with parameters learned in the learning procedure;
is a computer-implemented prediction method.
前記取得部で取得されたイベント履歴情報を用いて、前記複数ドメイン間で共通する潜在状態の時間変化を表すブラックボックス関数の積分とトリガー関数との第1の合成関数と、前記ブラックボックス関数と、バックグラウンドレートとで表されるインテンシティ関数のパラメータを学習する学習部と、
を有する学習装置。 an acquisition unit that acquires event history information representing the history of events in multiple domains;
using the event history information acquired by the acquisition unit, a first composite function of an integral of a black box function representing temporal changes in a latent state common to the plurality of domains and a trigger function, and the black box function; a learning unit for learning the parameters of the intensity function represented by , background rate and
A learning device having
前記取得部で取得されたイベント履歴情報を用いて、前記複数ドメイン間で共通する潜在状態の時間変化を表すブラックボックス関数の積分とトリガー関数との第1の合成関数と、前記ブラックボックス関数と、バックグラウンドレートとで表されるインテンシティ関数のパラメータを学習する学習部と、
前記学習部で学習されたパラメータを設定したインテンシティ関数により、前記複数のドメインにおける将来のイベントの発生を予測する予測部と、
を有する予測装置。 an acquisition unit that acquires event history information representing the history of events in multiple domains;
using the event history information acquired by the acquisition unit, a first composite function of an integral of a black box function representing temporal changes in a latent state common to the plurality of domains and a trigger function, and the black box function; a learning unit for learning the parameters of the intensity function represented by , background rate and
a prediction unit that predicts the occurrence of future events in the plurality of domains using an intensity function set with parameters learned by the learning unit;
A prediction device with
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021067324A JP2022162456A (en) | 2021-04-12 | 2021-04-12 | Learning method, prediction method, learning device, prediction device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021067324A JP2022162456A (en) | 2021-04-12 | 2021-04-12 | Learning method, prediction method, learning device, prediction device, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022162456A true JP2022162456A (en) | 2022-10-24 |
Family
ID=83720928
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021067324A Pending JP2022162456A (en) | 2021-04-12 | 2021-04-12 | Learning method, prediction method, learning device, prediction device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022162456A (en) |
-
2021
- 2021-04-12 JP JP2021067324A patent/JP2022162456A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11861464B2 (en) | Graph data structure for using inter-feature dependencies in machine-learning | |
EP3923207A2 (en) | Clustering techniques for machine learning models | |
US11307978B2 (en) | Garbage collection for data storage | |
US20230023630A1 (en) | Creating predictor variables for prediction models from unstructured data using natural language processing | |
US20210157865A1 (en) | Apparatus, method and computer program for cloud scraping using pre-scraped big data | |
Chau et al. | RKHS-SHAP: Shapley values for kernel methods | |
Neely et al. | A more realistic earthquake probability model using long‐term fault memory | |
Wyatt et al. | AI4IO: A suite of AI-based tools for IO-aware scheduling | |
Sindhu et al. | Workload characterization and synthesis for cloud using generative stochastic processes | |
JP2022162456A (en) | Learning method, prediction method, learning device, prediction device, and program | |
US20200364104A1 (en) | Identifying a problem based on log data analysis | |
CN114757700A (en) | Article sales prediction model training method, article sales prediction method and apparatus | |
US20210312323A1 (en) | Generating performance predictions with uncertainty intervals | |
US11836665B2 (en) | Explainable process prediction | |
JP2014174895A (en) | Bug convergence prediction device and bug convergence prediction program | |
Rabiepour et al. | Structural performance and damage prediction using a novel digital cloning technique | |
Araujo et al. | Software aging issues in streaming video player. | |
WO2021250753A1 (en) | Training method, training device, and program | |
JP7420148B2 (en) | Learning devices, learning methods and programs | |
US20240153007A1 (en) | Optimization using a probabilistic framework for time series data and stochastic event data | |
US20240153006A1 (en) | Optimization using a probabilistic framework for time series data and stochastic event data | |
RU2813245C1 (en) | Computer systems, computing components and computing objects, made with possibility of implementing reduction of dynamic deviation caused by outlier values in machine learning models | |
US11960602B2 (en) | Analyzing hardware designs for vulnerabilities to side-channel attacks | |
Alghamdi et al. | Big Data Management and Analytics as a Cloud Service | |
US20240086947A1 (en) | Intelligent prediction of sales opportunity outcome |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20210415 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20210415 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231004 |