JP6971181B2 - Predictors, predictors, and programs - Google Patents
Predictors, predictors, and programs Download PDFInfo
- Publication number
- JP6971181B2 JP6971181B2 JP2018053203A JP2018053203A JP6971181B2 JP 6971181 B2 JP6971181 B2 JP 6971181B2 JP 2018053203 A JP2018053203 A JP 2018053203A JP 2018053203 A JP2018053203 A JP 2018053203A JP 6971181 B2 JP6971181 B2 JP 6971181B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- prediction
- predicted
- update
- time point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 claims description 41
- 238000000034 method Methods 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 10
- 238000009826 distribution Methods 0.000 description 24
- 238000010586 diagram Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000009827 uniform distribution Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、予測装置、予測方法、およびプログラムに関する。 The present invention relates to predictors, predictors, and programs.
ネットワークを介して利用者に提供されるニュース記事等のコンテンツをその内容に基づいて評価し、評価結果に基づいて、インターネットのサイト等におけるコンテンツの掲載有無や掲載順を決定することが行われている。例えば、特許文献1に記載の発明では、記事情報の重要度と情報鮮度とに基づいて掲載順を決定している。
Content such as news articles provided to users via the network is evaluated based on the content, and based on the evaluation result, whether or not the content is posted on the Internet site etc. and the order of posting are determined. There is. For example, in the invention described in
従来の技術では、コンテンツの評価に用いるモデルの更新時において、更新前のモデルによる予測結果を、更新後のモデルによる予測結果に適切に反映させることができない場合があった。このため、更新直後の予測処理において過去に遡って予測をやり直す必要があり、処理負荷が増大する場合があった。また、予測のやり直しに備えて過去の実績値を記憶部に記憶させておく必要があったため、必要な記憶容量が大きくなる場合があった。 In the conventional technique, when updating the model used for content evaluation, the prediction result by the model before the update may not be appropriately reflected in the prediction result by the model after the update. For this reason, in the prediction processing immediately after the update, it is necessary to go back to the past and redo the prediction, which may increase the processing load. In addition, since it was necessary to store the past actual values in the storage unit in preparation for re-prediction, the required storage capacity may increase.
本発明は、このような事情を考慮してなされたものであり、予測処理における処理負荷を軽減し、必要な記憶容量を低減することができる予測装置、予測方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and provides a prediction device, a prediction method, and a program capable of reducing the processing load in the prediction processing and reducing the required storage capacity. It is one of the purposes.
本発明の一態様は、予測時点以前の実績値と、前記予測時点よりも1ステップ前の時点における自身の処理結果の少なくとも一部とをモデルに入力し、将来時点において前記実績値として現れることが予測される予測値を導出する予測部を備え、前記予測部は、前記モデルの更新後において、前記モデルの更新前における自身の処理結果の少なくとも一部に基づいて前記予測値を導出する、予測装置である。 One aspect of the present invention is to input the actual value before the prediction time point and at least a part of its own processing result at the time point one step before the prediction time point into the model, and to appear as the actual value at a future time point. The prediction unit is provided with a prediction unit for deriving the predicted value to be predicted, and the prediction unit derives the predicted value based on at least a part of its own processing result after the model is updated and before the model is updated. It is a predictor.
本発明の一態様によれば、予測処理における処理負荷を軽減することができる。 According to one aspect of the present invention, the processing load in the prediction processing can be reduced.
<概要>
以下、図面を参照し、本発明の予測装置、予測方法、およびプログラムの実施形態について説明する。予測装置は、過去の実績値と、自身が過去に行った演算結果の少なくとも一部とに基づいて、将来の時点で実績値として現れることが予測される予測値を導出する装置である。予測対象は、例えば、ネットワークを介して利用者に配信されるコンテンツのPV(ページビュー)数である。コンテンツとは、例えばニュース記事であるが、動画などの他のコンテンツであってもよい。以下の説明では、コンテンツはニュース記事であるものとする。また、報道性の有無を問わず、何らかの情報を伝えるものであればニュース記事に該当するものとする。ニュース記事には、少なくともテキスト情報が含まれる。また、ニュース記事には、テキストでないもの、例えば静止画や動画、インターフェースとして機能する図形(スイッチ)、装飾エフェクトなどが含まれてもよい。
<Overview>
Hereinafter, embodiments of the prediction device, prediction method, and program of the present invention will be described with reference to the drawings. The prediction device is a device for deriving a predicted value that is predicted to appear as an actual value at a future point in time, based on the past actual value and at least a part of the calculation result performed in the past. The prediction target is, for example, the number of PVs (page views) of the content delivered to the user via the network. The content is, for example, a news article, but may be other content such as a video. In the following description, the content is assumed to be a news article. In addition, if it conveys any information regardless of whether it is news or not, it is considered to be a news article. News articles contain at least textual information. In addition, news articles may include non-text items such as still images and moving images, figures (switches) that function as interfaces, decorative effects, and the like.
予測装置は、学習データを学習し、予測値と実績値との乖離が小さくなるようなモデルのパラメータを探索して生成する。そして、更新タイミングが到来すると、生成したパラメータによるモデルを新たなモデルとして採用し、新たなモデルによって予測を行う(モデルを更新する)。以下に説明するように、予測装置は、過去のモデルの更新時点におけるモデルの切り替わりに応じた処理によって学習を行う。これによって、予測装置は、モデルの更新前の予測結果を、更新後のモデルの学習に適切に反映させることができる。なお、以下の説明において予測値と予測結果は同義であるものとする。 The prediction device learns the training data and searches for and generates model parameters such that the discrepancy between the predicted value and the actual value becomes small. Then, when the update timing arrives, the model based on the generated parameters is adopted as a new model, and prediction is performed by the new model (the model is updated). As will be described below, the predictor performs learning by processing according to the model change at the time of updating the past model. As a result, the prediction device can appropriately reflect the prediction result before the update of the model in the training of the model after the update. In the following description, the predicted value and the predicted result are assumed to be synonymous.
予測装置は、単体で処理を行う装置であってもよいし、他の装置に包含される仮想的な装置であってもよい。以下の説明では、予測装置がコンテンツ配信装置に包含されるものとして説明する。 The prediction device may be a device that performs processing by itself, or may be a virtual device included in other devices. In the following description, the prediction device will be described as being included in the content distribution device.
[構成]
図1は、予測装置を利用したコンテンツ配信装置100の利用環境および構成の一例を示す図である。コンテンツ配信装置100は、ネットワークNWを介して利用者の端末装置10と通信する。ネットワークNWは、例えば、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)、セルラー網などを含む。
[composition]
FIG. 1 is a diagram showing an example of a usage environment and configuration of a
端末装置10は、例えば、スマートフォンなどの携帯電話、タブレット端末、パーソナルコンピュータなどである。端末装置10では、ブラウザやアプリケーションプログラムなどのUA(User Agent)が起動し、利用者の入力する内容に応じたリクエストをコンテンツ配信装置100に送信する。また、UAは、コンテンツ配信装置100から取得した情報に基づいて、各種画像を表示する。
The
コンテンツ配信装置100は、ブラウザからのリクエストに応じてウェブページを端末装置10に提供するウェブサーバ、またはアプリケーションプログラムからのリクエストに応じて画像や音声を提供する端末装置10に提供するアプリサーバとして機能する。コンテンツ配信装置100は、NICなどのネットワークカードを備える。
The
コンテンツ配信装置100は、例えば、コンテンツ配信部110と、コンテンツ選択部120と、予測装置130として機能する取得部132、予測部134、および学習部136と、記憶部150とを備える。これらの構成要素は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。
The
コンテンツ配信装置100は、記憶部150に記憶された情報を参照し、適宜、処理結果を記憶部150に書込みながら処理を行う。記憶部150は、RAM(Random Access Memory)やROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリなどにより実現される。記憶部150には、コンテンツ配信装置100のハードウェアプロセッサが実行するプログラムが格納されていてもよい。記憶部150は、コンテンツ配信装置100に附属する(コンテンツ配信装置100が備える)ものであってもよいし、コンテンツ配信装置100がネットワークNWを介してアクセス可能なNAS(Network Attached Storage)などの外部記憶装置であってもよい。記憶部150には、例えば、上記のプログラムの他、コンテンツ情報152、利用者情報154、コンテンツ実績値156、学習データ158、学習済モデル160などの情報が格納される。
The
コンテンツ情報152は、ニュース記事に含まれるテキスト情報、画像、音声等の内容、ニュース記事の配信元や著者等の情報を含む。利用者情報154は、利用者の識別情報である利用者ID、利用者のデモグラ情報(年齢、性別、職業、住所その他の情報をいう)等を含む。コンテンツ実績値156は、コンテンツごとの閲覧実績に基づく情報である。学習データ158は、学習部136による学習の対象となる情報である。学習済モデル160は、予測部134が予測の際に参照するモデルのパラメータ等の情報である。
The
コンテンツ配信部110は、コンテンツ選択部120により選択されたコンテンツを、端末装置10に配信する。コンテンツ選択部120は、予測装置130による予測結果に基づいてコンテンツのランキングを行い、ランキングに従って端末装置10に配信するコンテンツを選択する。
The
予測装置130の取得部132は、予測に用いる情報である実績値を取得する。本実施形態の例では、予測装置130がコンテンツ配信装置100に包含されているため、取得部132は、記憶部150からコンテンツ実績情報156のうち必要な情報を読み出すことで実績値を取得する。
The
[予測部]
図2は、予測部134による処理の内容を模式的に示す図である。予測部134は、例えば、第1予測部134Aと、第2予測部134Bとを備える。第1予測部134Aは、例えば、RNN(Recurrent Neural Network)を構成し、第2予測部134Bは、FNN(Feedforward Neural Network)を構成する。これらはあくまで一例であり、予測部134は、過去の処理結果の少なくとも一部を引き継いで予測を行うものであれば、如何なる形態であってもよい。
[Prediction unit]
FIG. 2 is a diagram schematically showing the contents of processing by the
予測部134は、予測時点以前の実績値と、予測時点よりも1ステップ前の時点における自身の処理結果の少なくとも一部とを学習済モデルに入力し、将来時点において実績値として現れることが予測される予測値を導出することを繰り返し行う。「ステップ」とは、繰り返し行われる予測の各段階をいう。一例として、1ステップは1時間おきに到来するものとする。
The
ここで、実績値について説明する。コンテンツ配信部150は、ニュース記事を配信する際に、利用者ごとのニュース記事の閲覧履歴を収集し、閲覧履歴に基づいてコンテンツ実績情報156を生成する。コンテンツ実績情報156は、例えば、ニュース記事ごとに、過去の所定時間前まで振り返った場合の時間帯ごとのインプレッション数、クリック数、ツイート数などの情報である。あるコンテンツに対応するコンテンツ実績情報156が、前述した実績値として扱われる。
Here, the actual value will be described. When distributing a news article, the
予測部134は、ニュース記事が入稿され、コンテンツ情報152として記憶部150に格納された段階で、当該ニュース記事に関するコンテンツ情報の疎ベクトルから分散表現を求める。
When the news article is submitted and stored in the
前述したように、コンテンツ情報152は、ニュース記事に含まれるテキスト情報、画像、音声等の内容、ニュース記事の配信元や著者等の情報を含む。予測部134は、例えば、tf−idf(Term Frequency-Inverse Document Frequency)やword2vec等の技術を用いて、テキスト情報をベクトル化する。また、画像や音声に対しては種々の技術に基づいてベクトル形式の特徴量を求める。予測部134は、上記の各種情報から得られるベクトルデータを統合し(例えば加算し)、コンテンツ情報の分散表現を求める。
As described above, the
予測部134は、時間の経過と共に、以下の処理を繰り返し実行する。第1予測部134Aは、繰り返し実行される中でのk回目の処理として、k−1回目の処理で求められた特徴情報(予測部134自身の処理結果の少なくとも一部)と、k−1回目からk回目までの実績値とに基づいて、特徴情報を求める処理を行う。第2予測部134Bは、特徴情報に対して、シグモイド関数などによる処理を実行し、予測結果を導出する。なお、第2予測部134Bが省略され、特徴情報がそのまま予測結果となるようにしてもよい。
The
このようにして繰り返し求められる予測結果のうち最新のものが、当該コンテンツのPV数を予測した予測結果として扱われる。予測部134は、所望のタイミングで、それまでの学習済モデル160に代えて、学習部136により生成された新しい学習済モデル160を参照して予測を実行する(学習済モデル160が更新される)。
The latest prediction result obtained repeatedly in this way is treated as a prediction result for predicting the number of PVs of the content. The
[学習部]
学習部136は、学習済モデル160を更新するための学習処理を行う。学習部136は、例えば、学習データ158に含まれる各ニュース記事の実績値に対して、過去の学習済モデル160の更新時点をτと仮定し、τ以降の予測値と実績値との二乗誤差を最小化するようなモデルパラメータを探索する。
[Learning Department]
The
図3は、学習データ158の内容の一例を示す図である。図示するように、学習データ158は、入稿から所定ステップ数(例えば24回)が経過している、複数の(図ではn個の)ニュース記事の実績値を集めたものである。なお、学習データ158における各ニュース記事の入稿時点は同じでなくてもよい。
FIG. 3 is a diagram showing an example of the contents of the learning
図4は、学習データ158に対する学習部136の処理内容について説明するための図である。図示するように、学習部136は、それぞれのニュース記事(1)〜(n)について更新時点τ(1)〜τ(n)をランダムに仮定し、τ以前のモデルパラメータ(旧パラメータ)を固定すると共にτ以降のモデルパラメータ(新パラメータ)について最適な値を求める。但し、新パラメータを探索する際に、τ以前を固定パラメータで計算し、τの直前の特徴情報をτの直後の予測に引き継ぐことを前提として、探索ごとの予測演算を行う。なお、それぞれのニュース記事(1)〜(n)について複数のτを仮定し、それぞれのτについて処理を行ってもよいが、計算量が多くなるため、それぞれのニュース記事(1)〜(n)について一つのτを仮定するものとした。
FIG. 4 is a diagram for explaining the processing content of the
係る処理の内容を数式で表すと、式(1)〜(3)のようになる。式中、Tは学習時におけるRNNのステップ数(図3では24)であり、Dは学習データ158であり、(x,y)は学習データ158に含まれる各ニュース記事を意味する。xtはステップtにおいてモデルに入力される実績値であり、ytはステップtにおける予測結果のラベルである。この予測モデルにおいては、yt=xt+1である。hx,t,τは、更新時点がτである場合の実績値xtに対するステップtの特徴情報であり、y(ハット)x,t,τは更新時点がτである場合の実績値xtに対するステップtの予測結果である。θoldは旧パラメータであり、θは新パラメータである。RNNはθまたはθoldを用いて第1予測部134Aが計算を行うためのモデルであり、FNNは第2予測部134Bが予測結果を計算するためのモデルである。U{1,T}は、期間{1,T}のτの分布であり、例えば一様分布である。一様分布に代えて、実際のτの分布を想定して式(3)を計算してもよい。
The contents of the processing are expressed by mathematical formulas as shown in equations (1) to (3). In the formula, T is the number of steps of RNN at the time of learning (24 in FIG. 3), D is the learning
学習部136は、式(3)を最小にするようなモデルパラメータθを求める。パラメータθで規定される学習モデルが、学習部136によって生成された学習済モデル160となる。
The
ここで、目的関数|yt−y(ハット)x,t,τ|2の探索範囲は、τからTまでであるが、目的関数に含まれるhx,t,τは、下記のように現時点Tからt=1まで遡って計算される。仮にT=24、τ=16とする。
hx,24,16=RNN(x24,hx,23,16;θ)
hx,23,16=RNN(x23,hx,22,16;θ)
…
hx,17,16=RNN(x17,hx,16,16;θ)
hx,16,16=RNN(x16,hx,15,16;θ)
hx,15,16=RNN(x15,hx,14,16;θold)
hx,14,16=RNN(x14,hx,13,16;θold)
…
hx,2,16=RNN(x2,hx,1,16;θold)
hx,1,16=RNN(x1(Null) ,分散表現;θold)
Here, the search range of the objective function | y t- y (hat) x, t, τ | 2 is from τ to T, but h x, t, τ included in the objective function is as follows. It is calculated retroactively from T at the present time to t = 1. Let T = 24 and τ = 16.
h x, 24 , 16 = RNN (x 24, h x, 23, 16 ; θ)
h x, 23 , 16 = RNN (x 23, h x, 22, 16 ; θ)
…
h x, 17 , 16 = RNN (x 17, h x, 16, 16 ; θ)
h x, 16, 16 = RNN (x 16 , h x, 15, 16 ; θ)
h x, 15, 16 = RNN (x 15 , h x, 14, 16 ; θ old )
h x, 14, 16 = RNN (x 14 , h x, 13, 16 ; θ old )
…
h x, 2,16 = RNN (x 2, h x, 1,16; θ old)
h x, 1,16 = RNN (x 1 (Null), distributed representation; θ old )
このように、学習部136は、新パラメータを探索する際に、τ以前を固定パラメータで計算し、τの直前の特徴情報をτの直後の予測に引き継ぐことを前提として予測演算を行う。この結果、予測部134は、学習済モデル160の更新直後における予測処理において、更新前の実績値に対して新しい学習済モデル160を用いた予測のやり直しをすることなく、更新直前における特徴情報を入力値として処理を行うことができる。この結果、予測処理における処理負荷を軽減することができる。また、予測のやり直しに備えて過去の実績値を記憶部に記憶させておく必要が無いため、予測処理に必要な記憶容量を低減することもできる。
In this way, when searching for a new parameter, the
また、学習部136により生成された更新後の学習済モデル160は、更新後も継続的に適切な予測結果を導出することが可能なものである。以下、これについて説明する。
Further, the updated trained
図5は、複数のニュース記事について並行して予測を行う中で、学習済モデル160の更新が行われた場面を示す図である。ここでは、ニュース記事(A)(B)(C)が存在するものとする。図示するように、学習済モデル160の更新時点において、何ステップの予測が行われたかは、ニュース記事の入稿時点によって異なるものとなる。
FIG. 5 is a diagram showing a scene in which the trained
図6は、図5に示す時点から時間が経過した状態を、仮に入稿時点を揃えて示した図である。図示するように、各ニュース記事について入稿から24ステップ経過した時点の状態は、図4に示すように学習処理において想定した状態、すなわちニュース記事ごとに異なるτを設定し、τ以前を旧パラメータで、τ以降を新パラメータで予測するという状態に合致していることが分かる。このように、学習部136は、入稿時点が異なる複数のニュース記事が同時並行で予測対象となり、ある時点で一斉に学習済モデル160の更新が行われるという環境に
適した学習処理を行うことができる。この結果、学習済モデル160を参照する予測部134は、学習済モデル160の更新後も継続的に適切な予測結果を導出することができる。
FIG. 6 is a diagram showing a state in which time has passed from the time point shown in FIG. 5 by tentatively aligning the time points of submission. As shown in the figure, the state at the time when 24 steps have passed from the submission of each news article is the state assumed in the learning process as shown in FIG. 4, that is, a different τ is set for each news article, and the old parameter is before τ. It can be seen that it matches the state of predicting τ and later with new parameters. In this way, the
また、このようなモデルの学習によって、予測装置130は、差分更新を好適に実現することができる。差分更新では、直近の実績値のみを第1予測部134Aに入力するのに対し、累積更新では、RNNのステップ数分の実績値を第1予測部134Aに入力する。このため、差分更新を採用する場合、計算コストを大幅に低減することができる。また、実績値を記憶しておく量が小さくなるため、必要な記憶容量を低減することもできる。但し、過去の実績値を直近のステップに入力しないため、学習済モデル160の更新前の情報が適切に引き継がれていないと、予測ロジックが破綻してしまう場合がある。この点、本実施形態の予測装置130では、学習部136の機能によって学習済モデル160の更新前の情報を適切に引き継いでいるため、差分更新を好適に実現することができる。
Further, by learning such a model, the
図7は、予測部134と学習部136の関係を模式的に示す図である。図示するように、直近の実績値は、予測部134に入力されると共に学習データ158として蓄積される。予測部134は、中間状態(特徴情報)を更新し、次のステップで参照する。また、予測部134は、学習済モデル160を参照して、直近の実績値と1ステップ前に更新された中間状態とに基づいて予測を行う。一方、学習部136は、学習データ158に基づいて学習済モデル160を生成する。所定のタイミングで、学習済モデル160の更新が行われる。
FIG. 7 is a diagram schematically showing the relationship between the
以上説明した実施形態の予測装置130によれば、予測時点以前の実績値と、予測時点よりも1ステップ前の時点における自身の処理結果の少なくとも一部とをモデルに入力し、将来時点において実績値として現れることが予測される予測値を導出する予測部134と、モデルを更新するための学習処理を行う学習部136と、を備え、予測部134は、モデルの更新後において、モデルの更新前における自身の処理結果の少なくとも一部に基づいて予測値を導出するため、予測処理における処理負荷を軽減し、必要な記憶容量を低減することができる。
According to the
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.
100 コンテンツ配信装置
110 コンテンツ配信部
120 コンテンツ選択部
130 予測装置
132 取得部
134 予測部
136 学習部
150 記憶部
152 コンテンツ情報
154 利用者情報
156 コンテンツ実績値
158 学習データ
160 学習済モデル
100
Claims (6)
前記予測部は、前記モデルの更新後において、前記モデルの更新前における、前記更新前のモデルの出力の少なくとも一部に基づいて前記予測値を導出する、
予測装置。 Input the actual value before the predicted time point and at least a part of the processing result of itself at the time point one step before the predicted time point into the model, and input the predicted value predicted to appear as the actual value at the future time point. Equipped with a predictor to derive
The prediction unit derives the prediction value based on at least a part of the output of the model before the update, after the model is updated and before the model is updated.
Predictor.
前記学習部は、前記モデルの更新前における前記予測部の処理結果の少なくとも一部を前記モデルの更新後における予測処理に引き継ぐ前提で、前記モデルの更新後における好適なパラメータを、前記モデルの更新後における予測値と実績値との誤差が小さくなるように探索する、
請求項1記載の予測装置。 Further provided with a learning unit that performs learning processing for updating the model.
On the premise that at least a part of the processing result of the prediction unit before the update of the model is taken over by the prediction processing after the update of the model, the learning unit updates the model with suitable parameters after the update of the model. Search so that the error between the predicted value and the actual value will be small.
The prediction device according to claim 1.
前記学習部は、複数の予測対象について前記モデルの更新時点をそれぞれ仮定し、モデルの異なる更新時点に適合するように、前記モデルの更新後における好適なパラメータを探索する、
請求項1または2記載の予測装置。 Further provided with a learning unit that performs learning processing for updating the model.
The learning unit assumes each of the update points of the model for a plurality of prediction targets, and searches for suitable parameters after the update of the model so as to match different update points of the model.
The prediction device according to claim 1 or 2.
請求項3記載の予測装置。 The learning unit randomly assumes the update time of the model for the plurality of prediction targets.
The prediction device according to claim 3.
予測時点以前の実績値と、前記予測時点よりも1ステップ前の時点における自身の処理結果の少なくとも一部とをモデルに入力し、将来時点において前記実績値として現れることが予測される予測値を導出する予測処理を実行し、
前記予測処理において、前記モデルの更新後において、前記モデルの更新前における、前記更新前のモデルの出力の少なくとも一部に基づいて前記予測値を導出する、
予測方法。 The computer
Input the actual value before the predicted time point and at least a part of the processing result of itself at the time point one step before the predicted time point into the model, and input the predicted value predicted to appear as the actual value at the future time point. Execute the prediction process to be derived,
In the prediction process, the predicted value is derived based on at least a part of the output of the model before the update, after the model is updated and before the model is updated.
Prediction method.
予測時点以前の実績値と、前記予測時点よりも1ステップ前の時点における自身の処理結果の少なくとも一部とをモデルに入力し、将来時点において前記実績値として現れることが予測される予測値を導出する予測処理を実行させ、
前記予測処理において、前記モデルの更新後において、前記モデルの更新前における、前記更新前のモデルの出力の少なくとも一部に基づいて前記予測値を導出させる、
プログラム。 On the computer
Input the actual value before the predicted time point and at least a part of the processing result of itself at the time point one step before the predicted time point into the model, and input the predicted value predicted to appear as the actual value at the future time point. Execute the prediction process to be derived,
In the prediction process, the predicted value is derived based on at least a part of the output of the model before the update, after the model is updated and before the model is updated.
program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018053203A JP6971181B2 (en) | 2018-03-20 | 2018-03-20 | Predictors, predictors, and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018053203A JP6971181B2 (en) | 2018-03-20 | 2018-03-20 | Predictors, predictors, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019164703A JP2019164703A (en) | 2019-09-26 |
JP6971181B2 true JP6971181B2 (en) | 2021-11-24 |
Family
ID=68064937
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018053203A Active JP6971181B2 (en) | 2018-03-20 | 2018-03-20 | Predictors, predictors, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6971181B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110768241A (en) * | 2019-10-29 | 2020-02-07 | 图灵人工智能研究院(南京)有限公司 | Control data processing and control system and method for energy storage device, equipment and medium |
JP7179033B2 (en) * | 2020-02-28 | 2022-11-28 | ヤフー株式会社 | CONTENT SELECTION DEVICE, CONTENT SELECTION METHOD, AND PROGRAM |
CN112486318B (en) * | 2020-11-26 | 2024-07-26 | 北京字跳网络技术有限公司 | Image display method and device, readable medium and electronic equipment |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4875906B2 (en) * | 2006-02-24 | 2012-02-15 | 富士重工業株式会社 | Vehicle behavior estimation / prediction device and vehicle stabilization control system |
JP5618501B2 (en) * | 2009-07-14 | 2014-11-05 | 株式会社東芝 | Demand prediction device, program and recording medium |
JP2017187371A (en) * | 2016-04-05 | 2017-10-12 | 株式会社日立パワーソリューションズ | Weather prediction device and wind power generation |
JP6550678B2 (en) * | 2016-05-27 | 2019-07-31 | 日本電信電話株式会社 | Behavior determination device, future prediction model learning device, network learning device, method, and program |
-
2018
- 2018-03-20 JP JP2018053203A patent/JP6971181B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2019164703A (en) | 2019-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10958748B2 (en) | Resource push method and apparatus | |
US11669744B2 (en) | Regularized neural network architecture search | |
US11971884B2 (en) | Interactive search experience using machine learning | |
CN109062919B (en) | Content recommendation method and device based on deep reinforcement learning | |
JP6167493B2 (en) | Method, computer program, storage medium and system for managing information | |
JP6854748B2 (en) | Information providing equipment, information providing method, and program | |
CN110889747B (en) | Commodity recommendation method, device, system, computer equipment and storage medium | |
JP6971181B2 (en) | Predictors, predictors, and programs | |
WO2016107354A1 (en) | Method and apparatus for providing user personalised resource message pushing | |
CN111242310A (en) | Feature validity evaluation method and device, electronic equipment and storage medium | |
US11886964B2 (en) | Provisioning interactive content based on predicted user-engagement levels | |
CN112464647B (en) | Recommendation system-oriented negative sampling method and device and electronic equipment | |
JP2014203442A (en) | Recommendation information generation device and recommendation information generation method | |
JP6077984B2 (en) | Item recommendation device, item recommendation method, and item recommendation program | |
CN115048560A (en) | Data processing method and related device | |
US9122986B2 (en) | Techniques for utilizing and adapting a prediction model | |
CN118043802A (en) | Recommendation model training method and device | |
JP6731178B2 (en) | Video search device and program | |
JP2018077671A (en) | Information processing apparatus, information processing method, apparatus for generating prediction models, method for generating prediction models and program | |
CN116204709A (en) | Data processing method and related device | |
JP6831719B2 (en) | Information processing systems, information processing methods, and programs | |
WO2015178219A1 (en) | Information-processing device, information processing method, and program | |
JP7117835B2 (en) | Generation device, model, generation method and generation program | |
JP2019109662A (en) | Classification device, data structure, classification method, and program | |
JP7179033B2 (en) | CONTENT SELECTION DEVICE, CONTENT SELECTION METHOD, AND PROGRAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A80 | Written request to apply exceptions to lack of novelty of invention |
Free format text: JAPANESE INTERMEDIATE CODE: A80 Effective date: 20180418 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20191101 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20191108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200313 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210326 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210406 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210604 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211005 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211101 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6971181 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |