JP6971181B2 - Predictors, predictors, and programs - Google Patents

Predictors, predictors, and programs Download PDF

Info

Publication number
JP6971181B2
JP6971181B2 JP2018053203A JP2018053203A JP6971181B2 JP 6971181 B2 JP6971181 B2 JP 6971181B2 JP 2018053203 A JP2018053203 A JP 2018053203A JP 2018053203 A JP2018053203 A JP 2018053203A JP 6971181 B2 JP6971181 B2 JP 6971181B2
Authority
JP
Japan
Prior art keywords
model
prediction
predicted
update
time point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018053203A
Other languages
Japanese (ja)
Other versions
JP2019164703A (en
Inventor
智亮 岩▲瀬▼
俊平 大倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2018053203A priority Critical patent/JP6971181B2/en
Publication of JP2019164703A publication Critical patent/JP2019164703A/en
Application granted granted Critical
Publication of JP6971181B2 publication Critical patent/JP6971181B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、予測装置、予測方法、およびプログラムに関する。 The present invention relates to predictors, predictors, and programs.

ネットワークを介して利用者に提供されるニュース記事等のコンテンツをその内容に基づいて評価し、評価結果に基づいて、インターネットのサイト等におけるコンテンツの掲載有無や掲載順を決定することが行われている。例えば、特許文献1に記載の発明では、記事情報の重要度と情報鮮度とに基づいて掲載順を決定している。 Content such as news articles provided to users via the network is evaluated based on the content, and based on the evaluation result, whether or not the content is posted on the Internet site etc. and the order of posting are determined. There is. For example, in the invention described in Patent Document 1, the publication order is determined based on the importance and information freshness of the article information.

特許第6059314号公報Japanese Patent No. 6059314

従来の技術では、コンテンツの評価に用いるモデルの更新時において、更新前のモデルによる予測結果を、更新後のモデルによる予測結果に適切に反映させることができない場合があった。このため、更新直後の予測処理において過去に遡って予測をやり直す必要があり、処理負荷が増大する場合があった。また、予測のやり直しに備えて過去の実績値を記憶部に記憶させておく必要があったため、必要な記憶容量が大きくなる場合があった。 In the conventional technique, when updating the model used for content evaluation, the prediction result by the model before the update may not be appropriately reflected in the prediction result by the model after the update. For this reason, in the prediction processing immediately after the update, it is necessary to go back to the past and redo the prediction, which may increase the processing load. In addition, since it was necessary to store the past actual values in the storage unit in preparation for re-prediction, the required storage capacity may increase.

本発明は、このような事情を考慮してなされたものであり、予測処理における処理負荷を軽減し、必要な記憶容量を低減することができる予測装置、予測方法、およびプログラムを提供することを目的の一つとする。 The present invention has been made in consideration of such circumstances, and provides a prediction device, a prediction method, and a program capable of reducing the processing load in the prediction processing and reducing the required storage capacity. It is one of the purposes.

本発明の一態様は、予測時点以前の実績値と、前記予測時点よりも1ステップ前の時点における自身の処理結果の少なくとも一部とをモデルに入力し、将来時点において前記実績値として現れることが予測される予測値を導出する予測部を備え、前記予測部は、前記モデルの更新後において、前記モデルの更新前における自身の処理結果の少なくとも一部に基づいて前記予測値を導出する、予測装置である。 One aspect of the present invention is to input the actual value before the prediction time point and at least a part of its own processing result at the time point one step before the prediction time point into the model, and to appear as the actual value at a future time point. The prediction unit is provided with a prediction unit for deriving the predicted value to be predicted, and the prediction unit derives the predicted value based on at least a part of its own processing result after the model is updated and before the model is updated. It is a predictor.

本発明の一態様によれば、予測処理における処理負荷を軽減することができる。 According to one aspect of the present invention, the processing load in the prediction processing can be reduced.

予測装置を利用したコンテンツ配信装置100の利用環境および構成の一例を示す図である。It is a figure which shows an example of the usage environment and the structure of the content distribution apparatus 100 using a prediction apparatus. 予測部134による処理の内容を模式的に示す図である。It is a figure which shows typically the content of the processing by a prediction unit 134. 学習データ158の内容の一例を示す図である。It is a figure which shows an example of the contents of the learning data 158. 学習データ158に対する学習部136の処理内容について説明するための図である。It is a figure for demonstrating the processing content of the learning unit 136 with respect to learning data 158. 複数のニュース記事について並行して予測を行う中で、学習済モデル160の更新が行われた場面を示す図である。It is a figure which shows the scene where the trained model 160 was updated while making predictions for a plurality of news articles in parallel. 図5に示す時点から時間が経過した状態を、仮に入稿時点を揃えて示した図である。It is a figure which shows the state which the time has passed from the time point shown in FIG. 5 by tentatively aligning the time point of submission. 予測部134と学習部136の関係を模式的に示す図である。It is a figure which shows typically the relationship between the prediction unit 134 and the learning unit 136.

<概要>
以下、図面を参照し、本発明の予測装置、予測方法、およびプログラムの実施形態について説明する。予測装置は、過去の実績値と、自身が過去に行った演算結果の少なくとも一部とに基づいて、将来の時点で実績値として現れることが予測される予測値を導出する装置である。予測対象は、例えば、ネットワークを介して利用者に配信されるコンテンツのPV(ページビュー)数である。コンテンツとは、例えばニュース記事であるが、動画などの他のコンテンツであってもよい。以下の説明では、コンテンツはニュース記事であるものとする。また、報道性の有無を問わず、何らかの情報を伝えるものであればニュース記事に該当するものとする。ニュース記事には、少なくともテキスト情報が含まれる。また、ニュース記事には、テキストでないもの、例えば静止画や動画、インターフェースとして機能する図形(スイッチ)、装飾エフェクトなどが含まれてもよい。
<Overview>
Hereinafter, embodiments of the prediction device, prediction method, and program of the present invention will be described with reference to the drawings. The prediction device is a device for deriving a predicted value that is predicted to appear as an actual value at a future point in time, based on the past actual value and at least a part of the calculation result performed in the past. The prediction target is, for example, the number of PVs (page views) of the content delivered to the user via the network. The content is, for example, a news article, but may be other content such as a video. In the following description, the content is assumed to be a news article. In addition, if it conveys any information regardless of whether it is news or not, it is considered to be a news article. News articles contain at least textual information. In addition, news articles may include non-text items such as still images and moving images, figures (switches) that function as interfaces, decorative effects, and the like.

予測装置は、学習データを学習し、予測値と実績値との乖離が小さくなるようなモデルのパラメータを探索して生成する。そして、更新タイミングが到来すると、生成したパラメータによるモデルを新たなモデルとして採用し、新たなモデルによって予測を行う(モデルを更新する)。以下に説明するように、予測装置は、過去のモデルの更新時点におけるモデルの切り替わりに応じた処理によって学習を行う。これによって、予測装置は、モデルの更新前の予測結果を、更新後のモデルの学習に適切に反映させることができる。なお、以下の説明において予測値と予測結果は同義であるものとする。 The prediction device learns the training data and searches for and generates model parameters such that the discrepancy between the predicted value and the actual value becomes small. Then, when the update timing arrives, the model based on the generated parameters is adopted as a new model, and prediction is performed by the new model (the model is updated). As will be described below, the predictor performs learning by processing according to the model change at the time of updating the past model. As a result, the prediction device can appropriately reflect the prediction result before the update of the model in the training of the model after the update. In the following description, the predicted value and the predicted result are assumed to be synonymous.

予測装置は、単体で処理を行う装置であってもよいし、他の装置に包含される仮想的な装置であってもよい。以下の説明では、予測装置がコンテンツ配信装置に包含されるものとして説明する。 The prediction device may be a device that performs processing by itself, or may be a virtual device included in other devices. In the following description, the prediction device will be described as being included in the content distribution device.

[構成]
図1は、予測装置を利用したコンテンツ配信装置100の利用環境および構成の一例を示す図である。コンテンツ配信装置100は、ネットワークNWを介して利用者の端末装置10と通信する。ネットワークNWは、例えば、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)、セルラー網などを含む。
[composition]
FIG. 1 is a diagram showing an example of a usage environment and configuration of a content distribution device 100 using a prediction device. The content distribution device 100 communicates with the user's terminal device 10 via the network NW. The network NW includes, for example, the Internet, a WAN (Wide Area Network), a LAN (Local Area Network), a cellular network, and the like.

端末装置10は、例えば、スマートフォンなどの携帯電話、タブレット端末、パーソナルコンピュータなどである。端末装置10では、ブラウザやアプリケーションプログラムなどのUA(User Agent)が起動し、利用者の入力する内容に応じたリクエストをコンテンツ配信装置100に送信する。また、UAは、コンテンツ配信装置100から取得した情報に基づいて、各種画像を表示する。 The terminal device 10 is, for example, a mobile phone such as a smartphone, a tablet terminal, a personal computer, or the like. In the terminal device 10, a UA (User Agent) such as a browser or an application program is activated, and a request according to the content input by the user is transmitted to the content distribution device 100. Further, the UA displays various images based on the information acquired from the content distribution device 100.

コンテンツ配信装置100は、ブラウザからのリクエストに応じてウェブページを端末装置10に提供するウェブサーバ、またはアプリケーションプログラムからのリクエストに応じて画像や音声を提供する端末装置10に提供するアプリサーバとして機能する。コンテンツ配信装置100は、NICなどのネットワークカードを備える。 The content distribution device 100 functions as a web server that provides a web page to the terminal device 10 in response to a request from a browser, or an application server that provides an image or sound in response to a request from an application program. do. The content distribution device 100 includes a network card such as a NIC.

コンテンツ配信装置100は、例えば、コンテンツ配信部110と、コンテンツ選択部120と、予測装置130として機能する取得部132、予測部134、および学習部136と、記憶部150とを備える。これらの構成要素は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。 The content distribution device 100 includes, for example, a content distribution unit 110, a content selection unit 120, an acquisition unit 132 that functions as a prediction device 130, a prediction unit 134, a learning unit 136, and a storage unit 150. These components are realized by, for example, a hardware processor such as a CPU (Central Processing Unit) executing a program (software). In addition, some or all of these components are hardware (circuits) such as LSI (Large Scale Integration), ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array), and GPU (Graphics Processing Unit). It may be realized by the part; including circuitry), or it may be realized by the cooperation of software and hardware.

コンテンツ配信装置100は、記憶部150に記憶された情報を参照し、適宜、処理結果を記憶部150に書込みながら処理を行う。記憶部150は、RAM(Random Access Memory)やROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリなどにより実現される。記憶部150には、コンテンツ配信装置100のハードウェアプロセッサが実行するプログラムが格納されていてもよい。記憶部150は、コンテンツ配信装置100に附属する(コンテンツ配信装置100が備える)ものであってもよいし、コンテンツ配信装置100がネットワークNWを介してアクセス可能なNAS(Network Attached Storage)などの外部記憶装置であってもよい。記憶部150には、例えば、上記のプログラムの他、コンテンツ情報152、利用者情報154、コンテンツ実績値156、学習データ158、学習済モデル160などの情報が格納される。 The content distribution device 100 refers to the information stored in the storage unit 150, and performs processing while appropriately writing the processing result to the storage unit 150. The storage unit 150 is realized by a RAM (Random Access Memory), a ROM (Read Only Memory), an HDD (Hard Disk Drive), a flash memory, or the like. The storage unit 150 may store a program executed by the hardware processor of the content distribution device 100. The storage unit 150 may be attached to the content distribution device 100 (included in the content distribution device 100), or may be external such as NAS (Network Attached Storage) that the content distribution device 100 can access via the network NW. It may be a storage device. In addition to the above program, the storage unit 150 stores, for example, information such as content information 152, user information 154, content actual value 156, learning data 158, and learned model 160.

コンテンツ情報152は、ニュース記事に含まれるテキスト情報、画像、音声等の内容、ニュース記事の配信元や著者等の情報を含む。利用者情報154は、利用者の識別情報である利用者ID、利用者のデモグラ情報(年齢、性別、職業、住所その他の情報をいう)等を含む。コンテンツ実績値156は、コンテンツごとの閲覧実績に基づく情報である。学習データ158は、学習部136による学習の対象となる情報である。学習済モデル160は、予測部134が予測の際に参照するモデルのパラメータ等の情報である。 The content information 152 includes text information, images, audio, and the like included in the news article, and information such as the distribution source and the author of the news article. The user information 154 includes a user ID which is identification information of the user, demographic information of the user (meaning age, gender, occupation, address and other information) and the like. The content actual value 156 is information based on the browsing record for each content. The learning data 158 is information to be learned by the learning unit 136. The trained model 160 is information such as model parameters referred to by the prediction unit 134 at the time of prediction.

コンテンツ配信部110は、コンテンツ選択部120により選択されたコンテンツを、端末装置10に配信する。コンテンツ選択部120は、予測装置130による予測結果に基づいてコンテンツのランキングを行い、ランキングに従って端末装置10に配信するコンテンツを選択する。 The content distribution unit 110 distributes the content selected by the content selection unit 120 to the terminal device 10. The content selection unit 120 ranks the content based on the prediction result of the prediction device 130, and selects the content to be delivered to the terminal device 10 according to the ranking.

予測装置130の取得部132は、予測に用いる情報である実績値を取得する。本実施形態の例では、予測装置130がコンテンツ配信装置100に包含されているため、取得部132は、記憶部150からコンテンツ実績情報156のうち必要な情報を読み出すことで実績値を取得する。 The acquisition unit 132 of the prediction device 130 acquires the actual value which is the information used for the prediction. In the example of the present embodiment, since the prediction device 130 is included in the content distribution device 100, the acquisition unit 132 acquires the actual value by reading the necessary information from the content actual information 156 from the storage unit 150.

[予測部]
図2は、予測部134による処理の内容を模式的に示す図である。予測部134は、例えば、第1予測部134Aと、第2予測部134Bとを備える。第1予測部134Aは、例えば、RNN(Recurrent Neural Network)を構成し、第2予測部134Bは、FNN(Feedforward Neural Network)を構成する。これらはあくまで一例であり、予測部134は、過去の処理結果の少なくとも一部を引き継いで予測を行うものであれば、如何なる形態であってもよい。
[Prediction unit]
FIG. 2 is a diagram schematically showing the contents of processing by the prediction unit 134. The prediction unit 134 includes, for example, a first prediction unit 134A and a second prediction unit 134B. The first prediction unit 134A constitutes, for example, an RNN (Recurrent Neural Network), and the second prediction unit 134B constitutes an FNN (Feedforward Neural Network). These are just examples, and the prediction unit 134 may take any form as long as it inherits at least a part of the past processing results and makes a prediction.

予測部134は、予測時点以前の実績値と、予測時点よりも1ステップ前の時点における自身の処理結果の少なくとも一部とを学習済モデルに入力し、将来時点において実績値として現れることが予測される予測値を導出することを繰り返し行う。「ステップ」とは、繰り返し行われる予測の各段階をいう。一例として、1ステップは1時間おきに到来するものとする。 The prediction unit 134 inputs the actual value before the prediction time and at least a part of its own processing result at the time one step before the prediction time into the trained model, and predicts that it will appear as the actual value at the future time. Iteratively derives the predicted value to be obtained. "Step" refers to each step of a repetitive forecast. As an example, one step shall arrive every hour.

ここで、実績値について説明する。コンテンツ配信部150は、ニュース記事を配信する際に、利用者ごとのニュース記事の閲覧履歴を収集し、閲覧履歴に基づいてコンテンツ実績情報156を生成する。コンテンツ実績情報156は、例えば、ニュース記事ごとに、過去の所定時間前まで振り返った場合の時間帯ごとのインプレッション数、クリック数、ツイート数などの情報である。あるコンテンツに対応するコンテンツ実績情報156が、前述した実績値として扱われる。 Here, the actual value will be described. When distributing a news article, the content distribution unit 150 collects the browsing history of the news article for each user and generates the content performance information 156 based on the browsing history. The content performance information 156 is, for example, information such as the number of impressions, the number of clicks, and the number of tweets for each time zone when looking back up to a predetermined time in the past for each news article. The content actual information 156 corresponding to a certain content is treated as the above-mentioned actual value.

予測部134は、ニュース記事が入稿され、コンテンツ情報152として記憶部150に格納された段階で、当該ニュース記事に関するコンテンツ情報の疎ベクトルから分散表現を求める。 When the news article is submitted and stored in the storage unit 150 as the content information 152, the prediction unit 134 obtains a distributed expression from the sparse vector of the content information related to the news article.

前述したように、コンテンツ情報152は、ニュース記事に含まれるテキスト情報、画像、音声等の内容、ニュース記事の配信元や著者等の情報を含む。予測部134は、例えば、tf−idf(Term Frequency-Inverse Document Frequency)やword2vec等の技術を用いて、テキスト情報をベクトル化する。また、画像や音声に対しては種々の技術に基づいてベクトル形式の特徴量を求める。予測部134は、上記の各種情報から得られるベクトルデータを統合し(例えば加算し)、コンテンツ情報の分散表現を求める。 As described above, the content information 152 includes text information, images, audio and the like included in the news article, and information such as the distribution source and the author of the news article. The prediction unit 134 vectorizes text information using techniques such as tf-idf (Term Frequency-Inverse Document Frequency) and word2vec. In addition, for images and sounds, feature quantities in vector format are obtained based on various techniques. The prediction unit 134 integrates (for example, adds) the vector data obtained from the above-mentioned various information, and obtains a distributed representation of the content information.

予測部134は、時間の経過と共に、以下の処理を繰り返し実行する。第1予測部134Aは、繰り返し実行される中でのk回目の処理として、k−1回目の処理で求められた特徴情報(予測部134自身の処理結果の少なくとも一部)と、k−1回目からk回目までの実績値とに基づいて、特徴情報を求める処理を行う。第2予測部134Bは、特徴情報に対して、シグモイド関数などによる処理を実行し、予測結果を導出する。なお、第2予測部134Bが省略され、特徴情報がそのまま予測結果となるようにしてもよい。 The prediction unit 134 repeatedly executes the following processing with the passage of time. The first prediction unit 134A has the feature information (at least a part of the processing result of the prediction unit 134 itself) obtained in the k-1th processing and the k-1 as the kth processing in the repeated execution. A process for obtaining feature information is performed based on the actual values from the kth time to the kth time. The second prediction unit 134B executes processing by a sigmoid function or the like on the feature information, and derives a prediction result. The second prediction unit 134B may be omitted, and the feature information may be used as the prediction result as it is.

このようにして繰り返し求められる予測結果のうち最新のものが、当該コンテンツのPV数を予測した予測結果として扱われる。予測部134は、所望のタイミングで、それまでの学習済モデル160に代えて、学習部136により生成された新しい学習済モデル160を参照して予測を実行する(学習済モデル160が更新される)。 The latest prediction result obtained repeatedly in this way is treated as a prediction result for predicting the number of PVs of the content. The prediction unit 134 executes prediction at a desired timing by referring to the new trained model 160 generated by the learning unit 136 instead of the trained model 160 up to that point (the trained model 160 is updated). ).

[学習部]
学習部136は、学習済モデル160を更新するための学習処理を行う。学習部136は、例えば、学習データ158に含まれる各ニュース記事の実績値に対して、過去の学習済モデル160の更新時点をτと仮定し、τ以降の予測値と実績値との二乗誤差を最小化するようなモデルパラメータを探索する。
[Learning Department]
The learning unit 136 performs a learning process for updating the trained model 160. For example, the learning unit 136 assumes that the update time of the past trained model 160 is τ with respect to the actual value of each news article included in the learning data 158, and the square error between the predicted value and the actual value after τ. Search for model parameters that minimize.

図3は、学習データ158の内容の一例を示す図である。図示するように、学習データ158は、入稿から所定ステップ数(例えば24回)が経過している、複数の(図ではn個の)ニュース記事の実績値を集めたものである。なお、学習データ158における各ニュース記事の入稿時点は同じでなくてもよい。 FIG. 3 is a diagram showing an example of the contents of the learning data 158. As shown in the figure, the learning data 158 is a collection of actual values of a plurality of (n in the figure) news articles in which a predetermined number of steps (for example, 24 times) have passed since the submission. The time of submission of each news article in the learning data 158 does not have to be the same.

図4は、学習データ158に対する学習部136の処理内容について説明するための図である。図示するように、学習部136は、それぞれのニュース記事(1)〜(n)について更新時点τ(1)〜τ(n)をランダムに仮定し、τ以前のモデルパラメータ(旧パラメータ)を固定すると共にτ以降のモデルパラメータ(新パラメータ)について最適な値を求める。但し、新パラメータを探索する際に、τ以前を固定パラメータで計算し、τの直前の特徴情報をτの直後の予測に引き継ぐことを前提として、探索ごとの予測演算を行う。なお、それぞれのニュース記事(1)〜(n)について複数のτを仮定し、それぞれのτについて処理を行ってもよいが、計算量が多くなるため、それぞれのニュース記事(1)〜(n)について一つのτを仮定するものとした。 FIG. 4 is a diagram for explaining the processing content of the learning unit 136 with respect to the learning data 158. As shown in the figure, the learning unit 136 randomly assumes the update time points τ (1) to τ (n) for each news article (1) to (n), and fixes the model parameters (old parameters) before τ. At the same time, the optimum value is obtained for the model parameters (new parameters) after τ. However, when searching for a new parameter, the prediction calculation for each search is performed on the premise that the characteristics before τ are calculated with fixed parameters and the feature information immediately before τ is inherited by the prediction immediately after τ. It is possible to assume a plurality of τ for each news article (1) to (n) and perform processing for each τ, but since the amount of calculation is large, each news article (1) to (n) ) Is assumed to be one τ.

係る処理の内容を数式で表すと、式(1)〜(3)のようになる。式中、Tは学習時におけるRNNのステップ数(図3では24)であり、Dは学習データ158であり、(x,y)は学習データ158に含まれる各ニュース記事を意味する。xはステップtにおいてモデルに入力される実績値であり、yはステップtにおける予測結果のラベルである。この予測モデルにおいては、y=xt+1である。hx,t,τは、更新時点がτである場合の実績値xに対するステップtの特徴情報であり、y(ハット)x,t,τは更新時点がτである場合の実績値xに対するステップtの予測結果である。θoldは旧パラメータであり、θは新パラメータである。RNNはθまたはθoldを用いて第1予測部134Aが計算を行うためのモデルであり、FNNは第2予測部134Bが予測結果を計算するためのモデルである。U{1,T}は、期間{1,T}のτの分布であり、例えば一様分布である。一様分布に代えて、実際のτの分布を想定して式(3)を計算してもよい。 The contents of the processing are expressed by mathematical formulas as shown in equations (1) to (3). In the formula, T is the number of steps of RNN at the time of learning (24 in FIG. 3), D is the learning data 158, and (x, y) means each news article included in the learning data 158. x t is the actual value input to the model in step t, and y t is the label of the prediction result in step t. In this prediction model, y t = x t + 1 . h x, t, τ are the feature information of the step t with respect to the actual value x t when the update time is τ, and y (hat) x, t, τ are the actual value x when the update time is τ. it is a prediction result of step t with respect to t. θ old is the old parameter and θ is the new parameter. The RNN is a model for the first prediction unit 134A to calculate using θ or θ old , and the FNN is a model for the second prediction unit 134B to calculate the prediction result. U {1, T} is the distribution of τ in the period {1, T}, for example, a uniform distribution. Instead of the uniform distribution, the equation (3) may be calculated assuming the actual distribution of τ.

Figure 0006971181
Figure 0006971181

学習部136は、式(3)を最小にするようなモデルパラメータθを求める。パラメータθで規定される学習モデルが、学習部136によって生成された学習済モデル160となる。 The learning unit 136 obtains a model parameter θ that minimizes the equation (3). The learning model defined by the parameter θ is the trained model 160 generated by the learning unit 136.

ここで、目的関数|yt−y(ハット)x,t,τの探索範囲は、τからTまでであるが、目的関数に含まれるhx,t,τは、下記のように現時点Tからt=1まで遡って計算される。仮にT=24、τ=16とする。
x,24,16=RNN(x24,hx,23,16;θ)
x,23,16=RNN(x23,hx,22,16;θ)

x,17,16=RNN(x17,hx,16,16;θ)
x,16,16=RNN(x16,hx,15,16;θ)
x,15,16=RNN(x15,hx,14,16;θold
x,14,16=RNN(x14,hx,13,16;θold

x,2,16=RNN(x,hx,1,16;θold
x,1,16=RNN(x(Null) ,分散表現;θold
Here, the search range of the objective function | y t- y (hat) x, t, τ | 2 is from τ to T, but h x, t, τ included in the objective function is as follows. It is calculated retroactively from T at the present time to t = 1. Let T = 24 and τ = 16.
h x, 24 , 16 = RNN (x 24, h x, 23, 16 ; θ)
h x, 23 , 16 = RNN (x 23, h x, 22, 16 ; θ)

h x, 17 , 16 = RNN (x 17, h x, 16, 16 ; θ)
h x, 16, 16 = RNN (x 16 , h x, 15, 16 ; θ)
h x, 15, 16 = RNN (x 15 , h x, 14, 16 ; θ old )
h x, 14, 16 = RNN (x 14 , h x, 13, 16 ; θ old )

h x, 2,16 = RNN (x 2, h x, 1,16; θ old)
h x, 1,16 = RNN (x 1 (Null), distributed representation; θ old )

このように、学習部136は、新パラメータを探索する際に、τ以前を固定パラメータで計算し、τの直前の特徴情報をτの直後の予測に引き継ぐことを前提として予測演算を行う。この結果、予測部134は、学習済モデル160の更新直後における予測処理において、更新前の実績値に対して新しい学習済モデル160を用いた予測のやり直しをすることなく、更新直前における特徴情報を入力値として処理を行うことができる。この結果、予測処理における処理負荷を軽減することができる。また、予測のやり直しに備えて過去の実績値を記憶部に記憶させておく必要が無いため、予測処理に必要な記憶容量を低減することもできる。 In this way, when searching for a new parameter, the learning unit 136 calculates before τ with a fixed parameter, and performs a prediction operation on the premise that the feature information immediately before τ is inherited by the prediction immediately after τ. As a result, in the prediction process immediately after the update of the trained model 160, the prediction unit 134 obtains the feature information immediately before the update without re-predicting the actual value before the update using the new trained model 160. It can be processed as an input value. As a result, the processing load in the prediction process can be reduced. Further, since it is not necessary to store the past actual value in the storage unit in preparation for redoing the prediction, the storage capacity required for the prediction processing can be reduced.

また、学習部136により生成された更新後の学習済モデル160は、更新後も継続的に適切な予測結果を導出することが可能なものである。以下、これについて説明する。 Further, the updated trained model 160 generated by the learning unit 136 can continuously derive an appropriate prediction result even after the update. This will be described below.

図5は、複数のニュース記事について並行して予測を行う中で、学習済モデル160の更新が行われた場面を示す図である。ここでは、ニュース記事(A)(B)(C)が存在するものとする。図示するように、学習済モデル160の更新時点において、何ステップの予測が行われたかは、ニュース記事の入稿時点によって異なるものとなる。 FIG. 5 is a diagram showing a scene in which the trained model 160 is updated while making predictions for a plurality of news articles in parallel. Here, it is assumed that news articles (A), (B), and (C) exist. As shown in the figure, the number of steps predicted at the time of updating the trained model 160 differs depending on the time of submission of the news article.

図6は、図5に示す時点から時間が経過した状態を、仮に入稿時点を揃えて示した図である。図示するように、各ニュース記事について入稿から24ステップ経過した時点の状態は、図4に示すように学習処理において想定した状態、すなわちニュース記事ごとに異なるτを設定し、τ以前を旧パラメータで、τ以降を新パラメータで予測するという状態に合致していることが分かる。このように、学習部136は、入稿時点が異なる複数のニュース記事が同時並行で予測対象となり、ある時点で一斉に学習済モデル160の更新が行われるという環境に
適した学習処理を行うことができる。この結果、学習済モデル160を参照する予測部134は、学習済モデル160の更新後も継続的に適切な予測結果を導出することができる。
FIG. 6 is a diagram showing a state in which time has passed from the time point shown in FIG. 5 by tentatively aligning the time points of submission. As shown in the figure, the state at the time when 24 steps have passed from the submission of each news article is the state assumed in the learning process as shown in FIG. 4, that is, a different τ is set for each news article, and the old parameter is before τ. It can be seen that it matches the state of predicting τ and later with new parameters. In this way, the learning unit 136 performs learning processing suitable for the environment in which a plurality of news articles having different submission times are predicted in parallel, and the trained model 160 is updated all at once at a certain point in time. Can be done. As a result, the prediction unit 134 that refers to the trained model 160 can continuously derive an appropriate prediction result even after the trained model 160 is updated.

また、このようなモデルの学習によって、予測装置130は、差分更新を好適に実現することができる。差分更新では、直近の実績値のみを第1予測部134Aに入力するのに対し、累積更新では、RNNのステップ数分の実績値を第1予測部134Aに入力する。このため、差分更新を採用する場合、計算コストを大幅に低減することができる。また、実績値を記憶しておく量が小さくなるため、必要な記憶容量を低減することもできる。但し、過去の実績値を直近のステップに入力しないため、学習済モデル160の更新前の情報が適切に引き継がれていないと、予測ロジックが破綻してしまう場合がある。この点、本実施形態の予測装置130では、学習部136の機能によって学習済モデル160の更新前の情報を適切に引き継いでいるため、差分更新を好適に実現することができる。 Further, by learning such a model, the prediction device 130 can suitably realize the difference update. In the differential update, only the latest actual value is input to the first prediction unit 134A, whereas in the cumulative update, the actual value for the number of RNN steps is input to the first prediction unit 134A. Therefore, when the differential update is adopted, the calculation cost can be significantly reduced. Further, since the amount of stored the actual value is small, the required storage capacity can be reduced. However, since the past actual value is not input to the latest step, the prediction logic may break if the information before the update of the trained model 160 is not properly inherited. In this respect, in the prediction device 130 of the present embodiment, the information before the update of the trained model 160 is appropriately taken over by the function of the learning unit 136, so that the differential update can be suitably realized.

図7は、予測部134と学習部136の関係を模式的に示す図である。図示するように、直近の実績値は、予測部134に入力されると共に学習データ158として蓄積される。予測部134は、中間状態(特徴情報)を更新し、次のステップで参照する。また、予測部134は、学習済モデル160を参照して、直近の実績値と1ステップ前に更新された中間状態とに基づいて予測を行う。一方、学習部136は、学習データ158に基づいて学習済モデル160を生成する。所定のタイミングで、学習済モデル160の更新が行われる。 FIG. 7 is a diagram schematically showing the relationship between the prediction unit 134 and the learning unit 136. As shown in the figure, the latest actual value is input to the prediction unit 134 and accumulated as learning data 158. The prediction unit 134 updates the intermediate state (feature information) and refers to it in the next step. Further, the prediction unit 134 refers to the trained model 160 and makes a prediction based on the latest actual value and the intermediate state updated one step before. On the other hand, the learning unit 136 generates the trained model 160 based on the learning data 158. The trained model 160 is updated at a predetermined timing.

以上説明した実施形態の予測装置130によれば、予測時点以前の実績値と、予測時点よりも1ステップ前の時点における自身の処理結果の少なくとも一部とをモデルに入力し、将来時点において実績値として現れることが予測される予測値を導出する予測部134と、モデルを更新するための学習処理を行う学習部136と、を備え、予測部134は、モデルの更新後において、モデルの更新前における自身の処理結果の少なくとも一部に基づいて予測値を導出するため、予測処理における処理負荷を軽減し、必要な記憶容量を低減することができる。 According to the prediction device 130 of the embodiment described above, the actual value before the prediction time point and at least a part of its own processing result at the time point one step before the prediction time point are input to the model, and the actual value at the future time point. A prediction unit 134 for deriving a predicted value predicted to appear as a value and a learning unit 136 for performing a learning process for updating the model are provided, and the prediction unit 134 updates the model after updating the model. Since the predicted value is derived based on at least a part of the previous processing result of itself, the processing load in the prediction processing can be reduced and the required storage capacity can be reduced.

以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。 Although the embodiments for carrying out the present invention have been described above using the embodiments, the present invention is not limited to these embodiments, and various modifications and substitutions are made without departing from the gist of the present invention. Can be added.

100 コンテンツ配信装置
110 コンテンツ配信部
120 コンテンツ選択部
130 予測装置
132 取得部
134 予測部
136 学習部
150 記憶部
152 コンテンツ情報
154 利用者情報
156 コンテンツ実績値
158 学習データ
160 学習済モデル
100 Content distribution device 110 Content distribution unit 120 Content selection unit 130 Prediction device 132 Acquisition unit 134 Prediction unit 136 Learning unit 150 Storage unit 152 Content information 154 User information 156 Content actual value 158 Learning data 160 Learned model

Claims (6)

予測時点以前の実績値と、前記予測時点よりも1ステップ前の時点における自身の処理結果の少なくとも一部とをモデルに入力し、将来時点において前記実績値として現れることが予測される予測値を導出する予測部を備え、
前記予測部は、前記モデルの更新後において、前記モデルの更新前における、前記更新前のモデルの出力の少なくとも一部に基づいて前記予測値を導出する、
予測装置。
Input the actual value before the predicted time point and at least a part of the processing result of itself at the time point one step before the predicted time point into the model, and input the predicted value predicted to appear as the actual value at the future time point. Equipped with a predictor to derive
The prediction unit derives the prediction value based on at least a part of the output of the model before the update, after the model is updated and before the model is updated.
Predictor.
前記モデルを更新するための学習処理を行う学習部を更に備え、
前記学習部は、前記モデルの更新前における前記予測部の処理結果の少なくとも一部を前記モデルの更新後における予測処理に引き継ぐ前提で、前記モデルの更新後における好適なパラメータを、前記モデルの更新後における予測値と実績値との誤差が小さくなるように探索する、
請求項1記載の予測装置。
Further provided with a learning unit that performs learning processing for updating the model.
On the premise that at least a part of the processing result of the prediction unit before the update of the model is taken over by the prediction processing after the update of the model, the learning unit updates the model with suitable parameters after the update of the model. Search so that the error between the predicted value and the actual value will be small.
The prediction device according to claim 1.
前記モデルを更新するための学習処理を行う学習部を更に備え、
前記学習部は、複数の予測対象について前記モデルの更新時点をそれぞれ仮定し、モデルの異なる更新時点に適合するように、前記モデルの更新後における好適なパラメータを探索する、
請求項1または2記載の予測装置。
Further provided with a learning unit that performs learning processing for updating the model.
The learning unit assumes each of the update points of the model for a plurality of prediction targets, and searches for suitable parameters after the update of the model so as to match different update points of the model.
The prediction device according to claim 1 or 2.
前記学習部は、前記複数の予測対象について前記モデルの更新時点をランダムに仮定する、
請求項3記載の予測装置。
The learning unit randomly assumes the update time of the model for the plurality of prediction targets.
The prediction device according to claim 3.
コンピュータが、
予測時点以前の実績値と、前記予測時点よりも1ステップ前の時点における自身の処理結果の少なくとも一部とをモデルに入力し、将来時点において前記実績値として現れることが予測される予測値を導出する予測処理を実行し、
前記予測処理において、前記モデルの更新後において、前記モデルの更新前における、前記更新前のモデルの出力の少なくとも一部に基づいて前記予測値を導出する、
予測方法。
The computer
Input the actual value before the predicted time point and at least a part of the processing result of itself at the time point one step before the predicted time point into the model, and input the predicted value predicted to appear as the actual value at the future time point. Execute the prediction process to be derived,
In the prediction process, the predicted value is derived based on at least a part of the output of the model before the update, after the model is updated and before the model is updated.
Prediction method.
コンピュータに、
予測時点以前の実績値と、前記予測時点よりも1ステップ前の時点における自身の処理結果の少なくとも一部とをモデルに入力し、将来時点において前記実績値として現れることが予測される予測値を導出する予測処理を実行させ、
前記予測処理において、前記モデルの更新後において、前記モデルの更新前における、前記更新前のモデルの出力の少なくとも一部に基づいて前記予測値を導出させる、
プログラム。
On the computer
Input the actual value before the predicted time point and at least a part of the processing result of itself at the time point one step before the predicted time point into the model, and input the predicted value predicted to appear as the actual value at the future time point. Execute the prediction process to be derived,
In the prediction process, the predicted value is derived based on at least a part of the output of the model before the update, after the model is updated and before the model is updated.
program.
JP2018053203A 2018-03-20 2018-03-20 Predictors, predictors, and programs Active JP6971181B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018053203A JP6971181B2 (en) 2018-03-20 2018-03-20 Predictors, predictors, and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018053203A JP6971181B2 (en) 2018-03-20 2018-03-20 Predictors, predictors, and programs

Publications (2)

Publication Number Publication Date
JP2019164703A JP2019164703A (en) 2019-09-26
JP6971181B2 true JP6971181B2 (en) 2021-11-24

Family

ID=68064937

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018053203A Active JP6971181B2 (en) 2018-03-20 2018-03-20 Predictors, predictors, and programs

Country Status (1)

Country Link
JP (1) JP6971181B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110768241A (en) * 2019-10-29 2020-02-07 图灵人工智能研究院(南京)有限公司 Control data processing and control system and method for energy storage device, equipment and medium
JP7179033B2 (en) * 2020-02-28 2022-11-28 ヤフー株式会社 CONTENT SELECTION DEVICE, CONTENT SELECTION METHOD, AND PROGRAM
CN112486318B (en) * 2020-11-26 2024-07-26 北京字跳网络技术有限公司 Image display method and device, readable medium and electronic equipment

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4875906B2 (en) * 2006-02-24 2012-02-15 富士重工業株式会社 Vehicle behavior estimation / prediction device and vehicle stabilization control system
JP5618501B2 (en) * 2009-07-14 2014-11-05 株式会社東芝 Demand prediction device, program and recording medium
JP2017187371A (en) * 2016-04-05 2017-10-12 株式会社日立パワーソリューションズ Weather prediction device and wind power generation
JP6550678B2 (en) * 2016-05-27 2019-07-31 日本電信電話株式会社 Behavior determination device, future prediction model learning device, network learning device, method, and program

Also Published As

Publication number Publication date
JP2019164703A (en) 2019-09-26

Similar Documents

Publication Publication Date Title
US10958748B2 (en) Resource push method and apparatus
US11669744B2 (en) Regularized neural network architecture search
US11971884B2 (en) Interactive search experience using machine learning
CN109062919B (en) Content recommendation method and device based on deep reinforcement learning
JP6167493B2 (en) Method, computer program, storage medium and system for managing information
JP6854748B2 (en) Information providing equipment, information providing method, and program
CN110889747B (en) Commodity recommendation method, device, system, computer equipment and storage medium
JP6971181B2 (en) Predictors, predictors, and programs
WO2016107354A1 (en) Method and apparatus for providing user personalised resource message pushing
CN111242310A (en) Feature validity evaluation method and device, electronic equipment and storage medium
US11886964B2 (en) Provisioning interactive content based on predicted user-engagement levels
CN112464647B (en) Recommendation system-oriented negative sampling method and device and electronic equipment
JP2014203442A (en) Recommendation information generation device and recommendation information generation method
JP6077984B2 (en) Item recommendation device, item recommendation method, and item recommendation program
CN115048560A (en) Data processing method and related device
US9122986B2 (en) Techniques for utilizing and adapting a prediction model
CN118043802A (en) Recommendation model training method and device
JP6731178B2 (en) Video search device and program
JP2018077671A (en) Information processing apparatus, information processing method, apparatus for generating prediction models, method for generating prediction models and program
CN116204709A (en) Data processing method and related device
JP6831719B2 (en) Information processing systems, information processing methods, and programs
WO2015178219A1 (en) Information-processing device, information processing method, and program
JP7117835B2 (en) Generation device, model, generation method and generation program
JP2019109662A (en) Classification device, data structure, classification method, and program
JP7179033B2 (en) CONTENT SELECTION DEVICE, CONTENT SELECTION METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20180418

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20191101

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211101

R150 Certificate of patent or registration of utility model

Ref document number: 6971181

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350