JP6623186B2 - Content evaluation prediction system and content evaluation prediction method - Google Patents
Content evaluation prediction system and content evaluation prediction method Download PDFInfo
- Publication number
- JP6623186B2 JP6623186B2 JP2017037525A JP2017037525A JP6623186B2 JP 6623186 B2 JP6623186 B2 JP 6623186B2 JP 2017037525 A JP2017037525 A JP 2017037525A JP 2017037525 A JP2017037525 A JP 2017037525A JP 6623186 B2 JP6623186 B2 JP 6623186B2
- Authority
- JP
- Japan
- Prior art keywords
- content
- feature
- evaluation
- information
- prediction model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000011156 evaluation Methods 0.000 title claims description 170
- 238000000034 method Methods 0.000 title claims description 21
- 238000000605 extraction Methods 0.000 claims description 82
- 238000013527 convolutional neural network Methods 0.000 claims description 16
- 239000000284 extract Substances 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 12
- 238000004458 analytical method Methods 0.000 claims description 9
- 238000000354 decomposition reaction Methods 0.000 claims description 9
- 238000010801 machine learning Methods 0.000 claims description 7
- 239000013598 vector Substances 0.000 description 118
- 238000010586 diagram Methods 0.000 description 12
- 238000004519 manufacturing process Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 230000015654 memory Effects 0.000 description 4
- 230000000877 morphologic effect Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000012417 linear regression Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明は、コンテンツを視聴した視聴者のコンテンツに対する評価を予測するコンテンツ評価予測システム及びコンテンツ評価予測方法に関する。 The present invention relates to a content evaluation prediction system and a content evaluation prediction method for predicting evaluation of content of a viewer who has viewed content.
近年、テレビジョン、ラジオあるいはインターネットなどの通信媒体により、画像及び音声からなる通信販売における商品の広告のコンテンツの配信が行なわれている。(例えば、特許文献1参照)
このテレビショッピングを用いて、商品の通信販売を行なう際、番組制作者(ディレクタ)が過去の経験を元に視聴者に対して購買意欲を生じさせる番組を、創造的な視点で行なっている。
2. Description of the Related Art In recent years, product advertisement contents in mail order sales consisting of images and sounds have been distributed over communication media such as television, radio, and the Internet. (For example, see Patent Document 1)
When performing online shopping for products using this TV shopping, a program producer (director) performs a program that creates a willingness to purchase viewers based on past experience from a creative viewpoint.
視聴者のコンテンツに対する反応は、広告の視聴者への通知後における電話やファックスによる問い合わせ数、あるいはウェブ(Web)ブラウザにおけるクリック数である。番組制作者は、この問い合わせあるいはクリックの数(アクセス数)により、制作した番組が商品の販売に対して効果があったか否かの判定を行なう。これにより、番組制作者は、番組制作の経験を積み、どのような番組構成とすれば商品販売に繋がるアクセス数が増加するかを、ノウハウとして蓄積していく。 The reaction to the viewer's content is the number of inquiries by telephone or fax after the advertisement is notified to the viewer, or the number of clicks in the Web (Web) browser. Based on this inquiry or the number of clicks (the number of accesses), the program producer determines whether the produced program has an effect on the sale of the product. Thereby, the program producer accumulates experience in program production and accumulates as know-how what kind of program configuration will increase the number of accesses leading to product sales.
しかしながら、番組制作者においても、広告のコンテンツを作成する場合に、ノウハウに基づいて作成しても、アクセス数がコンテンツの全体的な評価となり、コンテンツのいずれの部分が販売に寄与しているかを認識することはできない。このため、コンテンツの視聴者による評価は、コンテンツ毎に異なり、常に高くアクセスが得られるとは限らない。
また、広告のコンテンツを初めて作成する番組制作者にとっては、自身の作成する広告のコンテンツが、どの程度の視聴者から、商品に対するアクセスを得られるかは全く判らない。
However, even for program producers, when creating advertising content, even if it is created based on know-how, the number of accesses is an overall evaluation of the content, and which part of the content contributes to sales It cannot be recognized. For this reason, the evaluation of the content by the viewer is different for each content, and high access is not always obtained.
In addition, for a program producer who creates advertisement content for the first time, it is completely unknown how many viewers can get access to the product from the advertisement content that he creates.
本発明は、このような事情に鑑みてなされたもので、コンテンツを制作する番組制作者に対し、作成したコンテンツに対するアクセス数の予測値を供給することで、ノウハウの蓄積量によらずにコンテンツの制作を可能とするコンテンツ評価予測システム及びコンテンツ評価予測方法を提供することを目的とする。 The present invention has been made in view of such circumstances, and by supplying a predicted value of the number of accesses to the created content to the program producer who produces the content, the content can be obtained regardless of the accumulated amount of know-how. It is an object of the present invention to provide a content evaluation prediction system and a content evaluation prediction method that enable the production of content.
この発明は上述した課題を解決するためになされたもので、本発明のコンテンツ評価予測システムは、時系列に情報が変化するコンテンツの前記情報の特徴である情報特徴を所定の周期毎に抽出する特徴抽出部と、前記情報特徴と、前記所定の周期及び当該所定の周期の直後の周期の各々におけるコンテンツの評価値としてのアクセス数の加算値とを用いた機械学習により、前記情報に対応する情報特徴を入力することにより、当該情報特徴に対するアクセス数を予測するコンテンツ評価予測モデルを生成する予測モデル生成部とを備えることを特徴とする。 The present invention has been made to solve the above-described problems, and the content evaluation prediction system of the present invention extracts information features, which are features of the information of content whose information changes in time series, at predetermined intervals. a feature extraction unit, and the information feature, the machine learning using the sum of the number of access as the evaluation value of the content in each of the periods just after the predetermined period and the predetermined period, corresponding to the information And a prediction model generation unit that generates a content evaluation prediction model for predicting the number of accesses to the information feature by inputting the information feature.
本発明のコンテンツ評価予測システムは、前記情報が少なくとも動画像及び台詞のいずれかを含んでいることを特徴とする。 The content evaluation prediction system according to the present invention is characterized in that the information includes at least one of a moving image and a dialogue.
本発明のコンテンツ評価予測システムは、前記特徴抽出部が、前記動画像の特徴抽出を行なう際、画像特徴抽出の学習後の他の畳み込みニューラルネットワーク(CNN)における全結合層前段までの特徴抽出機能を用いていることを特徴とする。 In the content evaluation prediction system according to the present invention, when the feature extraction unit performs feature extraction of the moving image, the feature extraction function up to the previous stage of all connected layers in another convolutional neural network (CNN) after learning of image feature extraction It is characterized by using.
本発明のコンテンツ評価予測システムは、前記特徴抽出部が、前記台詞の特徴抽出を行なう際、形態素解析において分解を制限する単語である分解制限単語を辞書に登録し、当該辞書を参照して形態素解析を行なうことを特徴とする。 In the content evaluation prediction system of the present invention, when the feature extraction unit performs feature extraction of the dialogue, it registers a decomposition restriction word, which is a word that restricts decomposition in morphological analysis, in the dictionary, and refers to the dictionary for the morpheme. It is characterized by performing analysis.
本発明のコンテンツ評価予測システムは、前記予測モデル生成部が、前記コンテンツ評価予測モデルを生成する際、スパースモデリング法を用いることを特徴とする。 The content evaluation prediction system of the present invention is characterized in that the prediction model generation unit uses a sparse modeling method when generating the content evaluation prediction model.
本発明のコンテンツ評価予測方法は、特徴抽出部が、時系列に情報が変化するコンテンツの前記情報の特徴である情報特徴を所定の周期毎に抽出する特徴抽出過程と、予測モデル生成部が、前記情報特徴と、前記所定の周期及び当該所定の周期の直後の周期の各々におけるコンテンツの評価値としてのアクセス数の加算値とを用いた機械学習により、前記情報に対応する情報特徴を入力することにより、当該情報特徴に対するアクセス数を予測するコンテンツ評価予測モデルを生成する予測モデル生成過程とを含むことを特徴とする。
In the content evaluation prediction method of the present invention, the feature extraction unit extracts a feature of the information of the content whose information changes in time series for each predetermined period, and a prediction model generation unit includes: said information feature, by machine learning using the sum of the number of access as the evaluation value of the content in each of the periods just after the predetermined period and the predetermined period, and inputs the information features corresponding to the information And a prediction model generation process for generating a content evaluation prediction model for predicting the number of accesses to the information feature.
この発明によれば、コンテンツを制作する番組制作者に対し、作成したコンテンツに対するアクセス数の予測値を供給することで、ノウハウの蓄積量によらずにコンテンツの制作を可能とするコンテンツ評価予測システム及びコンテンツ評価予測方法を提供することができる。 According to the present invention, a content evaluation prediction system that enables content production regardless of the amount of know-how accumulated by supplying a predicted value of the number of accesses to the created content to a program producer who produces content. And a content evaluation prediction method can be provided.
以下、図面を参照して、本発明の一実施形態について説明する。図1は、本発明の一実施形態によるコンテンツ評価予測システムの構成例を示す図である。図1において、本実施形態におけるコンテンツ評価予測システム1は、コンテンツデータ入力部11、特徴抽出部12、アクセス数集積部13、予測モデル生成部14、アクセス数予測部15、データベース16、分解制限単語辞書記憶部17、抽出特徴記憶部18及び評価結果記憶部19の各々を備えている。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating a configuration example of a content evaluation prediction system according to an embodiment of the present invention. In FIG. 1, the content
コンテンツデータ入力部11は、後述するコンテンツ評価予測モデルを生成する際に用いる学習コンテンツのデータ、コンテンツを評価する評価値としてのアクセス数を予測する対象コンテンツのデータを読み込み、データベース16に対して書き込んで記憶する。ここで、アクセス数とは、コンテンツがテレビショッピングなどで通信販売を行なっている商品の広告の動画像である場合、評価周期毎(例えば、1分毎)における、コンテンツを視聴している視聴者から、商品を販売している会社のコールセンターに対して発呼された電話の数としての入電数である。入電数が多いほど、コンテンツを視聴して、商品に対して興味を有した視聴者が多いため、コンテンツの商品の販売に寄与した度合いが高い。以下、本実施形態においては、アクセス数を視聴者からの電話の入電数として説明する。
The content
特徴抽出部12は、コンテンツの時系列に変化する情報(上記動画、台詞など)から、上記評価周期毎の特徴(情報特徴)を抽出する。本実施形態においては、コンテンツは、動画像として説明するため、画像と台詞との各々から、それぞれ画像特徴、台詞特徴を抽出する。
そのため、特徴抽出部12は、画像特徴を抽出する画像特徴抽出部121と、台詞特徴を抽出する台詞特徴抽出部122とを備えている。
画像特徴抽出部121は、ディープラーニングを用いた機械学習により学習されたCNN(Convolutional Neural Network、畳み込みニューラルネットワーク)などで形成され、画像の特徴を抽出する画像特徴抽出機能を有しており、入力された画像に対応した所定の次元数の画像の特徴ベクトル(画像特徴ベクトル)を抽出する。
The
Therefore, the
The image
本実施形態においては、コンテンツの動画から、1秒ごとにシーンをサンプリングし、シーンのピクセルを格子状に227×227個のブロックに分割し、ブロック毎にピクセルにおけるRGBの階調度の平均を算出した数値を、特徴を抽出するためのデータ列として用いる。227×227=51529となり、51529ブロックに対して、RGB毎の3つのデータがあるため、入力される画像のデータ列は、154587のデータから構成されている。 In this embodiment, a scene is sampled every second from the moving image of the content, the pixels of the scene are divided into 227 × 227 blocks in a grid pattern, and the average of the RGB gradation in the pixels is calculated for each block. The numerical values obtained are used as a data string for extracting features. Since 227 × 227 = 51529 and there are three pieces of data for each of RGB for 51529 blocks, the data string of the input image is composed of 154587 data.
画像特徴抽出部121は、本実施形態において、上述した154587のデータ列から、4096次元の画像特徴からなる画像特徴ベクトルを抽出する。
また、本実施形態においては、この画像特徴抽出部121における画像特徴抽出機能を有するCNNを、画像特徴量抽出の学習後の他のCNNを転意学習として用いている。まっさらな状態からCNNを作成することは、非常に多くの画像を必要とし、学習に使用できる学習コンテンツデータの数が限られている場合には現実的ではない。このため、本実施形態においては、AlexNetにおけるCNNのネットワークにおける層から、最後の全結合層を取り除いた部分までを、画像特徴抽出機能として用いている。
In this embodiment, the image
Further, in the present embodiment, the CNN having the image feature extraction function in the image
図2は、AlexNetにおけるCNNから画像特徴抽出機能を取得することを説明する概念図である。CNNは、複数の畳み込み層と最大プーリング層と正規化層とが繰り返され、最後に全結合層が複数個設けられた構成となっている。ここで、本実施形態においては、最初の段の全結合層(全結合層前段)までを、画像特徴量を抽出する画像特徴抽出器として使用している。一般的には、最後の全結合層のみを取り外して用いるが、より後段での情報量を低減させずに用いるために、最初の段の全結合層までを用いている。
そして、最初の段の全結合層の出力を、本実施形態における、後述するコンテンツ評価予測モデルである予測器(スパースモデリングなど)に接続する。
FIG. 2 is a conceptual diagram for explaining acquisition of an image feature extraction function from a CNN in AlexNet. The CNN has a configuration in which a plurality of convolution layers, a maximum pooling layer, and a normalization layer are repeated, and finally a plurality of all coupling layers are provided. Here, in the present embodiment, up to the first fully connected layer (preceding to the fully connected layer) is used as an image feature extractor that extracts image feature values. In general, only the last fully connected layer is removed and used. However, in order to use without reducing the amount of information in the later stage, the first fully connected layer is used.
Then, the output of the first fully connected layer is connected to a predictor (sparse modeling or the like) which is a content evaluation prediction model described later in the present embodiment.
図1に戻り、画像特徴抽出部121は、図2で示した他から転移した画像特徴抽出機能を有するCNNにより、学習用コンテンツの画像あるいは評価用コンテンツの画像から、それぞれの画像の特徴量を示す画像特徴ベクトルを抽出し、抽出特徴記憶部18に書き込んで記憶させる。このとき、画像特徴抽出部121は、所定時間(例えば、1秒)毎の画像特徴量ベクトルを、4096次元の各々の次元の特徴量を評価周期(例えば、1分)単位で平均し、最終的に、4096次元からなる画像特徴ベクトルとする。そして、画像特徴抽出部121は、求めた画像特徴ベクトルを評価周期の時間毎に、抽出特徴記憶部18に対して書き込んで記憶させる。
Returning to FIG. 1, the image
図3は、抽出特徴記憶部18に記憶されている画像特徴ベクトルテーブルの構成例を示す図である。画像特徴ベクトルテーブルは、コンテンツ毎に設けられている。各レコードに、時間(評価周期)毎に、コンテンツ名(本実施形態においては、例えば動画A)、時間、動画フレームの説明と、1次元からm次元(本実施形態においてはm=4096)の各々の特徴量が示され、レコード毎に画像特徴ベクトルが示されている。画像特徴ベクトルは、評価周期毎に、P1(X1_1,X2_1,…,Xm_1)、P2(X1_2,X2_2,…,Xm_2)、…として表される。X1_1,X2_1,…,Xm_1の各々が、各次元における画像の特徴量である。例えば、特徴量X1_1は、評価周期において得られた60個の特徴ベクトルの各々の4096次元における1次元目の特徴量の平均値である。
FIG. 3 is a diagram illustrating a configuration example of an image feature vector table stored in the extracted
図1に戻り、台詞特徴抽出部122は、画像とともに流れる音声の台詞のテキストデータを形態素解析し、得られたそれぞれの単語の特徴抽出を行なう。このとき、本実施形態においては、コンテンツの商品名など、複数の一般的な単語を連結して作成した造語など、必要以上に小さな単語に分割されたくない単語を、分解制限単語として、分解制限単語辞書記憶部17に予め書き込んで記憶させている(辞書登録してある)。
Returning to FIG. 1, the dialogue
したがって、台詞特徴抽出部122は、入力される形態素解析を行なう際、この辞書を参照して形態素解析を行ない、通常であれば分解する連結された単語でも、上記辞書に分解制限単語として登録されているものは、登録された構成を最も素な単語として取り扱い、それ以上の分割は行なわない。また、台詞特徴抽出部122は、Word2vecあるいはDoc2vecを用いて、形態素解析された単語の特徴量を示す台詞特徴ベクトルとして出力する。このとき、台詞特徴抽出部122は、評価周期(例えば、1分間)毎の台詞に含まれる全ての単語の各々の100次元の特徴ベクトルを抽出する。また、上記Word2vec及びDoc2vecではなく、教師無し学習を行なう単語の特徴抽出を行なうアルゴリズムであれば、他の手法を用いて単語の特徴抽出を行なっても良い。
Accordingly, the line
そして、台詞特徴抽出部122は、評価周期毎に、上記特徴ベクトルの100次元の各々の次元において、全ての単語ので最大の特徴量及び最小の特徴量の各々を抽出し、また、全ての単語の特徴量の平均値を算出する。例えば、全ての単語の特徴量ベクトルにおける100次元における1次元目の特徴量の中から、最大値と最小値とを抽出し、全ての単語の1次元目の特徴量を集約するとともに、1次元目の特徴量を2次元に拡張する。また、全ての単語の特徴量ベクトルにおける100次元における1次元目の特徴量の平均値を算出し、さらに1次元の拡張を行なう。この結果、特徴量の1次元が3次元に拡張される。
これにより、台詞特徴抽出部122は、100次元の各次元毎に、全ての単語における特徴量を、全単語の各次元の特徴量を集約し、かつ100次元の各々の特徴量を最大値、最小値及び平均値の3種類(3次元)に拡張したデータからなる、300次元の特徴量を有する台詞特徴ベクトルを、抽出特徴記憶部18に対して書き込んで記憶させる。
Then, the dialogue
Thereby, the line
図4は、抽出特徴記憶部18に記憶されている台詞特徴ベクトルテーブルの構成例を示す図である。台詞特徴ベクトルテーブルは、コンテンツ毎に設けられている。各レコードに、時間(評価周期)毎に、コンテンツ名(本実施形態においては、例えば動画A)、時間、シーンの台詞の説明と、1次元からn次元(本実施形態においてはn=300)の各々の特徴量が示され、レコード毎に台詞特徴ベクトルが示されている。台詞特徴ベクトルは、評価周期毎に、Q1(Y1_1,Y2_1,Y3_1,…,Ym_1)、Q2(Y1_2,Y2_2,…,Ym_2)、…として表される。ここで、台詞特徴ベクトルは、図3における画像特徴ベクトルに対応するフレームにおいて使用される台詞の特徴ベクトルである。Y1_1,Y2_1,Y3_1,…,Ym_1の各々が、各次元における台詞の特徴量である。ここで例えば、特徴量Y1_1は全単語の特徴ベクトルにおける1次元目の特徴量の最大値であり、特徴量T1_2は全単語の特徴ベクトルにおける1次元目の特徴量の最小値であり、特徴量Y1_3は全単語の特徴ベクトルにおける1次元目の特徴量の平均値である。
FIG. 4 is a diagram illustrating a configuration example of a dialogue feature vector table stored in the extracted
図1に戻り、アクセス数集積部13は、学習コンテンツの評価周期毎のアクセス数を、外部装置(オペレータの各々の入電を集計を行なうサーバなど)から入力し、評価周期に対応させて抽出特徴記憶部18に書き込んで記憶させる。
Returning to FIG. 1, the access
図5は、抽出特徴記憶部18に記憶されているアクセス数テーブルの構成例を示す図である。レコード単位に、時間(評価周期)と、評価周期におけるアクセス数である入電数が対応付けられている。
FIG. 5 is a diagram illustrating a configuration example of the access number table stored in the extracted
図1に戻り、予測モデル生成部14は、所定の重回帰モデルからなるコンテンツ評価予測モデルを、機械学習により求める。ここで、予測モデル生成部14は、上述した画像特徴ベクトルと台詞特徴ベクトルとを総合し、コンテンツ総合特徴ベクトルを生成する。コンテンツ総合特徴ベクトルは、4096次元の特徴量からなる画像特徴ベクトルと、300次元の特徴量からなる台詞特徴ベクトルとが総合され、4396次元の特徴量の次元を有するコンテンツ総合特徴ベクトルとなる。また、上記重回帰モデルの代わりに、重回帰(線形回帰)をニューラルネットワークで構成し、単純な線形回帰問題をこのニューラルネットワークに学習させるようにして、コンテンツ評価予測モデルを構成しても良い。
Returning to FIG. 1, the prediction
図6は、画像特徴ベクトルと台詞特徴ベクトルとをコンテンツ総合ベクトルとして総合する概念図である。画像特徴ベクトルのベクトル空間100(例えば、画像ベースのショッピング番組ベクター空間)と、台詞特徴ベクトルのベクトル空間102(例えば、シナリオベクター空間)とが総合され、コンテンツ評価予測モデルに対して入力するコンテンツ総合特徴ベクトルのベクトル空間104(例えば、総合特徴ベクター空間)が生成される。図6においては、ベクトル空間100、102及び104の各々は、3次元として示されているが、それぞれ4096次元、300次元、4396次元である。
例えば、画像特徴ベクトルのベクトル空間100においては、図3の画像特徴ベクトルテーブルにおけるコンテンツ名が動画Aであり、時間が00:01の特徴ベクトルが動画A_00:01と、時間が00:02の特徴ベクトルが動画A_00:02と表示されている。また、台詞特徴ベクトルのベクトル空間102においては、図4の台詞特徴ベクトルテーブルにおけるコンテンツ名が動画Aであり、時間が00:01の特徴ベクトルが台詞A_00:01と、時間が00:02の特徴ベクトルが台詞A_00:02と表示されている。
FIG. 6 is a conceptual diagram for integrating an image feature vector and a dialogue feature vector as a content total vector. Content vector vector 100 (for example, an image-based shopping program vector space) and dialogue feature vector vector space 102 (for example, a scenario vector space) are integrated, and the total content input to the content evaluation prediction model A feature vector space 104 (eg, a total feature vector space) is generated. In FIG. 6, each of the
For example, in the image feature
すなわち、予測モデル生成部14は、図3の画像特徴ベクトルテーブルと、図4の台詞特徴ベクトルテーブルと、図5に示すアクセス数テーブルを統合し、コンテンツ評価予測モデルを学習させる、学習コンテンツのデータ組を作成する。そして、予測モデル生成部14は、評価周期毎に学習コンテンツのデータ組を抽出特徴記憶部18に書き込んで記憶させる。
That is, the prediction
図7は、抽出特徴記憶部18に記憶されている学習コンテンツデータ組テーブルの構成例を示す図である。学習コンテンツデータ組テーブルは、レコード単位に、時間(評価周期)に対応させて、1次元からm次元(本実施形態においてはm=4096)の各々の画像特徴量と、m+1次元からm+n次元(本実施形態においてはn=300)の各々の台詞特徴量と、評価周期内における受電数とが学習コンテンツデータ組として示されている。ここで、各次元に対応する入電数は、視聴者が商品を紹介するコンテンツを視聴し、視聴者がその商品に対して興味を持ち、電話のある場所まで移動してコールセンターに電話をかけるまでの遅延時間を考慮し、予測する評価周期とその直後の評価周期における入電数を、予測する評価周期の画像及び台詞に対する評価(入電数)とする。すなわち、予測する評価周期と直後の評価周期との各々の入電数を加算し、学習コンテンツデータ組としている。したがって、後述するコンテンツ評価予測モデルは、予測する評価周期と直後の評価周期との各々の入電数を、予測入電数として予測する。
FIG. 7 is a diagram illustrating a configuration example of the learning content data set table stored in the extracted
図1に戻り、予測モデル生成部14は、コンテンツ評価予測モデルに対し、学習コンテンツデータ組テーブルの時間の順番に、時系列に、学習コンテンツデータ組におけるコンテンツ総合特徴ベクトルを順次入力させ、入力されるコンテンツ総合特徴ベクトルから予測される予測入電を出力する。このとき、予測モデル生成部14は、コンテンツの全ての評価周期における学習コンテンツデータ組において、出力される予測入電が、同一の評価周期における学習コンテンツデータ組における入電数に近づくように、コンテンツ評価予測モデルにおけるニューラルネットの結合層の重み付けを調整する。また、予測モデル生成部14は、上述した処理を、複数の学習コンテンツの学習コンテンツデータ組テーブルにおいても行なう。
Returning to FIG. 1, the prediction
このとき、回帰の問題として、複数のパラメータ(コンテンツ総合特徴ベクトル)から、一つのパラメータ(入電数)を予測することは重回帰モデルである。この重回帰モデル(コンテンツ評価予測モデル)において、予測に使用する次元数の2倍のデータ数が必要となる。しかしながら、本実施形態においては、コンテンツ総合特徴ベクトルの次元が4396あるため、単純に8792個のデータが必要であるが、データ(学習コンテンツデータ組)の数が不十分な場合あるいは計算を単純化する目的で、結合における係数の算出にスパースモデリングの手法を用いている。具体的には、LASSO(least absolute shrinkage and selection operator)と呼ばれるL1最小化のアルゴリズムを用いる。本実施形態においては、過学習を防止するため、10交差検定でパラメータを決定している。また、すでに述べたように、コンテンツ評価予測モデルを重回帰モデルでなく、ニューラルネットワークのモデルにて生成する場合も、同様の処理を行なうことができる。 At this time, as a problem of regression, predicting one parameter (number of incoming calls) from a plurality of parameters (content comprehensive feature vector) is a multiple regression model. In this multiple regression model (content evaluation prediction model), the number of data twice the number of dimensions used for prediction is required. However, in this embodiment, since the content comprehensive feature vector has a dimension of 4396, 8792 pieces of data are simply required. However, when the number of data (learning content data sets) is insufficient or the calculation is simplified. For this purpose, a sparse modeling technique is used to calculate the coefficient in the combination. Specifically, an L1 minimization algorithm called LASSO (least absolute shrinkage and selection operator) is used. In the present embodiment, parameters are determined by 10 cross-validation to prevent overlearning. Further, as described above, the same processing can be performed when the content evaluation prediction model is generated not by the multiple regression model but by a neural network model.
予測モデル生成部14は、コンテンツ評価予測モデルを構成する重回帰モデルにおける重み付けの回帰係数w(p)を、以下の(1)式により求める。以下の(1)式において、nは評価周期の順番を示す評価周期番号である。Nは、コンテンツにおける全評価周期数である。Znは、n番目の評価周期番号におけるアクセス数(入電数)である。w(p)は、コンテンツ総合特徴ベクトルにおけるp番目の特徴量のデータへの重み係数(回帰係数)である。xn(p)は、n番目の評価周期番号のコンテンツ総合特徴ベクトルにおけるp番目の特徴量のデータである。bは、切片のデータである。λは、正則化係数である。
The prediction
上述した(1)式において、xn(p)から予測入電数zを重回帰で推定するため、係数w(p)を決定する必要がある。このとき、(1)式において正規化項が1次で含まれているため、予測入電数zを推定するために必要のないxn(p)に対する係数w(p)が0とされる(すなわち、スパース化される)。これにより、学習コンテンツデータ組の数が上述した規則に対して少なくとも、予測入電数zを予測するコンテンツ評価予測モデルを生成することができる。 In the above equation (1), it is necessary to determine the coefficient w (p) in order to estimate the predicted incoming power number z from the x n (p) by multiple regression. At this time, since the normalized term is included in the first order in the equation (1), the coefficient w (p) for x n (p) that is not necessary for estimating the predicted incoming power z is set to 0 ( Ie sparse). This makes it possible to generate a content evaluation prediction model that predicts at least the predicted number of incoming calls z with respect to the rules described above for the number of learning content data sets.
アクセス数予測部15は、予測モデル生成部14が生成したコンテンツ評価予測モデルを用いて、評価対象のコンテンツである対象コンテンツの評価周期毎の予測入電数を求める。ここで、アクセス数予測部15は、対象コンテンツの評価周期毎の画像特徴ベクトルを画像特徴抽出部121に抽出させる。また、アクセス数予測部15は、対象コンテンツの評価周期毎の台詞特徴ベクトルを台詞特徴抽出部122に抽出させる。
The access
そして、アクセス数予測部15は、特徴抽出部12から供給される画像特徴ベクトルと台詞特徴ベクトルとの各々を統合して、コンテンツ総合特徴ベクトルを生成する。アクセス数予測部15は、コンテンツ評価予測モデルに対し、上記コンテンツ総合特徴ベクトルを、時系列に評価周期毎に入力し、予測入電数zを得る。
Then, the access
上述したように、本実施形態によれば、作成したコンテンツが視聴者からどの程度の評価を受けるかを、予測入電数により事前に得られるため、広告の番組制作にノウハウを有さない番組作成者であっても、視聴者の評価を考慮して作成することができる。
これにより、本実施形態によれば、番組作成者が(広告の番組制作にノウハウを有さない番組作成者であっても)、視聴者の評価を予測してコンテンツの作成が行えるため、視聴者の評価が全く不明な状態で、テレビショッピングの番組などで無駄に放映することが無くなる。
As described above, according to the present embodiment, how much evaluation the created content receives from the viewer can be obtained in advance by the predicted number of incoming calls, so that the program creation without know-how in advertising program production Even a viewer can be created in consideration of viewer evaluation.
As a result, according to the present embodiment, since the program creator (even a program creator who does not have know-how in advertising program production) can create a content by predicting the viewer's evaluation, The user's evaluation is completely unknown, and there is no useless broadcast on TV shopping programs.
また、本実施形態によれば、作成したコンテンツにおいて、所定の評価周期において期待した予測入電数が得られない場合、過去の事例を参考に作成した画像及び台詞に評価周期に対応する部分のコンテンツを入れ替えて、再度、コンテンツの評価が行えるため、広告番組の作成のノウハウを持たない番組制作者でも、予測入電数の増加に寄与できるコンテンツを容易に作成することができる。 Further, according to the present embodiment, in the created content, when the predicted number of incoming calls expected in a predetermined evaluation cycle cannot be obtained, the content of the portion corresponding to the evaluation cycle in the image and dialogue created with reference to past cases Since the content can be evaluated again, even a program producer who does not have the know-how of creating an advertising program can easily create content that can contribute to an increase in the predicted number of incoming calls.
次に、図8を用いて、本実施形態のコンテンツ評価予測システム1におけるコンテンツ評価予測モデルの生成の処理の流れを説明する。図8は、本実施形態のコンテンツ評価予測システム1におけるコンテンツ評価予測モデルの生成処理の動作例を示すフローチャートである。
Next, a flow of processing for generating a content evaluation prediction model in the content
ステップS1:
コンテンツデータ入力部11は、コンテンツ評価予測モデルを生成するための学習コンテンツのデータを外部装置から入力し、データベース16に対して書き込んで記憶させる。
Step S1:
The content
ステップS2:
台詞特徴抽出部122は、データベース16から学習コンテンツにおける評価周期単位でテキスト文章を、順次読み出す。そして、台詞特徴抽出部122は、評価周期内におけるテキスト文章から、すでに説明した辞書を参照しつつ、形態素解析を行なって単語の抽出を行なう。
Step S2:
The dialogue
ステップS3:
台詞特徴抽出部122は、Word2vecあるいはDoc2vecを用いて、抽出した単語毎に、100次元の特徴ベクトルを抽出する。そして、台詞特徴抽出部122は、全ての単語の特徴ベクトルにおける各次元における特徴量の最大値及び最小値を抽出する。また、台詞特徴抽出部122は、全ての単語の特徴ベクトルにおける各次元における特徴量の平均値を求める。これにより、台詞特徴抽出部122は、100次元の各次元において、評価周期の全単語の特徴量における最大値及び最小値と、全単語の特徴量の平均値とを有するため、300次元の特徴量を有する台詞特徴ベクトルを生成する。
そして、台詞特徴抽出部122は、生成した台詞特徴ベクトルを評価周期に対応させて、抽出特徴記憶部18の台詞特徴ベクトルテーブルに書き込んで記憶させる。
Step S3:
The dialogue
Then, the dialogue
ステップS4:
台詞特徴抽出部122は、学習コンテンツにおける全ての評価周期において、この学習コンテンツの評価周期毎の台詞特徴ベクトルの抽出が終了したか否かの判定を行なう。このとき、台詞特徴抽出部122は、学習コンテンツにおける全ての評価周期において、この学習コンテンツの評価周期毎の台詞特徴ベクトルの抽出が終了した場合、処理をステップS5へ進める。一方、台詞特徴抽出部122は、学習コンテンツにおける全ての評価周期において、この学習コンテンツの評価周期毎の台詞特徴ベクトルの抽出が終了していない場合、次の順番の評価周期に対応した部分の学習コンテンツからの台詞特徴ベクトルの抽出を行なうため、処理をステップS2へ進める。
Step S4:
The dialogue
ステップS5:
画像特徴抽出部121は、データベース16から学習コンテンツにおける評価周期単位で動画を、順次読み出す。テレビショッピングの場合、1秒間(所定周期)に30フレームの画像が用いられている。このため、画像特徴抽出部121は、例えば、1秒間における最初の1フレーム目をサンプリングとして読み出す。
そして、画像特徴抽出部121は、他のCNNから転移させたCNNで構成された特徴抽出機能により、サンプリングした画像から、この画像の画像特徴ベクトルを抽出する。
Step S5:
The image
Then, the image
ステップS6:
画像特徴抽出部121は、評価周期(1分)内における所定周期(1秒)の画像特徴ベクトル(60秒分の特徴ベクトル)を抽出したか(抽出が終了したか)否かの判定を行なう。このとき、画像特徴抽出部121は、評価周期内における所定周期の画像特徴ベクトルを抽出した場合、処理をステップS7へ進める。一方、画像特徴抽出部121は、評価周期内における所定周期の画像特徴ベクトルを抽出していない場合、処理をステップS5へ進める。
Step S6:
The image
ステップS7:
画像特徴抽出部121は、上記60秒分、すなわち60個の画像特徴ベクトルの4096次元の次元毎に特徴量の平均値を算出し、この次元それぞれの平均値からなる画像特徴ベクトルを、評価周期における画像特徴量ベクトルとして求める。そして、台詞特徴抽出部122は、求めた画像特徴ベクトルを評価周期に対応させて、抽出特徴記憶部18の画像特徴ベクトルテーブルに書き込んで記憶させる。
Step S7:
The image
ステップS8:
画像特徴抽出部121は、学習コンテンツにおける全ての評価周期において、この学習コンテンツの評価周期毎の画像特徴ベクトルの抽出が終了したか否かの判定を行なう。このとき、画像特徴抽出部121は、学習コンテンツにおける全ての評価周期において、この学習コンテンツの評価周期毎の画像特徴ベクトルの抽出が終了した場合、処理をステップS9へ進める。一方、画像特徴抽出部121は、学習コンテンツにおける全ての評価周期において、この学習コンテンツの評価周期毎の画像特徴ベクトルの抽出が終了していない場合、次の順番の評価周期に対応した部分の学習コンテンツからの画像特徴ベクトルの抽出を行なうため、処理をステップS5へ進める。
Step S8:
The image
ステップS9:
アクセス数集積部13は、学習コンテンツの評価周期毎のアクセス数を、外部装置から入力し、評価周期に対応させて抽出特徴記憶部18のアクセス数テーブルに書き込んで記憶させる。
次に、予測モデル生成部14は、重回帰モデルであるコンテンツ評価予測モデルの生成に使用する学習コンテンツデータ組を作成する。このとき、予測モデル生成部14は、抽出特徴記憶部18から、画像特徴ベクトルテーブルと、台詞特徴ベクトルテーブルと、アクセス数テーブルとを読み出し、それぞれを統合して学習コンテンツデータ組テーブルを構成して、抽出特徴記憶部18に書き込んで記憶させる。
Step S9:
The access
Next, the prediction
ステップS10:
予測モデル生成部14は、抽出特徴記憶部18の学習コンテンツデータ組テーブルを参照し、学習コンテンツデータ組のコンテンツ総合特徴ベクトルを重回帰モデルに入力し、出力される予測入電数が学習コンテンツデータ組テーブルにおける入電数に近づくように、重回帰モデルの回帰係数を調整する処理を行なう。このとき、予測モデル生成部14は、LASSOと呼ばれるL1最小化のアルゴリズムを用いた機械学習により、重回帰モデルの各特徴量に対する回帰係数のスパース化を行ない、重回帰モデルに基づく調整コンテンツ評価予測モデルを生成する。また、予測モデル生成部14は、生成したコンテンツ評価予測モデルを、抽出特徴記憶部18に書き込んで記憶させる。
Step S10:
The prediction
上述した処理により、コンテンツ評価予測モデルを生成し、アクセス数予測部15は、このコンテンツ評価予測モデルを用い、評価対象の対象コンテンツの視聴者の評価としての予測受電数を求める。
すなわち、アクセス数予測部15は、抽出特徴記憶部18からコンテンツ評価予測モデルを読み出す。そして、アクセス数予測部15は、コンテンツ評価予測モデルに対し、対象コンテンツの評価周期毎の画像特徴ベクトル及び台詞特徴ベクトルから生成したコンテンツ総合特徴ベクトルを入力させ、評価周期毎の予測入電数を得る。
そして、アクセス数予測部15は、求めた予測入電数を、評価した対象コンテンツを識別する情報を付加し、評価周期の各々と、この評価周期に対応する予測入電数との組を、この対象コンテンツの評価結果として、評価結果記憶部19に書き込んで記憶させる。
Through the above-described processing, a content evaluation prediction model is generated, and the access
That is, the access
Then, the number-of-
図9は、本実施形態におけるコンテンツ評価予測モデルで予測した、商品の広告である対象コンテンツの各評価周期の予測入電数と、実際に得られた入電数との比較を示すグラフである。図9のグラフにおいて、横軸が時間(評価周期(1分))を示し、縦軸が予測入電数及び入電数(発呼数)を示している。このグラフは、複数のコンテンツの予測入電数と実際の入電数とを連結して生成している。
また、このグラフにおいては、予測入電数が破線、実際の入電数が実線で示されている。図9のグラフにおける予測入電数と実際の入電数との誤差(RSME:root mean squared error)は、全ての評価周期の平均値として±1.0の範囲となっている。
FIG. 9 is a graph showing a comparison between the predicted number of incoming calls in each evaluation period of the target content that is the advertisement of the product predicted by the content evaluation prediction model in the present embodiment and the actually obtained number of incoming calls. In the graph of FIG. 9, the horizontal axis indicates time (evaluation cycle (1 minute)), and the vertical axis indicates the predicted number of incoming calls and the number of incoming calls (number of calls). This graph is generated by connecting the predicted number of incoming calls and the actual number of incoming calls of a plurality of contents.
Further, in this graph, the predicted number of incoming calls is indicated by a broken line, and the actual number of incoming calls is indicated by a solid line. The error (RSME: root mean squared error) between the predicted number of incoming calls and the actual number of incoming calls in the graph of FIG. 9 is in the range of ± 1.0 as an average value of all evaluation periods.
図10は、図9において連結されたコンテンツから選択した、対象コンテンツの各評価周期の予測入電数と、実際に得られた入電数との比較を示すグラフである。図10(a)は、テレビショッピングにおける商品Aの広告を行なった対象コンテンツである。図10(b)は、テレビショッピングにおける商品Bの広告を行なった対象コンテンツである。
図10(a)及び図10(b)の各々において、横軸は時間(評価周期(1分))を示し、縦軸が予測入電数及び入電数(発呼数)を示している。また、図10(a)及び図10(b)ともに、コンテンツの長さは30分である。また、この図10(a)及び図10(b)のグラフにおいては、予測入電数が破線、実際の入電数が実線で示されている。
FIG. 10 is a graph showing a comparison between the predicted number of incoming calls for each evaluation period of the target content selected from the linked content in FIG. 9 and the number of incoming calls actually obtained. FIG. 10A shows the target content for which the product A is advertised in the television shopping. FIG. 10B shows target content for which the product B is advertised in the television shopping.
In each of FIG. 10A and FIG. 10B, the horizontal axis indicates time (evaluation cycle (1 minute)), and the vertical axis indicates the predicted number of incoming calls and the number of incoming calls (number of calls). Also, in both FIG. 10A and FIG. 10B, the content length is 30 minutes. Further, in the graphs of FIGS. 10A and 10B, the predicted number of incoming calls is indicated by a broken line, and the actual number of incoming calls is indicated by a solid line.
図10(a)における商品Aの測入電数と実際の入電数との誤差(RSME)は、30分における全ての評価周期の平均値として0.96477となっている。また、図10(b)における商品Bの測入電数と実際の入電数との誤差(RSME)は、30分における全ての評価周期の平均値として0.77674となっている。
この結果から、本実施形態によるコンテンツ評価予測モデルが予測する予測入電数は、実際にコンテンツを視聴した視聴者の評価を示す入電数とほぼ同様の数値(入電数の変化の傾向も同様)が得られることが判る。
The error (RSME) between the measured power input number and the actual power input number of the product A in FIG. 10A is 0.96477 as an average value of all evaluation periods in 30 minutes. In addition, the error (RSME) between the measured power input number and the actual power input number of the product B in FIG. 10B is 0.77674 as an average value of all evaluation periods in 30 minutes.
From this result, the predicted number of incoming calls predicted by the content evaluation prediction model according to the present embodiment is almost the same as the number of incoming calls indicating the evaluation of the viewer who actually viewed the content (the change tendency of the number of incoming calls is also the same). It turns out that it is obtained.
したがって、本実施形態によれば、新たに作成しているコンテンツを対象コンテンツとして、コンテンツ評価予測モデルにより、各評価周期の予測入電数を求めることで、広告のコンテンツを複数に分割して評価することが可能となり、コンテンツにおける広告する商品を紹介する部分(評価周期)と、視聴者の商品の購買意欲を向上させる部分(評価周期)とを、切り分けて評価することができ、視聴者の評価における商品の紹介を行なう部分と購買意欲を向上させる部分の両者の関係性も推定できる。
また、本実施形態によれば、新たに作成しているコンテンツにおいて、入電数を増加させるように、視聴者に対してインパクトを与えて作成した評価周期における予測入電数が、期待したほど増加しない場合、コンテンツにおけるこの評価周期における画像及び台詞を他と変え、放映前に再度試すことができ、予測入電数の増加に寄与できるコンテンツを作成する作業を支援することができる。
Therefore, according to the present embodiment, the newly created content is the target content, and the content of the advertisement is divided into a plurality of parts and evaluated by obtaining the predicted number of incoming calls in each evaluation cycle by the content evaluation prediction model. It is possible to separate and evaluate the part that introduces the product to be advertised in the content (evaluation cycle) and the part that improves the viewer's willingness to purchase the product (evaluation cycle). It is also possible to estimate the relationship between the part that introduces products and the part that improves purchase motivation.
In addition, according to the present embodiment, in the newly created content, the predicted number of incoming calls in the evaluation cycle created by giving an impact to the viewer does not increase as expected in order to increase the number of incoming calls. In this case, it is possible to change the image and dialogue in this evaluation period in the content and try again before the broadcast, and support the work of creating content that can contribute to an increase in the predicted number of incoming calls.
上記実施形態においては、コンテンツとしてテレビショッピングであり、コンテンツ評価予測モデルに入力するコンテンツの特徴として画像特徴と台詞特徴とであった。しかしながら、コンテンツがラジオなどによる商品の広告である場合、台詞特徴の他に、台詞を話す話者の音声の周波数や強度(音声信号の振幅値)などの特徴を抽出し、コンテンツ評価予測モデルに入力する構成としても良い。
また、テレビショッピングにおいて動画でなく、静止画が時系列に変化するコンテンツに対しても、同様に画像特徴を抽出して用いても良い。
In the above-described embodiment, the content is TV shopping, and the feature of the content input to the content evaluation prediction model is the image feature and the dialogue feature. However, if the content is an advertisement for a product such as a radio, in addition to the dialogue features, features such as speech frequency and intensity (speech signal amplitude value) of the speaker who speaks dialogue are extracted and used as a content evaluation prediction model. An input configuration may be used.
Further, image features may be extracted and used in the same manner for content in which still images change in time series instead of moving images in television shopping.
また、上記実施形態においては、台詞における単語の特徴量として、Word2vecあるいはDoc2vecにより単語から抽出された特徴量を用いている。しかしながら、評価周期内において時系列に与えられる単語を、それぞれの単語の時系列な配置における長期依存(long-term dependencies)を学習するため、RNN(recurrent neural network、過去の情報を考慮して未来のことを予測するニューラルネットワーク)の発展型であるLSTM(long short-term memory)を用いても良い。 Further, in the above embodiment, feature quantities extracted from words by Word2vec or Doc2vec are used as feature quantities of words in the dialogue. However, in order to learn the long-term dependencies of the words given in time series within the evaluation period in the time-series arrangement of each word, the future takes into account recurrent neural network, past information LSTM (long short-term memory), which is an advanced type of a neural network that predicts the above, may be used.
この構成の場合、上述したWord2vecあるいはDoc2vecにより単語から抽出された特徴量の特徴ベクトルをLSTMに入力し、各特徴ベクトルに対して単語の時系列における並びを考慮した配列特徴ベクトル(単語の特徴ベクトルとは異なる時系列における順方向及び逆方向のベクトル)を求める。これにより、単語の特徴ベクトルではパラメータとして反映されなかった、各単語の文脈における配置を反映させることができ、より精度の高いコンテンツにおける台詞の評価に対する寄与を予測することができる。 In the case of this configuration, feature vectors extracted from words by Word2vec or Doc2vec described above are input to the LSTM, and for each feature vector, an array feature vector (word feature vector) that considers the time-series arrangement of words. Forward and backward vectors in a different time series). Thereby, the arrangement in the context of each word, which is not reflected as a parameter in the word feature vector, can be reflected, and the contribution to the evaluation of the dialogue in the content with higher accuracy can be predicted.
そして、LSTMから単語毎に出力される上記配列ベクトルの各々に対し、台詞の時系列な単語の配置(単語の並び:台詞の文脈)に対応した重要度(Attention)を算出する。すなわち、配列ベクトルの重要度を算出することにより、いずれの配列ベクトルが予測入電数(アクセス数)を予測するために重要かを求める。そして、この重要度に基づいて予測入電数を予測するコンテンツ評価予測モデルにおいて、配列ベクトルの加重平均を算出することにより、予測入電数を予測する。
また、本実施形態においては、視聴者からの評価を示す反応(アクセス数)として、電話による入電数を用いたが、これにファックスを受け取った受け取り数、あるいはウェブブラウザ(インターネットブラウザ)における商品が選択されたクリックの回数などを、利用者の評価の反応として用いても良い。
Then, for each of the array vectors output for each word from the LSTM, an importance level (Attention) corresponding to the time-series word arrangement (word arrangement: line context) is calculated. That is, by calculating the importance of the array vector, it is determined which array vector is important for predicting the predicted number of incoming calls (number of accesses). Then, in the content evaluation prediction model that predicts the predicted number of incoming calls based on this importance, the predicted number of incoming calls is predicted by calculating a weighted average of the array vectors.
In this embodiment, the number of incoming calls by telephone is used as the reaction (number of accesses) indicating the evaluation from the viewer, but the number of received faxes or the product in the web browser (Internet browser) The number of clicks selected may be used as a user evaluation reaction.
また、図1に示すコンテンツ評価予測システムにおける入力されるコンテンツの情報の特徴ベクトルからアクセス数を予測する機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、コンテンツの情報の特徴ベクトルからアクセス数を予測する処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。 Further, a program for realizing the function of predicting the number of accesses from the feature vector of the input content information in the content evaluation prediction system shown in FIG. 1 is recorded on a computer-readable recording medium and recorded on this recording medium. The number of accesses may be predicted from the feature vector of the content information by causing the computer system to read and execute the program. Here, the “computer system” includes an OS and hardware such as peripheral devices.
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes design and the like within a scope not departing from the gist of the present invention.
1…コンテンツ評価予測システム
11…コンテンツデータ入力部
12…特徴抽出部
13…アクセス数集積部
14…予測モデル生成部
15…アクセス数予測部
16…データベース
17…分解制限単語辞書記憶部
18…抽出特徴記憶部
19…評価結果記憶部
DESCRIPTION OF
Claims (6)
前記情報特徴と、前記所定の周期及び当該所定の周期の直後の周期の各々におけるコンテンツの評価値としてのアクセス数の加算値とを用いた機械学習により、前記情報に対応する情報特徴を入力することにより、当該情報特徴に対するアクセス数を予測するコンテンツ評価予測モデルを生成する予測モデル生成部と
を備えることを特徴とするコンテンツ評価予測システム。 A feature extraction unit for extracting information features, which are features of the information of content whose information changes in time series, at predetermined intervals;
Said information feature, by machine learning using the sum of the number of access as the evaluation value of the content in each of the periods just after the predetermined period and the predetermined period, and inputs the information features corresponding to the information Thus, a content evaluation prediction system comprising: a prediction model generation unit that generates a content evaluation prediction model for predicting the number of accesses to the information feature.
ことを特徴とする請求項1に記載のコンテンツ評価予測システム。 The content evaluation prediction system according to claim 1, wherein the information includes at least one of a moving image and a dialogue.
前記動画像の特徴抽出を行なう際、画像特徴抽出の学習後の他の畳み込みニューラルネットワーク(CNN)における全結合層前段までの特徴抽出機能を用いている
ことを特徴とする請求項2に記載のコンテンツ評価予測システム。 The feature extraction unit
The feature extraction function up to the first stage of all connected layers in another convolutional neural network (CNN) after learning of image feature extraction is used when performing feature extraction of the moving image. Content evaluation prediction system.
前記台詞の特徴抽出を行なう際、形態素解析において分解を制限する単語である分解制限単語を辞書に登録し、当該辞書を参照して形態素解析を行なう
ことを特徴とする請求項2または請求項3に記載のコンテンツ評価予測システム。 The feature extraction unit
4. The feature extraction of the dialogue is performed by registering a decomposition restriction word, which is a word that restricts decomposition in morpheme analysis, in a dictionary, and performing morpheme analysis with reference to the dictionary. The content evaluation prediction system described in 1.
前記コンテンツ評価予測モデルを生成する際、スパースモデリング法を用いる
ことを特徴とする請求項1から請求項4のいずれか一項に記載のコンテンツ評価予測システム。 The prediction model generation unit
The content evaluation prediction system according to any one of claims 1 to 4, wherein a sparse modeling method is used when generating the content evaluation prediction model.
予測モデル生成部が、前記情報特徴と、前記所定の周期及び当該所定の周期の直後の周期の各々におけるコンテンツの評価値としてのアクセス数の加算値とを用いた機械学習により、前記情報に対応する情報特徴を入力することにより、当該情報特徴に対するアクセス数を予測するコンテンツ評価予測モデルを生成する予測モデル生成過程と
を含むことを特徴とするコンテンツ評価予測方法。 A feature extraction process in which a feature extraction unit extracts an information feature, which is a feature of the information of content whose information changes in time series, at predetermined intervals;
Prediction model generation unit, and the information characteristic, the machine learning using the sum of the number of access as the evaluation value of the content in each of the periods just after the predetermined period and the predetermined period, corresponding to the information And a prediction model generation process for generating a content evaluation prediction model for predicting the number of accesses to the information feature by inputting the information feature.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017037525A JP6623186B2 (en) | 2017-02-28 | 2017-02-28 | Content evaluation prediction system and content evaluation prediction method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017037525A JP6623186B2 (en) | 2017-02-28 | 2017-02-28 | Content evaluation prediction system and content evaluation prediction method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018142272A JP2018142272A (en) | 2018-09-13 |
JP6623186B2 true JP6623186B2 (en) | 2019-12-18 |
Family
ID=63526695
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017037525A Active JP6623186B2 (en) | 2017-02-28 | 2017-02-28 | Content evaluation prediction system and content evaluation prediction method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6623186B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112258254A (en) * | 2020-12-21 | 2021-01-22 | 中国人民解放军国防科技大学 | Internet advertisement risk monitoring method and system based on big data architecture |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7249580B2 (en) * | 2019-02-28 | 2023-03-31 | 富士通株式会社 | Application method, application program and application device |
JP7293729B2 (en) * | 2019-03-01 | 2023-06-20 | 富士フイルムビジネスイノベーション株式会社 | LEARNING DEVICE, INFORMATION OUTPUT DEVICE, AND PROGRAM |
CN110059716B (en) * | 2019-03-12 | 2023-06-02 | 西北大学 | Construction of CNN-LSTM-SVM network model and MOOC conjugate prediction method |
CN110232437B (en) * | 2019-05-30 | 2021-11-16 | 湖南大学 | CNN-based time series prediction method and model determination method |
CN111651444B (en) * | 2020-05-25 | 2023-04-18 | 成都千嘉科技股份有限公司 | Self-adaptive time series data prediction method |
CN113052558B (en) * | 2021-03-30 | 2023-05-30 | 浙江畅尔智能装备股份有限公司 | Automatic counting system and automatic counting method for power transmission tower part machining |
CN114049519A (en) * | 2021-11-17 | 2022-02-15 | 江西航天鄱湖云科技有限公司 | Optical remote sensing image scene classification method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001188788A (en) * | 1999-12-28 | 2001-07-10 | Sony Corp | Device and method for processing conversation and recording medium |
JP6058571B2 (en) * | 2014-03-03 | 2017-01-11 | 東京瓦斯株式会社 | Necessary personnel number calculation device, necessary personnel number calculation method and program |
-
2017
- 2017-02-28 JP JP2017037525A patent/JP6623186B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112258254A (en) * | 2020-12-21 | 2021-01-22 | 中国人民解放军国防科技大学 | Internet advertisement risk monitoring method and system based on big data architecture |
Also Published As
Publication number | Publication date |
---|---|
JP2018142272A (en) | 2018-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6623186B2 (en) | Content evaluation prediction system and content evaluation prediction method | |
CN111339415B (en) | Click rate prediction method and device based on multi-interactive attention network | |
CN110162698B (en) | User portrait data processing method, device and storage medium | |
JP7325156B2 (en) | Improving search queries with contextual analysis | |
CN110489574B (en) | Multimedia information recommendation method and device and related equipment | |
CN110046301B (en) | Object recommendation method and device | |
CN117235586B (en) | Hotel customer portrait construction method, system, electronic equipment and storage medium | |
CN111970536B (en) | Method and device for generating video based on audio | |
CN111159563A (en) | Method, device and equipment for determining user interest point information and storage medium | |
CN107506479B (en) | A kind of object recommendation method and apparatus | |
CN114357201B (en) | Audio-visual recommendation method and system based on information perception | |
CN110717788A (en) | Target user screening method and device | |
JP2024508502A (en) | Methods and devices for pushing information | |
CN114445121A (en) | Advertisement click rate prediction model construction and advertisement click rate prediction method | |
CN113204699B (en) | Information recommendation method and device, electronic equipment and storage medium | |
US20160148223A1 (en) | Forecasting web metrics using statistical causality based feature selection | |
CN113836388A (en) | Information recommendation method and device, server and storage medium | |
CN110971973A (en) | Video pushing method and device and electronic equipment | |
CN113742562B (en) | Video recommendation method and device, electronic equipment and storage medium | |
CN113934870B (en) | Training method, device and server of multimedia recommendation model | |
CN114493674A (en) | Advertisement click rate prediction model and method | |
CN114819000B (en) | Feedback information estimation model training method and device and electronic equipment | |
CN111915339A (en) | Data processing method, device and equipment | |
CN116911955B (en) | Training method and device for target recommendation model | |
CN110674344B (en) | Method, device, equipment and storage medium for generating model and recommending film |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170501 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190130 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190130 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190201 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190423 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190604 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190726 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191029 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191125 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6623186 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313115 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |