JP2018142272A - コンテンツ評価予測システム及びコンテンツ評価予測方法 - Google Patents

コンテンツ評価予測システム及びコンテンツ評価予測方法 Download PDF

Info

Publication number
JP2018142272A
JP2018142272A JP2017037525A JP2017037525A JP2018142272A JP 2018142272 A JP2018142272 A JP 2018142272A JP 2017037525 A JP2017037525 A JP 2017037525A JP 2017037525 A JP2017037525 A JP 2017037525A JP 2018142272 A JP2018142272 A JP 2018142272A
Authority
JP
Japan
Prior art keywords
content
feature
evaluation
information
prediction model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017037525A
Other languages
English (en)
Other versions
JP6623186B2 (ja
Inventor
矢野 亮
Akira Yano
亮 矢野
直哉 前田
Naoya Maeda
直哉 前田
理沙 松元
Risa Matsumoto
理沙 松元
拓也 茨木
Takuya IBARAKI
拓也 茨木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Data Institute of Management Consulting Inc
NTT Data Group Corp
Original Assignee
NTT Data Corp
NTT Data Institute of Management Consulting Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Data Corp, NTT Data Institute of Management Consulting Inc filed Critical NTT Data Corp
Priority to JP2017037525A priority Critical patent/JP6623186B2/ja
Publication of JP2018142272A publication Critical patent/JP2018142272A/ja
Application granted granted Critical
Publication of JP6623186B2 publication Critical patent/JP6623186B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】コンテンツを制作する番組制作者に対し、作成したコンテンツに対するアクセス数の予測値を供給することで、ノウハウの蓄積量によらずにコンテンツの制作を可能とするコンテンツ評価予測システムを提供することを目的とする。【解決手段】本発明は、時系列に情報が変化するコンテンツの情報の特徴である情報特徴を所定の周期毎に抽出する特徴抽出部と、情報特徴と所定の周期毎におけるコンテンツの評価値としてのアクセス数とを用いた機械学習により、情報に対応する情報特徴を入力することにより、当該情報特徴に対するアクセス数を予測するコンテンツ評価予測モデルを生成する予測モデル生成部とを備える。【選択図】図1

Description

本発明は、コンテンツを視聴した視聴者のコンテンツに対する評価を予測するコンテンツ評価予測システム及びコンテンツ評価予測方法に関する。
近年、テレビジョン、ラジオあるいはインターネットなどの通信媒体により、画像及び音声からなる通信販売における商品の広告のコンテンツの配信が行なわれている。(例えば、特許文献1参照)
このテレビショッピングを用いて、商品の通信販売を行なう際、番組制作者(ディレクタ)が過去の経験を元に視聴者に対して購買意欲を生じさせる番組を、創造的な視点で行なっている。
視聴者のコンテンツに対する反応は、広告の視聴者への通知後における電話やファックスによる問い合わせ数、あるいはウェブ(Web)ブラウザにおけるクリック数である。番組制作者は、この問い合わせあるいはクリックの数(アクセス数)により、制作した番組が商品の販売に対して効果があったか否かの判定を行なう。これにより、番組制作者は、番組制作の経験を積み、どのような番組構成とすれば商品販売に繋がるアクセス数が増加するかを、ノウハウとして蓄積していく。
特開2009−139977号公報
しかしながら、番組制作者においても、広告のコンテンツを作成する場合に、ノウハウに基づいて作成しても、アクセス数がコンテンツの全体的な評価となり、コンテンツのいずれの部分が販売に寄与しているかを認識することはできない。このため、コンテンツの視聴者による評価は、コンテンツ毎に異なり、常に高くアクセスが得られるとは限らない。
また、広告のコンテンツを初めて作成する番組制作者にとっては、自身の作成する広告のコンテンツが、どの程度の視聴者から、商品に対するアクセスを得られるかは全く判らない。
本発明は、このような事情に鑑みてなされたもので、コンテンツを制作する番組制作者に対し、作成したコンテンツに対するアクセス数の予測値を供給することで、ノウハウの蓄積量によらずにコンテンツの制作を可能とするコンテンツ評価予測システム及びコンテンツ評価予測方法を提供することを目的とする。
この発明は上述した課題を解決するためになされたもので、本発明のコンテンツ評価予測システムは、時系列に情報が変化するコンテンツの前記情報の特徴である情報特徴を所定の周期毎に抽出する特徴抽出部と、前記情報特徴と前記所定の周期毎におけるコンテンツの評価値としてのアクセス数とを用いた機械学習により、前記情報に対応する情報特徴を入力することにより、当該情報特徴に対するアクセス数を予測するコンテンツ評価予測モデルを生成する予測モデル生成部とを備えることを特徴とする。
本発明のコンテンツ評価予測システムは、前記情報が少なくとも動画像及び台詞のいずれかを含んでいることを特徴とする。
本発明のコンテンツ評価予測システムは、前記特徴抽出部が、前記動画像の特徴抽出を行なう際、画像特徴抽出の学習後の他の畳み込みニューラルネットワーク(CNN)における全結合層前段までの特徴抽出機能を用いていることを特徴とする。
本発明のコンテンツ評価予測システムは、前記特徴抽出部が、前記台詞の特徴抽出を行なう際、形態素解析において分解を制限する単語である分解制限単語を辞書に登録し、当該辞書を参照して形態素解析を行なうことを特徴とする。
本発明のコンテンツ評価予測システムは、前記予測モデル生成部が、前記予測モデルを生成する際、スパースモデリング法を用いることを特徴とする。
本発明のコンテンツ評価予測方法は、特徴抽出部が、時系列に情報が変化するコンテンツの前記情報の特徴である情報特徴を所定の周期毎に抽出する特徴抽出過程と、予測モデル生成部が、前記情報特徴と前記所定の周期毎におけるコンテンツの評価値としてのアクセス数とを用いた機械学習により、前記情報に対応する情報特徴を入力することにより、当該情報特徴に対するアクセス数を予測するコンテンツ評価予測モデルを生成する予測モデル生成過程とを含むことを特徴とする。
この発明によれば、コンテンツを制作する番組制作者に対し、作成したコンテンツに対するアクセス数の予測値を供給することで、ノウハウの蓄積量によらずにコンテンツの制作を可能とするコンテンツ評価予測システム及びコンテンツ評価予測方法を提供することができる。
本発明の一実施形態によるコンテンツ評価予測システムの構成例を示す図である。 AlexNetにおけるCNNから画像特徴抽出機能を取得することを説明する概念図である。 抽出特徴記憶部18に記憶されている画像特徴ベクトルテーブルの構成例を示す図である。 抽出特徴記憶部18に記憶されている台詞特徴ベクトルテーブルの構成例を示す図である。 抽出特徴記憶部18に記憶されているアクセス数テーブルの構成例を示す図である。 画像特徴ベクトルと台詞特徴ベクトルとをコンテンツ総合ベクトルとして統合する概念図である。 抽出特徴記憶部18に記憶されている学習コンテンツデータ組テーブルの構成例を示す図である。 本実施形態のコンテンツ評価予測システム1におけるコンテンツ評価予測モデルの生成処理の動作例を示すフローチャートである。 本実施形態におけるコンテンツ評価予測モデルで予測した、商品の広告である対象コンテンツの各評価周期の予測入電数と、実際に得られた入電数との比較を示すグラフである。 図9において連結されたコンテンツから選択した、対象コンテンツの各評価周期の予測入電数と、実際に得られた入電数との比較を示すグラフである。
以下、図面を参照して、本発明の一実施形態について説明する。図1は、本発明の一実施形態によるコンテンツ評価予測システムの構成例を示す図である。図1において、本実施形態におけるコンテンツ評価予測システム1は、コンテンツデータ入力部11、特徴抽出部12、アクセス数集積部13、予測モデル生成部14、アクセス数予測部15、データベース16、分解制限単語辞書記憶部17、抽出特徴記憶部18及び評価結果記憶部19の各々を備えている。
コンテンツデータ入力部11は、後述するコンテンツ評価予測モデルを生成する際に用いる学習コンテンツのデータ、コンテンツを評価する評価値としてのアクセス数を予測する対象コンテンツのデータを読み込み、データベース16に対して書き込んで記憶する。ここで、アクセス数とは、コンテンツがテレビショッピングなどで通信販売を行なっている商品の広告の動画像である場合、評価周期毎(例えば、1分毎)における、コンテンツを視聴している視聴者から、商品を販売している会社のコールセンターに対して発呼された電話の数としての入電数である。入電数が多いほど、コンテンツを視聴して、商品に対して興味を有した視聴者が多いため、コンテンツの商品の販売に寄与した度合いが高い。以下、本実施形態においては、アクセス数を視聴者からの電話の入電数として説明する。
特徴抽出部12は、コンテンツの時系列に変化する情報(上記動画、台詞など)から、上記評価周期毎の特徴(情報特徴)を抽出する。本実施形態においては、コンテンツは、動画像として説明するため、画像と台詞との各々から、それぞれ画像特徴、台詞特徴を抽出する。
そのため、特徴抽出部12は、画像特徴を抽出する画像特徴抽出部121と、台詞特徴を抽出する台詞特徴抽出部122とを備えている。
画像特徴抽出部121は、ディープラーニングを用いた機械学習により学習されたCNN(Convolutional Neural Network、畳み込みニューラルネットワーク)などで形成され、画像の特徴を抽出する画像特徴抽出機能を有しており、入力された画像に対応した所定の次元数の画像の特徴ベクトル(画像特徴ベクトル)を抽出する。
本実施形態においては、コンテンツの動画から、1秒ごとにシーンをサンプリングし、シーンのピクセルを格子状に227×227個のブロックに分割し、ブロック毎にピクセルにおけるRGBの階調度の平均を算出した数値を、特徴を抽出するためのデータ列として用いる。227×227=51529となり、51529ブロックに対して、RGB毎の3つのデータがあるため、入力される画像のデータ列は、154587のデータから構成されている。
画像特徴抽出部121は、本実施形態において、上述した154587のデータ列から、4096次元の画像特徴からなる画像特徴ベクトルを抽出する。
また、本実施形態においては、この画像特徴抽出部121における画像特徴抽出機能を有するCNNを、画像特徴量抽出の学習後の他のCNNを転意学習として用いている。まっさらな状態からCNNを作成することは、非常に多くの画像を必要とし、学習に使用できる学習コンテンツデータの数が限られている場合には現実的ではない。このため、本実施形態においては、AlexNetにおけるCNNのネットワークにおける層から、最後の全結合層を取り除いた部分までを、画像特徴抽出機能として用いている。
図2は、AlexNetにおけるCNNから画像特徴抽出機能を取得することを説明する概念図である。CNNは、複数の畳み込み層と最大プーリング層と正規化層とが繰り返され、最後に全結合層が複数個設けられた構成となっている。ここで、本実施形態においては、最初の段の全結合層(全結合層前段)までを、画像特徴量を抽出する画像特徴抽出器として使用している。一般的には、最後の全結合層のみを取り外して用いるが、より後段での情報量を低減させずに用いるために、最初の段の全結合層までを用いている。
そして、最初の段の全結合層の出力を、本実施形態における、後述するコンテンツ評価予測モデルである予測器(スパースモデリングなど)に接続する。
図1に戻り、画像特徴抽出部121は、図2で示した他から転移した画像特徴抽出機能を有するCNNにより、学習用コンテンツの画像あるいは評価用コンテンツの画像から、それぞれの画像の特徴量を示す画像特徴ベクトルを抽出し、抽出特徴記憶部18に書き込んで記憶させる。このとき、画像特徴抽出部121は、所定時間(例えば、1秒)毎の画像特徴量ベクトルを、4096次元の各々の次元の特徴量を評価周期(例えば、1分)単位で平均し、最終的に、4096次元からなる画像特徴ベクトルとする。そして、画像特徴抽出部121は、求めた画像特徴ベクトルを評価周期の時間毎に、抽出特徴記憶部18に対して書き込んで記憶させる。
図3は、抽出特徴記憶部18に記憶されている画像特徴ベクトルテーブルの構成例を示す図である。画像特徴ベクトルテーブルは、コンテンツ毎に設けられている。各レコードに、時間(評価周期)毎に、コンテンツ名(本実施形態においては、例えば動画A)、時間、動画フレームの説明と、1次元からm次元(本実施形態においてはm=4096)の各々の特徴量が示され、レコード毎に画像特徴ベクトルが示されている。画像特徴ベクトルは、評価周期毎に、P1(X1_1,X2_1,…,Xm_1)、P2(X1_2,X2_2,…,Xm_2)、…として表される。X1_1,X2_1,…,Xm_1の各々が、各次元における画像の特徴量である。例えば、特徴量X1_1は、評価周期において得られた60個の特徴ベクトルの各々の4096次元における1次元目の特徴量の平均値である。
図1に戻り、台詞特徴抽出部122は、画像とともに流れる音声の台詞のテキストデータを形態素解析し、得られたそれぞれの単語の特徴抽出を行なう。このとき、本実施形態においては、コンテンツの商品名など、複数の一般的な単語を連結して作成した造語など、必要以上に小さな単語に分割されたくない単語を、分解制限単語として、分解制限単語辞書記憶部17に予め書き込んで記憶させている(辞書登録してある)。
したがって、台詞特徴抽出部122は、入力される形態素解析を行なう際、この辞書を参照して形態素解析を行ない、通常であれば分解する連結された単語でも、上記辞書に分解制限単語として登録されているものは、登録された構成を最も素な単語として取り扱い、それ以上の分割は行なわない。また、台詞特徴抽出部122は、Word2vecあるいはDoc2vecを用いて、形態素解析された単語の特徴量を示す台詞特徴ベクトルとして出力する。このとき、台詞特徴抽出部122は、評価周期(例えば、1分間)毎の台詞に含まれる全ての単語の各々の100次元の特徴ベクトルを抽出する。また、上記Word2vec及びDoc2vecではなく、教師無し学習を行なう単語の特徴抽出を行なうアルゴリズムであれば、他の手法を用いて単語の特徴抽出を行なっても良い。
そして、台詞特徴抽出部122は、評価周期毎に、上記特徴ベクトルの100次元の各々の次元において、全ての単語ので最大の特徴量及び最小の特徴量の各々を抽出し、また、全ての単語の特徴量の平均値を算出する。例えば、全ての単語の特徴量ベクトルにおける100次元における1次元目の特徴量の中から、最大値と最小値とを抽出し、全ての単語の1次元目の特徴量を集約するとともに、1次元目の特徴量を2次元に拡張する。また、全ての単語の特徴量ベクトルにおける100次元における1次元目の特徴量の平均値を算出し、さらに1次元の拡張を行なう。この結果、特徴量の1次元が3次元に拡張される。
これにより、台詞特徴抽出部122は、100次元の各次元毎に、全ての単語における特徴量を、全単語の各次元の特徴量を集約し、かつ100次元の各々の特徴量を最大値、最小値及び平均値の3種類(3次元)に拡張したデータからなる、300次元の特徴量を有する台詞特徴ベクトルを、抽出特徴記憶部18に対して書き込んで記憶させる。
図4は、抽出特徴記憶部18に記憶されている台詞特徴ベクトルテーブルの構成例を示す図である。台詞特徴ベクトルテーブルは、コンテンツ毎に設けられている。各レコードに、時間(評価周期)毎に、コンテンツ名(本実施形態においては、例えば動画A)、時間、シーンの台詞の説明と、1次元からn次元(本実施形態においてはn=300)の各々の特徴量が示され、レコード毎に台詞特徴ベクトルが示されている。台詞特徴ベクトルは、評価周期毎に、Q1(Y1_1,Y2_1,Y3_1,…,Ym_1)、Q2(Y1_2,Y2_2,…,Ym_2)、…として表される。ここで、台詞特徴ベクトルは、図3における画像特徴ベクトルに対応するフレームにおいて使用される台詞の特徴ベクトルである。Y1_1,Y2_1,Y3_1,…,Ym_1の各々が、各次元における台詞の特徴量である。ここで例えば、特徴量Y1_1は全単語の特徴ベクトルにおける1次元目の特徴量の最大値であり、特徴量T1_2は全単語の特徴ベクトルにおける1次元目の特徴量の最小値であり、特徴量Y1_3は全単語の特徴ベクトルにおける1次元目の特徴量の平均値である。
図1に戻り、アクセス数集積部13は、学習コンテンツの評価周期毎のアクセス数を、外部装置(オペレータの各々の入電を集計を行なうサーバなど)から入力し、評価周期に対応させて抽出特徴記憶部18に書き込んで記憶させる。
図5は、抽出特徴記憶部18に記憶されているアクセス数テーブルの構成例を示す図である。レコード単位に、時間(評価周期)と、評価周期におけるアクセス数である入電数が対応付けられている。
図1に戻り、予測モデル生成部14は、所定の重回帰モデルからなるコンテンツ評価予測モデルを、機械学習により求める。ここで、予測モデル生成部14は、上述した画像特徴ベクトルと台詞特徴ベクトルとを総合し、コンテンツ総合特徴ベクトルを生成する。コンテンツ総合特徴ベクトルは、4096次元の特徴量からなる画像特徴ベクトルと、300次元の特徴量からなる台詞特徴ベクトルとが総合され、4396次元の特徴量の次元を有するコンテンツ総合特徴ベクトルとなる。また、上記重回帰モデルの代わりに、重回帰(線形回帰)をニューラルネットワークで構成し、単純な線形回帰問題をこのニューラルネットワークに学習させるようにして、コンテンツ評価予測モデルを構成しても良い。
図6は、画像特徴ベクトルと台詞特徴ベクトルとをコンテンツ総合ベクトルとして総合する概念図である。画像特徴ベクトルのベクトル空間100(例えば、画像ベースのショッピング番組ベクター空間)と、台詞特徴ベクトルのベクトル空間102(例えば、シナリオベクター空間)とが総合され、コンテンツ評価予測モデルに対して入力するコンテンツ総合特徴ベクトルのベクトル空間104(例えば、総合特徴ベクター空間)が生成される。図6においては、ベクトル空間100、102及び104の各々は、3次元として示されているが、それぞれ4096次元、300次元、4396次元である。
例えば、画像特徴ベクトルのベクトル空間100においては、図3の画像特徴ベクトルテーブルにおけるコンテンツ名が動画Aであり、時間が00:01の特徴ベクトルが動画A_00:01と、時間が00:02の特徴ベクトルが動画A_00:02と表示されている。また、台詞特徴ベクトルのベクトル空間102においては、図4の台詞特徴ベクトルテーブルにおけるコンテンツ名が動画Aであり、時間が00:01の特徴ベクトルが台詞A_00:01と、時間が00:02の特徴ベクトルが台詞A_00:02と表示されている。
すなわち、予測モデル生成部14は、図3の画像特徴ベクトルテーブルと、図4の台詞特徴ベクトルテーブルと、図5に示すアクセス数テーブルを統合し、コンテンツ評価予測モデルを学習させる、学習コンテンツのデータ組を作成する。そして、予測モデル生成部14は、評価周期毎に学習コンテンツのデータ組を抽出特徴記憶部18に書き込んで記憶させる。
図7は、抽出特徴記憶部18に記憶されている学習コンテンツデータ組テーブルの構成例を示す図である。学習コンテンツデータ組テーブルは、レコード単位に、時間(評価周期)に対応させて、1次元からm次元(本実施形態においてはm=4096)の各々の画像特徴量と、m+1次元からm+n次元(本実施形態においてはn=300)の各々の台詞特徴量と、評価周期内における受電数とが学習コンテンツデータ組として示されている。ここで、各次元に対応する入電数は、視聴者が商品を紹介するコンテンツを視聴し、視聴者がその商品に対して興味を持ち、電話のある場所まで移動してコールセンターに電話をかけるまでの遅延時間を考慮し、予測する評価周期とその直後の評価周期における入電数を、予測する評価周期の画像及び台詞に対する評価(入電数)とする。すなわち、予測する評価周期と直後の評価周期との各々の入電数を加算し、学習コンテンツデータ組としている。したがって、後述するコンテンツ評価予測モデルは、予測する評価周期と直後の評価周期との各々の入電数を、予測入電数として予測する。
図1に戻り、予測モデル生成部14は、コンテンツ評価予測モデルに対し、学習コンテンツデータ組テーブルの時間の順番に、時系列に、学習コンテンツデータ組におけるコンテンツ総合特徴ベクトルを順次入力させ、入力されるコンテンツ総合特徴ベクトルから予測される予測入電を出力する。このとき、予測モデル生成部14は、コンテンツの全ての評価周期における学習コンテンツデータ組において、出力される予測入電が、同一の評価周期における学習コンテンツデータ組における入電数に近づくように、コンテンツ評価予測モデルにおけるニューラルネットの結合層の重み付けを調整する。また、予測モデル生成部14は、上述した処理を、複数の学習コンテンツの学習コンテンツデータ組テーブルにおいても行なう。
このとき、回帰の問題として、複数のパラメータ(コンテンツ総合特徴ベクトル)から、一つのパラメータ(入電数)を予測することは重回帰モデルである。この重回帰モデル(コンテンツ評価予測モデル)において、予測に使用する次元数の2倍のデータ数が必要となる。しかしながら、本実施形態においては、コンテンツ総合特徴ベクトルの次元が4396あるため、単純に8792個のデータが必要であるが、データ(学習コンテンツデータ組)の数が不十分な場合あるいは計算を単純化する目的で、結合における係数の算出にスパースモデリングの手法を用いている。具体的には、LASSO(least absolute shrinkage and selection operator)と呼ばれるL1最小化のアルゴリズムを用いる。本実施形態においては、過学習を防止するため、10交差検定でパラメータを決定している。また、すでに述べたように、コンテンツ評価予測モデルを重回帰モデルでなく、ニューラルネットワークのモデルにて生成する場合も、同様の処理を行なうことができる。
予測モデル生成部14は、コンテンツ評価予測モデルを構成する重回帰モデルにおける重み付けの回帰係数w(p)を、以下の(1)式により求める。以下の(1)式において、nは評価周期の順番を示す評価周期番号である。Nは、コンテンツにおける全評価周期数である。Znは、n番目の評価周期番号におけるアクセス数(入電数)である。w(p)は、コンテンツ総合特徴ベクトルにおけるp番目の特徴量のデータへの重み係数(回帰係数)である。x(p)は、n番目の評価周期番号のコンテンツ総合特徴ベクトルにおけるp番目の特徴量のデータである。bは、切片のデータである。λは、正則化係数である。
Figure 2018142272
上述した(1)式において、x(p)から予測入電数zを重回帰で推定するため、係数w(p)を決定する必要がある。このとき、(1)式において正規化項が1次で含まれているため、予測入電数zを推定するために必要のないx(p)に対する係数w(p)が0とされる(すなわち、スパース化される)。これにより、学習コンテンツデータ組の数が上述した規則に対して少なくとも、予測入電数zを予測するコンテンツ評価予測モデルを生成することができる。
アクセス数予測部15は、予測モデル生成部14が生成したコンテンツ評価予測モデルを用いて、評価対象のコンテンツである対象コンテンツの評価周期毎の予測入電数を求める。ここで、アクセス数予測部15は、対象コンテンツの評価周期毎の画像特徴ベクトルを画像特徴抽出部121に抽出させる。また、アクセス数予測部15は、対象コンテンツの評価周期毎の台詞特徴ベクトルを台詞特徴抽出部122に抽出させる。
そして、アクセス数予測部15は、特徴抽出部12から供給される画像特徴ベクトルと台詞特徴ベクトルとの各々を統合して、コンテンツ総合特徴ベクトルを生成する。アクセス数予測部15は、コンテンツ評価予測モデルに対し、上記コンテンツ総合特徴ベクトルを、時系列に評価周期毎に入力し、予測入電数zを得る。
上述したように、本実施形態によれば、作成したコンテンツが視聴者からどの程度の評価を受けるかを、予測入電数により事前に得られるため、広告の番組制作にノウハウを有さない番組作成者であっても、視聴者の評価を考慮して作成することができる。
これにより、本実施形態によれば、番組作成者が(広告の番組制作にノウハウを有さない番組作成者であっても)、視聴者の評価を予測してコンテンツの作成が行えるため、視聴者の評価が全く不明な状態で、テレビショッピングの番組などで無駄に放映することが無くなる。
また、本実施形態によれば、作成したコンテンツにおいて、所定の評価周期において期待した予測入電数が得られない場合、過去の事例を参考に作成した画像及び台詞に評価周期に対応する部分のコンテンツを入れ替えて、再度、コンテンツの評価が行えるため、広告番組の作成のノウハウを持たない番組制作者でも、予測入電数の増加に寄与できるコンテンツを容易に作成することができる。
次に、図8を用いて、本実施形態のコンテンツ評価予測システム1におけるコンテンツ評価予測モデルの生成の処理の流れを説明する。図8は、本実施形態のコンテンツ評価予測システム1におけるコンテンツ評価予測モデルの生成処理の動作例を示すフローチャートである。
ステップS1:
コンテンツデータ入力部11は、コンテンツ評価予測モデルを生成するための学習コンテンツのデータを外部装置から入力し、データベース16に対して書き込んで記憶させる。
ステップS2:
台詞特徴抽出部122は、データベース16から学習コンテンツにおける評価周期単位でテキスト文章を、順次読み出す。そして、台詞特徴抽出部122は、評価周期内におけるテキスト文章から、すでに説明した辞書を参照しつつ、形態素解析を行なって単語の抽出を行なう。
ステップS3:
台詞特徴抽出部122は、Word2vecあるいはDoc2vecを用いて、抽出した単語毎に、100次元の特徴ベクトルを抽出する。そして、台詞特徴抽出部122は、全ての単語の特徴ベクトルにおける各次元における特徴量の最大値及び最小値を抽出する。また、台詞特徴抽出部122は、全ての単語の特徴ベクトルにおける各次元における特徴量の平均値を求める。これにより、台詞特徴抽出部122は、100次元の各次元において、評価周期の全単語の特徴量における最大値及び最小値と、全単語の特徴量の平均値とを有するため、300次元の特徴量を有する台詞特徴ベクトルを生成する。
そして、台詞特徴抽出部122は、生成した台詞特徴ベクトルを評価周期に対応させて、抽出特徴記憶部18の台詞特徴ベクトルテーブルに書き込んで記憶させる。
ステップS4:
台詞特徴抽出部122は、学習コンテンツにおける全ての評価周期において、この学習コンテンツの評価周期毎の台詞特徴ベクトルの抽出が終了したか否かの判定を行なう。このとき、台詞特徴抽出部122は、学習コンテンツにおける全ての評価周期において、この学習コンテンツの評価周期毎の台詞特徴ベクトルの抽出が終了した場合、処理をステップS5へ進める。一方、台詞特徴抽出部122は、学習コンテンツにおける全ての評価周期において、この学習コンテンツの評価周期毎の台詞特徴ベクトルの抽出が終了していない場合、次の順番の評価周期に対応した部分の学習コンテンツからの台詞特徴ベクトルの抽出を行なうため、処理をステップS2へ進める。
ステップS5:
画像特徴抽出部121は、データベース16から学習コンテンツにおける評価周期単位で動画を、順次読み出す。テレビショッピングの場合、1秒間(所定周期)に30フレームの画像が用いられている。このため、画像特徴抽出部121は、例えば、1秒間における最初の1フレーム目をサンプリングとして読み出す。
そして、画像特徴抽出部121は、他のCNNから転移させたCNNで構成された特徴抽出機能により、サンプリングした画像から、この画像の画像特徴ベクトルを抽出する。
ステップS6:
画像特徴抽出部121は、評価周期(1分)内における所定周期(1秒)の画像特徴ベクトル(60秒分の特徴ベクトル)を抽出したか(抽出が終了したか)否かの判定を行なう。このとき、画像特徴抽出部121は、評価周期内における所定周期の画像特徴ベクトルを抽出した場合、処理をステップS7へ進める。一方、画像特徴抽出部121は、評価周期内における所定周期の画像特徴ベクトルを抽出していない場合、処理をステップS5へ進める。
ステップS7:
画像特徴抽出部121は、上記60秒分、すなわち60個の画像特徴ベクトルの4096次元の次元毎に特徴量の平均値を算出し、この次元それぞれの平均値からなる画像特徴ベクトルを、評価周期における画像特徴量ベクトルとして求める。そして、台詞特徴抽出部122は、求めた画像特徴ベクトルを評価周期に対応させて、抽出特徴記憶部18の画像特徴ベクトルテーブルに書き込んで記憶させる。
ステップS8:
画像特徴抽出部121は、学習コンテンツにおける全ての評価周期において、この学習コンテンツの評価周期毎の画像特徴ベクトルの抽出が終了したか否かの判定を行なう。このとき、画像特徴抽出部121は、学習コンテンツにおける全ての評価周期において、この学習コンテンツの評価周期毎の画像特徴ベクトルの抽出が終了した場合、処理をステップS9へ進める。一方、画像特徴抽出部121は、学習コンテンツにおける全ての評価周期において、この学習コンテンツの評価周期毎の画像特徴ベクトルの抽出が終了していない場合、次の順番の評価周期に対応した部分の学習コンテンツからの画像特徴ベクトルの抽出を行なうため、処理をステップS5へ進める。
ステップS9:
アクセス数集積部13は、学習コンテンツの評価周期毎のアクセス数を、外部装置から入力し、評価周期に対応させて抽出特徴記憶部18のアクセス数テーブルに書き込んで記憶させる。
次に、予測モデル生成部14は、重回帰モデルであるコンテンツ評価予測モデルの生成に使用する学習コンテンツデータ組を作成する。このとき、予測モデル生成部14は、抽出特徴記憶部18から、画像特徴ベクトルテーブルと、台詞特徴ベクトルテーブルと、アクセス数テーブルとを読み出し、それぞれを統合して学習コンテンツデータ組テーブルを構成して、抽出特徴記憶部18に書き込んで記憶させる。
ステップS10:
予測モデル生成部14は、抽出特徴記憶部18の学習コンテンツデータ組テーブルを参照し、学習コンテンツデータ組のコンテンツ総合特徴ベクトルを重回帰モデルに入力し、出力される予測入電数が学習コンテンツデータ組テーブルにおける入電数に近づくように、重回帰モデルの回帰係数を調整する処理を行なう。このとき、予測モデル生成部14は、LASSOと呼ばれるL1最小化のアルゴリズムを用いた機械学習により、重回帰モデルの各特徴量に対する回帰係数のスパース化を行ない、重回帰モデルに基づく調整コンテンツ評価予測モデルを生成する。また、予測モデル生成部14は、生成したコンテンツ評価予測モデルを、抽出特徴記憶部18に書き込んで記憶させる。
上述した処理により、コンテンツ評価予測モデルを生成し、アクセス数予測部15は、このコンテンツ評価予測モデルを用い、評価対象の対象コンテンツの視聴者の評価としての予測受電数を求める。
すなわち、アクセス数予測部15は、抽出特徴記憶部18からコンテンツ評価予測モデルを読み出す。そして、アクセス数予測部15は、コンテンツ評価予測モデルに対し、対象コンテンツの評価周期毎の画像特徴ベクトル及び台詞特徴ベクトルから生成したコンテンツ総合特徴ベクトルを入力させ、評価周期毎の予測入電数を得る。
そして、アクセス数予測部15は、求めた予測入電数を、評価した対象コンテンツを識別する情報を付加し、評価周期の各々と、この評価周期に対応する予測入電数との組を、この対象コンテンツの評価結果として、評価結果記憶部19に書き込んで記憶させる。
図9は、本実施形態におけるコンテンツ評価予測モデルで予測した、商品の広告である対象コンテンツの各評価周期の予測入電数と、実際に得られた入電数との比較を示すグラフである。図9のグラフにおいて、横軸が時間(評価周期(1分))を示し、縦軸が予測入電数及び入電数(発呼数)を示している。このグラフは、複数のコンテンツの予測入電数と実際の入電数とを連結して生成している。
また、このグラフにおいては、予測入電数が破線、実際の入電数が実線で示されている。図9のグラフにおける予測入電数と実際の入電数との誤差(RSME:root mean squared error)は、全ての評価周期の平均値として±1.0の範囲となっている。
図10は、図9において連結されたコンテンツから選択した、対象コンテンツの各評価周期の予測入電数と、実際に得られた入電数との比較を示すグラフである。図10(a)は、テレビショッピングにおける商品Aの広告を行なった対象コンテンツである。図10(b)は、テレビショッピングにおける商品Bの広告を行なった対象コンテンツである。
図10(a)及び図10(b)の各々において、横軸は時間(評価周期(1分))を示し、縦軸が予測入電数及び入電数(発呼数)を示している。また、図10(a)及び図10(b)ともに、コンテンツの長さは30分である。また、この図10(a)及び図10(b)のグラフにおいては、予測入電数が破線、実際の入電数が実線で示されている。
図10(a)における商品Aの測入電数と実際の入電数との誤差(RSME)は、30分における全ての評価周期の平均値として0.96477となっている。また、図10(b)における商品Bの測入電数と実際の入電数との誤差(RSME)は、30分における全ての評価周期の平均値として0.77674となっている。
この結果から、本実施形態によるコンテンツ評価予測モデルが予測する予測入電数は、実際にコンテンツを視聴した視聴者の評価を示す入電数とほぼ同様の数値(入電数の変化の傾向も同様)が得られることが判る。
したがって、本実施形態によれば、新たに作成しているコンテンツを対象コンテンツとして、コンテンツ評価予測モデルにより、各評価周期の予測入電数を求めることで、広告のコンテンツを複数に分割して評価することが可能となり、コンテンツにおける広告する商品を紹介する部分(評価周期)と、視聴者の商品の購買意欲を向上させる部分(評価周期)とを、切り分けて評価することができ、視聴者の評価における商品の紹介を行なう部分と購買意欲を向上させる部分の両者の関係性も推定できる。
また、本実施形態によれば、新たに作成しているコンテンツにおいて、入電数を増加させるように、視聴者に対してインパクトを与えて作成した評価周期における予測入電数が、期待したほど増加しない場合、コンテンツにおけるこの評価周期における画像及び台詞を他と変え、放映前に再度試すことができ、予測入電数の増加に寄与できるコンテンツを作成する作業を支援することができる。
上記実施形態においては、コンテンツとしてテレビショッピングであり、コンテンツ評価予測モデルに入力するコンテンツの特徴として画像特徴と台詞特徴とであった。しかしながら、コンテンツがラジオなどによる商品の広告である場合、台詞特徴の他に、台詞を話す話者の音声の周波数や強度(音声信号の振幅値)などの特徴を抽出し、コンテンツ評価予測モデルに入力する構成としても良い。
また、テレビショッピングにおいて動画でなく、静止画が時系列に変化するコンテンツに対しても、同様に画像特徴を抽出して用いても良い。
また、上記実施形態においては、台詞における単語の特徴量として、Word2vecあるいはDoc2vecにより単語から抽出された特徴量を用いている。しかしながら、評価周期内において時系列に与えられる単語を、それぞれの単語の時系列な配置における長期依存(long-term dependencies)を学習するため、RNN(recurrent neural network、過去の情報を考慮して未来のことを予測するニューラルネットワーク)の発展型であるLSTM(long short-term memory)を用いても良い。
この構成の場合、上述したWord2vecあるいはDoc2vecにより単語から抽出された特徴量の特徴ベクトルをLSTMに入力し、各特徴ベクトルに対して単語の時系列における並びを考慮した配列特徴ベクトル(単語の特徴ベクトルとは異なる時系列における順方向及び逆方向のベクトル)を求める。これにより、単語の特徴ベクトルではパラメータとして反映されなかった、各単語の文脈における配置を反映させることができ、より精度の高いコンテンツにおける台詞の評価に対する寄与を予測することができる。
そして、LSTMから単語毎に出力される上記配列ベクトルの各々に対し、台詞の時系列な単語の配置(単語の並び:台詞の文脈)に対応した重要度(Attention)を算出する。すなわち、配列ベクトルの重要度を算出することにより、いずれの配列ベクトルが予測入電数(アクセス数)を予測するために重要かを求める。そして、この重要度に基づいて予測入電数を予測するコンテンツ評価予測モデルにおいて、配列ベクトルの加重平均を算出することにより、予測入電数を予測する。
また、本実施形態においては、視聴者からの評価を示す反応(アクセス数)として、電話による入電数を用いたが、これにファックスを受け取った受け取り数、あるいはウェブブラウザ(インターネットブラウザ)における商品が選択されたクリックの回数などを、利用者の評価の反応として用いても良い。
また、図1に示すコンテンツ評価予測システムにおける入力されるコンテンツの情報の特徴ベクトルからアクセス数を予測する機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、コンテンツの情報の特徴ベクトルからアクセス数を予測する処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
以上、この発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
1…コンテンツ評価予測システム
11…コンテンツデータ入力部
12…特徴抽出部
13…アクセス数集積部
14…予測モデル生成部
15…アクセス数予測部
16…データベース
17…分解制限単語辞書記憶部
18…抽出特徴記憶部
19…評価結果記憶部

Claims (6)

  1. 時系列に情報が変化するコンテンツの前記情報の特徴である情報特徴を所定の周期毎に抽出する特徴抽出部と、
    前記情報特徴と前記所定の周期毎におけるコンテンツの評価値としてのアクセス数とを用いた機械学習により、前記情報に対応する情報特徴を入力することにより、当該情報特徴に対するアクセス数を予測するコンテンツ評価予測モデルを生成する予測モデル生成部と
    を備えることを特徴とするコンテンツ評価予測システム。
  2. 前記情報が少なくとも動画像及び台詞のいずれかを含んでいる
    ことを特徴とする請求項1に記載のコンテンツ評価予測システム。
  3. 前記特徴抽出部が、
    前記動画像の特徴抽出を行なう際、画像特徴抽出の学習後の他の畳み込みニューラルネットワーク(CNN)における全結合層前段までの特徴抽出機能を用いている
    ことを特徴とする請求項2に記載のコンテンツ評価予測システム。
  4. 前記特徴抽出部が、
    前記台詞の特徴抽出を行なう際、形態素解析において分解を制限する単語である分解制限単語を辞書に登録し、当該辞書を参照して形態素解析を行なう
    ことを特徴とする請求項2または請求項3に記載のコンテンツ評価予測システム。
  5. 前記予測モデル生成部が、
    前記予測モデルを生成する際、スパースモデリング法を用いる
    ことを特徴とする請求項1から請求項4のいずれか一項に記載のコンテンツ評価予測システム。
  6. 特徴抽出部が、時系列に情報が変化するコンテンツの前記情報の特徴である情報特徴を所定の周期毎に抽出する特徴抽出過程と、
    予測モデル生成部が、前記情報特徴と前記所定の周期毎におけるコンテンツの評価値としてのアクセス数とを用いた機械学習により、前記情報に対応する情報特徴を入力することにより、当該情報特徴に対するアクセス数を予測するコンテンツ評価予測モデルを生成する予測モデル生成過程と
    を含むことを特徴とするコンテンツ評価予測方法。
JP2017037525A 2017-02-28 2017-02-28 コンテンツ評価予測システム及びコンテンツ評価予測方法 Active JP6623186B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017037525A JP6623186B2 (ja) 2017-02-28 2017-02-28 コンテンツ評価予測システム及びコンテンツ評価予測方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017037525A JP6623186B2 (ja) 2017-02-28 2017-02-28 コンテンツ評価予測システム及びコンテンツ評価予測方法

Publications (2)

Publication Number Publication Date
JP2018142272A true JP2018142272A (ja) 2018-09-13
JP6623186B2 JP6623186B2 (ja) 2019-12-18

Family

ID=63526695

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017037525A Active JP6623186B2 (ja) 2017-02-28 2017-02-28 コンテンツ評価予測システム及びコンテンツ評価予測方法

Country Status (1)

Country Link
JP (1) JP6623186B2 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110059716A (zh) * 2019-03-12 2019-07-26 西北大学 一种cnn-lstm-svm网络模型的构建及mooc辍学预测方法
CN110232437A (zh) * 2019-05-30 2019-09-13 湖南大学 基于cnn的时间序列预测方法和模型确定方法
JP2020140673A (ja) * 2019-03-01 2020-09-03 富士ゼロックス株式会社 学習装置、情報出力装置、及びプログラム
JP2020140499A (ja) * 2019-02-28 2020-09-03 富士通株式会社 付与方法、付与プログラム及び付与装置
CN111651444A (zh) * 2020-05-25 2020-09-11 成都千嘉科技有限公司 一种自适应时间序列数据预测方法
CN113052558A (zh) * 2021-03-30 2021-06-29 浙江畅尔智能装备股份有限公司 输电铁塔零件加工自动计件系统及其自动计件方法
CN114049519A (zh) * 2021-11-17 2022-02-15 江西航天鄱湖云科技有限公司 一种光学遥感图像场景分类方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112258254B (zh) * 2020-12-21 2021-03-09 中国人民解放军国防科技大学 基于大数据架构的互联网广告风险监测方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001188788A (ja) * 1999-12-28 2001-07-10 Sony Corp 会話処理装置および方法、並びに記録媒体
JP2015167279A (ja) * 2014-03-03 2015-09-24 東京瓦斯株式会社 必要要員数算出装置、必要要員数算出方法及びプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001188788A (ja) * 1999-12-28 2001-07-10 Sony Corp 会話処理装置および方法、並びに記録媒体
JP2015167279A (ja) * 2014-03-03 2015-09-24 東京瓦斯株式会社 必要要員数算出装置、必要要員数算出方法及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
内田 祐介: "畳み込みニューラルネットワークの研究動向", 電子情報通信学会技術研究報告, vol. 117, no. 362, JPN6019020129, 10 December 2017 (2017-12-10), JP, pages 25 - 38, ISSN: 0004046737 *
山元 浩平: "一般画像認識手法を応用したディスプレイ広告のユーザ属性推定とクリック率予測", 電子情報通信学会技術研究報告, vol. 114, no. 455, JPN6019020125, 12 February 2015 (2015-02-12), JP, pages 179 - 184, ISSN: 0004046736 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020140499A (ja) * 2019-02-28 2020-09-03 富士通株式会社 付与方法、付与プログラム及び付与装置
JP7249580B2 (ja) 2019-02-28 2023-03-31 富士通株式会社 付与方法、付与プログラム及び付与装置
JP2020140673A (ja) * 2019-03-01 2020-09-03 富士ゼロックス株式会社 学習装置、情報出力装置、及びプログラム
JP7293729B2 (ja) 2019-03-01 2023-06-20 富士フイルムビジネスイノベーション株式会社 学習装置、情報出力装置、及びプログラム
CN110059716A (zh) * 2019-03-12 2019-07-26 西北大学 一种cnn-lstm-svm网络模型的构建及mooc辍学预测方法
CN110232437A (zh) * 2019-05-30 2019-09-13 湖南大学 基于cnn的时间序列预测方法和模型确定方法
CN110232437B (zh) * 2019-05-30 2021-11-16 湖南大学 基于cnn的时间序列预测方法和模型确定方法
CN111651444A (zh) * 2020-05-25 2020-09-11 成都千嘉科技有限公司 一种自适应时间序列数据预测方法
CN111651444B (zh) * 2020-05-25 2023-04-18 成都千嘉科技股份有限公司 一种自适应时间序列数据预测方法
CN113052558A (zh) * 2021-03-30 2021-06-29 浙江畅尔智能装备股份有限公司 输电铁塔零件加工自动计件系统及其自动计件方法
CN113052558B (zh) * 2021-03-30 2023-05-30 浙江畅尔智能装备股份有限公司 输电铁塔零件加工自动计件系统及其自动计件方法
CN114049519A (zh) * 2021-11-17 2022-02-15 江西航天鄱湖云科技有限公司 一种光学遥感图像场景分类方法

Also Published As

Publication number Publication date
JP6623186B2 (ja) 2019-12-18

Similar Documents

Publication Publication Date Title
JP6623186B2 (ja) コンテンツ評価予測システム及びコンテンツ評価予測方法
CN111339415B (zh) 一种基于多交互式注意力网络的点击率预测方法与装置
CN107609152B (zh) 用于扩展查询式的方法和装置
JP7325156B2 (ja) コンテキスト解析を用いた検索クエリの改善
CN112100489B (zh) 对象推荐的方法、装置和计算机存储介质
CN110489574B (zh) 一种多媒体信息推荐方法、装置和相关设备
CN108475256A (zh) 从同现矩阵生成特征嵌入
CN117235586B (zh) 酒店客户画像构建方法、系统、电子设备及存储介质
CN111970536B (zh) 一种基于音频生成视频的方法和装置
CN113569129A (zh) 点击率预测模型处理方法、内容推荐方法、装置及设备
CN111159563A (zh) 用户兴趣点信息的确定方法、装置、设备及存储介质
CN107506479B (zh) 一种对象推荐方法和装置
CN113688310A (zh) 一种内容推荐方法、装置、设备及存储介质
CN114357201B (zh) 基于信息感知的视听推荐方法、系统
CN112182281B (zh) 一种音频推荐方法、装置及存储介质
CN110717788A (zh) 一种目标用户的筛选方法及装置
JP2024508502A (ja) 情報をプッシュする方法および装置
CN114445121A (zh) 一种广告点击率预测模型构建及广告点击率预测方法
CN113204699B (zh) 信息推荐方法、装置、电子设备及存储介质
CN113836388A (zh) 信息推荐方法、装置、服务器及存储介质
CN110971973A (zh) 一种视频推送方法、装置及电子设备
CN113742562B (zh) 视频推荐方法、装置、电子设备及存储介质
CN113934870B (zh) 多媒体推荐模型的训练方法、装置及服务器
CN114493674A (zh) 一种广告点击率预测模型及方法
CN111915339A (zh) 数据的处理方法、装置及设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170501

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190130

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190130

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191125

R150 Certificate of patent or registration of utility model

Ref document number: 6623186

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350