JP6745393B1 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP6745393B1
JP6745393B1 JP2019212549A JP2019212549A JP6745393B1 JP 6745393 B1 JP6745393 B1 JP 6745393B1 JP 2019212549 A JP2019212549 A JP 2019212549A JP 2019212549 A JP2019212549 A JP 2019212549A JP 6745393 B1 JP6745393 B1 JP 6745393B1
Authority
JP
Japan
Prior art keywords
moving image
information
user
reaction
segment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019212549A
Other languages
English (en)
Other versions
JP2021087034A (ja
Inventor
信之 冨岡
信之 冨岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gmo Nikko
Original Assignee
Gmo Nikko
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gmo Nikko filed Critical Gmo Nikko
Priority to JP2019212549A priority Critical patent/JP6745393B1/ja
Application granted granted Critical
Publication of JP6745393B1 publication Critical patent/JP6745393B1/ja
Publication of JP2021087034A publication Critical patent/JP2021087034A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】動画を視聴するユーザの反応の推移を簡便に検証可能とする。【解決手段】動画データを取得する動画取得部130と、動画データに基づく動画を視聴するユーザの反応を取得するための画像を、動画に対して付与する付与部120と、画像と共に動画をユーザの通信端末30に再生させる再生部130と、動画が再生されている際における画像に対するユーザの操作に基づき、操作に関する情報と動画の再生時間に関する情報とを取得する情報取得部140と、操作に関する情報を、動画の再生時間と関連付けて表示するための表示データを生成する生成部150と、を備える、情報処理装置10。【選択図】図2

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。
近年では、携帯用の通信端末機などを用いて、ユーザは様々な動画を視聴することができる。ユーザが動画を視聴している際には、ユーザは視聴している動画に対して感情を持ったり、理性的な判断を行ったりすることがある。人の感情を推定する技術としては、例えば、特許文献1に、ユーザが感情を反映する行動を行ったときに、ユーザの手が接触する接触部材の接触状態に関する接触データに基づいて、ユーザの感情を推定する技術が記載されている。
特開2009−26125号公報
動画を視聴するユーザのこのような反応がどのように推移しているのかを知ることは、動画を評価する上で必要となると考えられる。しかしながら、特許文献1に記載の技術では、ユーザの感情を推定するために、振動モータや光源などが設けられた接触部材を用意する負担が生じていた。動画を視聴するユーザの反応を検証する際には、このような負担が生じないことが望ましいと考えられる。
そこで、本発明は、動画を視聴するユーザの反応の推移を簡便に検証可能とする情報処理装置、情報処理方法及びプログラムを提供することを目的とする。
本発明の一態様に係る情報処理装置は、動画データを取得する動画取得部と、動画データに基づく動画を視聴するユーザの反応を取得するための画像を、動画に対して付与する付与部と、画像と共に動画をユーザの通信端末に再生させる再生部と、動画が再生されている際における画像に対するユーザの操作に基づき、操作に関すると動画の再生時間に関する情報とを取得する情報取得部と、操作に関する情報を、動画の再生時間と関連付けて表示するための表示データを生成する生成部と、を備える。
この態様によれば、動画が再生されている間におけるユーザの反応の推移を表示装置に表示させることが可能になる。当該表示を閲覧することで、動画が再生されている間におけるユーザの反応の推移が簡便に検証可能となる。
上記態様において、操作に関する情報に基づき、反応に関する指数の統計的な数値を算出する算出部、をさらに備えてもよい。
この態様によれば、ユーザの反応の特徴を表す数値が算出される。当該数値を用いることで、より正確に動画に対して生じるユーザの反応を検証することが可能になる。
上記態様において、統計的な数値は、単位時間当たりの反応に関数する指数の最大値と平均値との差分であってもよい。
この態様によれば、最大値と平均値との差分を用いることで、動画が再生されている間におけるユーザの反応について、起伏の大きさを推定することができる。このため、より正確に動画を視聴するユーザの反応を検証することができる。
上記態様において、統計的な数値は、単位時間当たりの反応に関する指数の平均値であってもよい。
この態様によれば、単位時間当たりの反応に関する指数の平均値を用いることで、動画が再生されている間におけるユーザの反応の平均的な大きさを推測できる。このため、より詳細に動画を視聴するユーザの反応を検証することができる。
上記態様において、情報取得部は、ユーザを識別可能な情報と対応付けられた反応に関する指数を取得してもよい。
この態様によれば、反応に関する指数と特定のユーザとを対応付けることが可能になる。これにより、動画を視聴するユーザの反応の推移をより詳細に検証することが可能になる。
本発明の他の態様に係る情報処理方法は、動画データを取得することと、前記動画データに基づく動画を視聴するユーザの反応を取得するための画像を、前記動画に対して付与することと、前記画像と共に前記動画を前記ユーザの通信端末に再生させることと、前記動画が再生されている際における前記画像に対する前記ユーザの操作に基づき、前記操作に関する情報と前記動画の再生時間に関する情報とを取得することと、前記操作に関する情報を、前記動画の再生時間と関連付けて表示するための表示データを生成することと、を含む。
この態様によれば、動画が再生されている間におけるユーザの反応の推移を表示装置に表示させることが可能になる。当該表示を閲覧することで、動画が再生されている間におけるユーザの反応の推移を簡便に検証可能となる。
本発明の他の態様に係るプログラムは、コンピュータに、動画データを取得することと、前記動画データに基づく動画を視聴するユーザの反応を取得するための画像を、前記動画に対して付与することと、前記画像と共に前記動画を前記ユーザの通信端末に再生させることと、前記動画が再生されている際における前記画像に対する前記ユーザの操作に基づき、前記操作に関する情報と前記動画の再生時間に関する情報とを取得することと、前記操作に関する情報を、前記動画の再生時間と関連付けて表示するための表示データを生成することと、を実行させる。
この態様によれば、動画が再生されている間におけるユーザの反応の推移を表示装置に表示させることが可能になる。当該表示を閲覧することで、動画が再生されている間におけるユーザの反応の推移を簡便に検証可能となる。
本発明によれば、動画を視聴するユーザの反応の推移を簡便に検証可能とする情報処理装置、情報処理方法及びプログラムを提供することができる。
本発明の一実施形態に係る情報処理システムの構成例を示す図である。 同実施形態に係るサーバの構成例を示す図である。 動画と共に反応画像が表示された表示画面の一例を示す図である。 動画再生時間に対する反応指数が示された図である。 本発明の一実施形態に係る管理端末の構成例を示す図である。 同実施形態に係るサーバ、管理端末及びユーザ端末のハードウェア構成例を示す図である。 管理端末がサーバにアクセスしてからサーバがユーザ端末に動画データを送信するまでにおける、同実施形態に係る情報処理システムの処理を示すフローチャートである。 ユーザ端末において動画が再生されてから管理端末において検証結果が表示されるまでにおける、同実施形態に係る情報処理システムの処理を示すフローチャートである。 調査対象者のセグメントの選択を可能とする表示画面の一例を示す図である。 評価対象となる動画における一部の画像を時系列で並べた図である。 動画の視聴率及び反応指数の推移を示す図である。 評価対象となる動画において一部のシーンが入れ替えられることで新たに作成された動画における一部の画像を時系列で並べた図である。 元の動画における視聴率の推移と、新たに作成された動画において期待される視聴率の推移を示す図である。
添付図面を参照して、本発明の好適な実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。
図1に示すように、本発明の一実施形態に係る情報処理システム1は、サーバ10(情報処理装置)、管理端末20、ユーザ端末30及びネットワーク35を備える。サーバ10、管理端末20及びユーザ端末30は、互いにネットワーク35を介して、必要に応じて情報を送受信できるように接続されている。なお、図1には、サーバ10、管理端末20及びユーザ端末30は、それぞれ1つずつ示されているが、情報処理システム1は、サーバ10、管理端末20又はユーザ端末30を複数備えていてもよい。
サーバ10は、管理端末20から動画データを取得し、所定の画像を動画データに付与した上で、当該動画データをユーザ端末30に送信する。また、サーバ10は、ユーザ端末30のユーザによる所定の操作に基づき、動画を視聴するユーザによる操作に関する情報(以下、「操作情報」とも称する。)と動画の再生時間に関する情報とを取得する。さらに、サーバ10は、操作情報を動画の再生時間と関連付けて表示するための表示データを管理端末20に出力する。
管理端末20は、管理者によって管理されている通信端末である。本実施形態では、管理者は、広告用の動画を作成しており、作成した動画を視聴するユーザの反応を調査することを目的としているものとする。管理者は、管理端末20を用いて、評価対象となる動画データをサーバ10に送信し、動画を視聴するユーザの反応に関する情報を示す表示データをサーバ10から取得し、表示データに基づく画像を閲覧できる。これにより、管理者は、動画に対するユーザの反応を知ることができる。
ユーザ端末30は、ユーザにより使用されている通信端末である。本実施形態では、ユーザは、ユーザ端末30を用いて、サーバ10からユーザ端末30に送信された動画データに基づいて、動画を視聴することができる。さらに、ユーザは、動画が再生されている際に所定の操作を行うことで、当該操作に関する情報をサーバ10に送信することができる。本実施形態では、ユーザ及びユーザ端末30は、複数存在しており、複数のユーザに関わる各種の情報は、予めサーバ10に登録されているものとする。
図2を参照して、本実施形態に係るサーバ10の構成について説明する。図2に示すように、本実施形態に係るサーバ10は、動画DB110、付与部120、通信部130、指数取得部140、生成部150及び算出部160を備える。
動画DB110は、各種の動画データを記憶している。動画データは、画像のみを表示するためのデータであってもよいし、画像とともに音声を出力するためのデータであってもよい。また、動画データは、連続的に変化する画像を表示するためのデータであってもよいし、紙芝居のように非連続的に変化する画像を表示するためのデータであってもよい。動画DB110は、通信部130から動画データを受け取って、記憶してもよい。動画DB110が記憶している動画データは、必要に応じて付与部120により参照される。
付与部120は、動画データに基づく動画を視聴するユーザの反応を取得するための画像(以下、「反応画像」と称する。)を、動画データに対して付与する機能を有する。本明細書において、ユーザの反応とは、ユーザの内面に生じている状態であり、例えば、感情的な反応又は理性的な反応などであってよい。感情的な反応は、例えば、好き、嫌悪、納得、悲しみ、怒り、安心、感謝、驚愕、冷静、幸福、緊張、尊敬、満足、恥、及び嫉妬等の各種の感情が生じていることであってよい。また、理性的な反応は、例えば、納得又は正誤など、動画の内容に対して判断を行うことであってよい。付与部120が反応画像を付与する方法は特に限定されないが、例えば、JavaScript(登録商標)などの各種の公知のプログラミング言語を用いた方法であってもよい。
反応画像は、動画が再生される際に、当該動画とともに表示される。図3は、反応画像が動画と共に表示される表示画面400の一例を示す図である。図3には、動画402と共に表示された2つの反応画像を表示する表示画面400を示されている。図3に示す表示画面400は、例えば、ユーザ端末30に表示されてもよい。
図3には、動画402の下側に2つの反応画像(第1反応画像404及び第2反応画像406)が示されている。第1反応画像404及び第2反応画像406には、長方形の図形の中に「納得」又は「好き」という感情を示す文字が表示されている。ユーザは、これらの反応画像に対して、動画402が再生されている際に、所定の操作を行うことができる。所定の操作は、例えば、反応画像をクリックする操作であってもよい。ユーザ端末30がタッチパネルを有し、動画及び反応画像が当該タッチパネルに表示される場合には、所定の操作は当該反応画像をタッチする操作であってもよい。なお、図3には、2つの反応画像が示されているが、表示される反応画像の数は、1つであってもよいし、3つ以上であってもよい。また、図3では、反応画像が動画の下側に示されているが、反応画像が表示される位置は、動画402の左側、右側又は上側であってもよいし、反応画像は動画402に重ねて表示されてもよい。
図2に戻って、サーバ10の構成について説明する。通信部130は、各種の情報を送受信する機能を有する。通信部130は、例えば、動画データを管理端末20から受信することで、動画データを取得できる。このように、本実施形態では、通信部130は、動画取得部としての機能を有する。通信部130は、取得した表示データを動画DB110に伝達する。
また、通信部130は、反応画像が付与された動画データを付与部120から取得し、例えばユーザ端末30に送信することができる。これにより、ユーザ端末30には、反応画像と共に動画が再生される。このように、通信部130は、反応画像と共に動画をユーザ端末30に再生させることが可能な、再生部としての機能も有する。
また、本実施形態では、ユーザ端末30において反応画像と共に動画が再生されている際に、ユーザにより所定の操作が行われる。通信部130は、当該所定の操作に関する情報と動画の再生時間に関する情報をユーザ端末30から受信することができる。通信部130は、受信した操作情報と動画の再生時間に関する情報を指数取得部140に伝達する。動画の再生時間に関する情報は、例えば、ユーザにより所定の操作が行われたタイミングにおける、ユーザが視聴している動画の再生時間などであってもよい。
指数取得部140は、操作情報と当該動画の再生時間に関する情報(以下、「時間情報」とも称する。)を取得することができる。このように、本実施形態では、指数取得部140は、情報取得部としての機能も有する。操作情報は、動画が再生されている際に、所定の単位時間においてユーザにより所定の操作が行われた回数を表す情報であってもよい。また、時間情報は、例えば、ユーザ端末30において再生される動画の再生時間における特定の期間を表す情報であってよい。従って、指数取得部140は、再生される動画における特定の期間において、所定の単位時間あたり所定の操作が何回行われたのかを表す情報を取得することができる。指数取得部140は、所定の操作が行われた回数をユーザの反応に関する指数(以下、「反応指数」とも称する。)として取得することができる。指数取得部140は、例えば、感情的な反応に基づく所定の操作が行われた回数に応じた反応指数を感情指数として取得してもよいし、理性的な反応に基づく所定の操作が行われた回数に応じた反応指数を理性指数として取得してもよい。また、指数取得部140は、所定の時間毎の感情指数又は理性指数を取得することもできる。
指数取得部140が取得する反応指数は、ユーザを識別可能な情報(以下、単に「識別情報」とも称する。)と対応付けられていてもよい。指数取得部140は、予め登録されているユーザのセグメント情報を保持しているものとする。ユーザのセグメント情報とは、例えば、ユーザの性別、年齢、居住地域、婚歴、子供の有無、世帯年収又は職業などを表す情報であってもよい。ユーザのセグメント情報と識別情報とは対応付けられており、指数取得部140は、登録されたセグメント情報と、識別情報とを照らし合わせることで、取得した反応指数とセグメント情報とを関連付けることができる。指数取得部140は、取得した反応指数を生成部150又は算出部160に伝達する。
生成部150は、操作情報を動画の再生時間情報と関連付けて表示するための表示データを生成する機能を有する。図4を参照して、表示データに基づき表示される画像の一例について説明する。図4は、反応指数の推移を時系列で示す画像の一例である。このような画像は、例えば、管理端末20の表示画面に表示されてもよい。横軸は、動画の再生が開始されてから経過した時間(動画再生時間)であり、縦軸は、反応指数を示している。
図4には、感情指数及び理性指数の推移が棒グラフで示されている。具体的には、23秒間の動画において、単位時間1秒あたりの感情指数及び理性指数の推移が示されている。斜線が付された部分は理性指数を示し、斜線が付されていない部分は感情指数を示している。このようなグラフを参照することで、管理者は、動画の再生時におけるユーザの反応の推移を検証することができる。なお、図4に示す例では、1種類ずつの感情指数及び理性指数を表すグラフが示されているが、グラフには、感情指数のみが示されてもよいし、理性指数のみが示されてもよい。また、グラフには、1種類のみの感情指数又は理性指数が示されてもよいし、3種類以上の感情指数又は理性指数が示されてもよい。また、表示される反応指数は、複数のユーザによる反応指数が合算されることで生成された反応指数であってもよいし、1人のユーザによる反応指数であってもよい。反応指数を集計する単位時間は、1秒以外の時間であってもよい。
図2に戻って、サーバ10の構成について説明する。算出部160は、取得された複数の反応指数の統計的な数値を算出する機能を有する。当該数値により、管理者は、より正確に動画を検証することが可能になる。
統計的な数値は、例えば、複数の反応指数のうちの最大値と反応指数の平均値の差分であってもよい。上で説明した図4を参照して、最大値と反応指数の平均値の差分について説明する。図4に示す例では、1秒から23秒までの動画再生時間における反応指数の中で、19秒の動画再生時間における反応指数が最大値の37となっている。また、1秒から23秒の動画再生時間における反応指数の平均値は、15である。このため、算出部160は、最大値の37から平均値の15を差し引いた22を差分として算出することができる。当該差分が大きいほど、動画を視聴するユーザに大きな反応の起伏を生じさせることができると推定できる。
また、統計的な数値は、単位時間当たりの反応指数であってもよい。より具体的には、当該統計的な数値は、所定の動画再生期間における単位時間当たりの反応指数の平均値であってよい。図4に示す例では、例えば、統計的な数値は、23秒間の動画再生期間における1秒ごとの反応指数の平均値であってよい。単位時間当たりの反応指数が大きいほど、動画に対するユーザの感情の盛り上がりが大きいと推定できる。このように、単位時間当たりの反応指数を用いることで、より適切に動画を評価することが可能になる。
算出部160は、算出結果を生成部150に伝達する。これにより、生成部150は、算出結果を含む表示データを生成することができる。
図5を参照して、管理端末20の構成について説明する。図5に示すように、管理端末20は、入力部210、通信部220及び表示部230を備える。
入力部210は、ユーザの操作を受け付け、当該操作に応じた入力情報を生成する機能を有する。入力部210は、マウス、キーボード又はタッチパネルなどであってもよい。生成された入力情報は、通信部220に伝達される。
通信部220は、各種の情報を送受信する機能を有する。通信部220は、例えば、管理端末20が有する動画データ又は入力部210により生成された入力情報をサーバ10に送信することができる。また、通信部220は、サーバ10により送信された表示データなどを受信し、表示部230に伝達してもよい。
表示部230は、各種の情報を表示する機能を有する。表示部230は、例えば、液晶ディスプレイなどであってもよい。表示部230は、サーバ10から送信された表示データに基づき、反応指数又は算出結果などの各種の情報を表示することができる。
次いで、ユーザ端末30の構成について説明する。ユーザ端末30の構成は、管理端末20の構成と実質的に同一であるため、ユーザ端末30の図示は省略する。ここでは、ユーザ端末30における動作と管理端末20における動作との違いについて説明する。
ユーザ端末30の通信部は、サーバ10から反応画像の表示と共に動画を再生するための動画データを受信し、表示部に伝達することができる。表示部は、当該動画データに基づき、反応画像を表示するとともに、動画を再生することができる。
ユーザ端末30の入力部は、動画が再生されている際に、反応画像のクリック又はタッチなどの所定の操作を受け付け、当該操作に応じた入力情報を生成し、通信部220に伝達することができる。また、ユーザ端末30の通信部は、当該入力情報をサーバ10に送信することができる。当該入力情報は、反応指数の生成などに用いられる。
図6を参照して、上述したサーバ10、管理端末20及びユーザ端末30のハードウェア構成の一例について説明する。サーバ10、管理端末20及びユーザ端末30は、CPU、GPU(Graphical Processing Unit)等のプロセッサ11、メモリ、HDD(Hard Disk Drive)及び/又はSSD(Solid State Drive)等の記憶装置12、有線又は無線通信を行う通信IF(Interface)13、入力操作を受け付ける入力デバイス14、及び情報の出力を行う出力デバイス15を有する。入力デバイス14は、例えば、キーボード、タッチパネル、マウス及び/又はマイク等である。出力デバイス15は、例えば、ディスプレイ及び/又はスピーカ等である。
プロセッサ11は、記憶装置12に記憶されたプログラムの実行に関する制御やデータの演算、加工を行う制御部である。サーバ10では、プロセッサ11がプログラムを実行することにより、図2を用いて説明した様々な動作が実現される。
図7及び図8を参照して、本実施形態に係るサーバ10、管理端末20及びユーザ端末30による処理の一例について説明する。図7は、管理端末20がサーバ10にアクセスしてから、サーバ10がユーザ端末30に評価対象の動画データを送信するまでの処理を示すフローチャートである。また、図8は、ユーザ端末30が動画の再生を開始してから、管理端末20により検証結果が表示されるまでの処理を示すフローチャートである。以下、図7及び図8に沿って、サーバ10、管理端末20及びユーザ端末30による処理について説明する。
まず、管理端末20の通信部220は、例えば管理者による入力部210への操作に応じて、サーバ10に対して管理サイトへのアクセスを要求する(ステップS101)。次いで、サーバ10の通信部130は、管理端末20による要求に応じて、管理画面データを送信する(ステップS103)。これに応じて、管理端末20の通信部220は、管理画面データを受信し、表示部230に伝達する。すると、表示部230に、管理画面が表示される(ステップS105)。管理画面には、動画データのアップロードなどを受け付けるための画像などの各種の画像が表示される。
次いで、管理端末20は、動画データをサーバ10に送信する(ステップS107)。管理端末20は、例えば、管理者の操作に基づき、記憶している動画データを通信部220により管理端末20に送信してもよい。次いで、サーバ10は、管理端末20に、セグメント情報を取得するための入力画面データを送信する(ステップS109)。入力画面データの送信に応じて、管理端末20の表示部230に、セグメント入力画面が表示される(ステップS111)。
図9は、セグメント入力画面が表示された表示画面410の一例を示す図である。図9に示す表示画面410には、動画412及びセグメント情報を入力するための画像が表示されている。図9には、性別(男、女)及び年齢(20歳未満、20代、30代)を選択するためのテキストが表示されている。管理者は、各テキストの左側に表示されたチェックボックス414をクリック等することにより、調査対象者のセグメントを選択することができる。なお、セグメント入力画面には、図9に示すセグメント以外の情報が表示されてもよい。
管理者の操作に基づき、検証の対象となるユーザのセグメントが選択されると、管理端末20は、セグメント情報をサーバ10に送信する(ステップS113)。サーバ10の通信部130がセグメント情報を受信すると、付与部120は、ステップS107において送信された動画データに反応画像を付与する(ステップS115)。反応画像が付与された動画データは、通信部130により、選択されたセグメントに合致するユーザのユーザ端末30に送信される(ステップS117)。男性、20代というセグメントが選択されている場合には、サーバ10は、20代の男性として登録されているユーザからのアクセスに応答して、ユーザ端末30に動画データを送信する。これにより、動画データを送信されたユーザ端末30のユーザは、動画データに基づく動画を視聴可能になる。
次いで、図8を参照して、動画データがユーザ端末30の送信された後における情報処理システム1の処理について説明する。ユーザ端末30は、動画データに基づく動画を再生しつつ、ユーザによる入力を受け付ける(ステップS201)。このとき、ユーザ端末30の表示部に、動画が再生されつつ、反応画像が表示されている。動画が再生されている際に、ユーザは反応画像のクリックなど、所定の操作を行うことにより、入力を行うことができる。ユーザ端末30において、例えば「納得」を表す反応画像がクリックされると、当該反応画像がクリックされたことに基づく操作情報が入力情報として生成される。このとき、動画の再生時間に関わる情報も併せて入力情報として生成される。これらの入力情報は、所定の操作が行われる度に生成される。
次いで、ユーザ端末30は、入力情報をサーバ10に送信する(ステップS203)。ユーザ端末30は、所定の操作が行われる度に入力情報をサーバ10に送信してもよいし、例えば動画の再生が終了する際に、動画が再生されてから終了するまでに生成された入力情報をまとめてサーバ10に送信してもよい。所定の操作が行われる度に入力情報をサーバ10に送信する場合は、動画の再生時間に関わる情報をサーバ10側で生成してもよい。また、ユーザ端末30は、ユーザを識別可能な情報と共に入力情報をサーバ10に送信してもよい。入力情報がサーバ10に送信されると、サーバ10の通信部130は、入力情報を受信し、指数取得部140に伝達する。
次いで、指数取得部140は、反応指数を取得する(ステップS205)。具体的には、指数取得部140は、入力情報に含まれる操作情報に基づき、反応指数を生成する。例えば、指数取得部140は、検証の対象となっている動画データにおける動画再生時間の所定の期間について、単位時間当たりの反応画像がクリックされた回数をカウントする。このようにして、指数取得部140は、当該期間における単位時間当たりの反応指数を取得できる。また、指数取得部140は、1人又は複数の調査対象者による反応指数を集計し、集計した結果を用いることもできる。
このとき、指数取得部140は、ユーザを識別可能な情報と対応付けられた入力情報に基づき、反応指数を取得できる。これにより、指数取得部140は、どのようなユーザの反応指数であるかを認識することができる。本実施形態では、指数取得部140は、反応指数とセグメント情報とを対応付けることができる。このため、特定のセグメントのユーザと、当該ユーザが動画に対して示す反応とを対応付けることが可能になる。
次いで、管理端末20は、管理者による入力に応じて、サーバ10に反応指数の集計結果を要求する(ステップS207)。サーバ10の生成部150は、管理端末20からの要求に応じて、反応指数に基づく情報を表示するための表示データを生成する(ステップS209)。具体的には、生成部150は、時間情報と反応指数とを関連付けて表示するための表示データを生成する。生成部150は、例えば、図4を参照して説明したような画像を表示するための表示データを生成してもよい。生成された表示データは、通信部130に伝達される。
サーバ10の通信部130は、表示データを管理端末20に送信する(ステップS211)。管理端末20の通信部220が表示データを受信すると、表示部230は、表示データに基づき、集計結果を表示する(ステップS213)。これにより、管理者は、評価対象となっている動画データについて、動画が再生されている間において検査対象者に生じる反応の推移を検証可能となる。
ここで、ステップS213における処理が実施された後、評価対象となっている動画データに関する反応指数の集計が終了したものとする。管理端末20が検証結果をサーバ10に要求する(ステップS215)。すると、サーバ10の通信部130は、当該要求を表す情報を受信し、算出部160に当該情報を伝達する。
すると、算出部160は、指数取得部140により取得された反応指数の統計的な数値を算出する(ステップS217)。ここでは、算出部160は、評価対象となっている動画について取得された複数の反応指数に基づき、統計的な数値を算出する。例えば、算出部160は、単位時間当たりの反応指数の最大値と平均値の差分又は単位時間当たりの反応指数の平均値などの統計的な数値を算出する。算出部160は、算出結果を生成部150に伝達する。
次いで、生成部150は、算出結果を含む表示データを生成する(ステップS219)。具体的には、生成部150は、図4に示したような、動画の再生時間に対する反応指数を示すグラフに加えて、算出部160の算出結果を併せて表示するための表示データを生成する。また、生成部150は、複数の動画データが評価対象となっている場合には、これらの複数の動画データの各々のグラフ及び算出結果を示す表示データを生成してもよい。生成部150は、生成した表示データを通信部130に伝達する。
サーバ10の通信部130は、ステップS219において生成された表示データを管理端末20に送信する(ステップS221)。管理端末20の通信部220は、表示データを受信すると、当該表示データを表示部230に伝達する。すると、表示部230は、表示データに基づき、調査結果を示す表示画面を表示する(ステップS223)。表示画面には、例えば、2つ評価対象となっている動画の各々のグラフ及び算出結果が表示される。これにより、管理者は、2つの動画について、調査対象者に生じる感情の推移を比較することができる。なお、表示データには3つ以上の評価対象となっている動画に関するグラフ及び算出結果が含まれ、これらのグラフ及び算出結果が表示部230に表示されてもよい。
以上、本実施形態に係る情報処理システム1による処理について説明した。本実施形態に係る情報処理システム1によれば、管理者は、反応指数と時間情報との関係を認識することができる。このため、管理者は、視聴者が動画を視聴している際に、どのように反応が推移するのかを簡便に検証することができる。
従来の動画に対する視聴者の反応を調査する方法には、動画を視聴した視聴者に対して動画の感想などについてアンケートを取る手法があった。しかしながら、このような調査では、動画の視聴後に実施されるため、動画のどの時点でどのような感情が生じたのかを知ることが困難であった。本実施形態に係る情報処理システム1によれば、動画が再生されている際に、どのタイミングでどのような反応が視聴者にあったのかを知ることが可能になる。
以下では、上記のようにして得られる調査結果の用途について説明する。具体的には、調査結果を動画の編集に用いる方法について説明する。
ここでは、広告として用いられる動画(以下、単に「広告動画」とも称する。)が作成されるものとする。まず、広告動画が作成される前に、作成される広告動画の概略を示す絵コンテの動画が作成されるものとする。絵コンテの動画には、作成される広告動画におけるいくつかの場面を切り取った複数の画像及び音声が含まれる。絵コンテの動画が再生されると、表示される画像が所定の時間(例えば数秒)おきに切り替わるとともに、音声が出力される。
広告動画の作成者は、再生された絵コンテの動画に対する視聴者の反応に基づき、広告動画を作成する。具体的には、動画作成者は、上述した情報処理システム1を用いて、複数の動画を評価することができる。ここでは、動画作成者は、3つの動画(第1〜第3動画)を評価するものとする。例えば、これらの3つの動画は、記者会見に関する動画であるものとする。これらの動画では、例えば、記者会見を行っている人物が泣いている又は泣いていない等の違いがあるものとする。
ここで、3つの動画のそれぞれについて、情報処理システム1を用いて所定数のユーザに視聴してもらい、サーバ10の算出部160により、単位時間当たりの反応指数の平均値(以下、「平均反応指数」とも称する。)が算出され、第1動画の平均反応指数は15.4、第2動画の平均反応指数は13.9、第3動画の平均反応指数は16.7であるものとする。動画作成者は、これらの平均反応指数に基づき、これらの3つの動画の中で第3動画が最も視聴者の感情に大きな影響を与えると推測することができる。例えば、第3動画が、記者会見を行っている人物が泣いている様子を表示する動画である場合には、当該人物が泣いている方が、当該人物が泣いていない場合よりも、視聴者の感情に訴えたり、納得を得られたりすることができると推測することができる。このような推測の下、動画作成者は、第3動画を用いることで、より視聴者の反応を得られる広告動画を作成することができる。
一般的に、1つの広告動画を作成するためには、非常に高いコストがかかる。このため、コストに見合った広告動画を作成することが求められている。本実施形態に係る情報処理システム1を用いることで、広告動画を作成する前に絵コンテの動画を評価し、評価結果に応じて広告動画を作成できる。このため、本実施形態に係る情報処理システム1を用いることで、高いコストに見合った、質の良い広告動画を作成することが可能になる。
また、従来では、上述のような3つの絵コンテの動画を評価する際には、特定の人物が動画を視聴し、当該特定の人物の主観に基づき広告動画が作成されることが多かった。本実施形態に係る情報処理システム1によれば、多数の調査対象者の反応の推移に基づき、絵コンテの動画を評価することができるため、より適切な動画を作成することが可能になる。
また、ここで説明したような絵コンテの動画による評価にかかる費用は、広告動画を作成するために必要な費用よりもずっと低く、例えば、広告動画の作成費用の1%程度であり得る。このため、低いコストで動画の質を上げることができるため、動画作成の費用対効果を高めることが可能になる。
以上、本実施形態に係る情報処理システム1を用いて、広告動画を作成する前に絵コンテの動画を評価し、動画を作成する方法について説明した。次に、本実施形態に係る情報処理システム1を用いて、既に作成された広告動画を評価する方法について説明する。
図10には、既に作成された広告動画に用いられている画像の一部が示されている。図10に示す例では、先に表示される画像から順番に、第1画像500、第2画像502、第3画像504及び第4画像506が示されている。ここでは、作成された広告動画には、4つのシーンが含まれており、図10に示す4つの画像は、これらの4つのシーンを代表する画像であるものとする。ここで、動画作成者は、ユーザが所定のサイトにアクセスすることで、作成した広告動画を視聴できるようにし、当該動画の視聴率を調査する。また、動画作成者は、上述した情報処理システム1を用いて、作成した広告動画を評価する。
図11は、動画作成者により作成された広告動画の視聴率及び反応指数の動画再生時間に対する推移を示す図である。ここで、視聴率とは、動画を再生した視聴者のうち、その時間まで離脱することなく動画を再生している視聴者の割合を示す数値である。図11に示すように、作成された広告動画の視聴率は、動画再生時間が経過すると急速に減少している。つまり、再生された広告動画は、多くの視聴者により途中で再生が停止されてしまっていることがいえる。
図11には、視聴率に併せて、作成された広告動画の感情指数の推移も示されている。ここでは、電球の形状で示された理性指数510と、ハートマークで示された感情指数512とが示されている。ここで、理性指数510は「納得」という理性的な判断に関わる理性指数であり、感情指数512は、「好き」の感情に関わる感情指数である。これらの反応指数は、上述した動画再生時間の4つのタイミングに対応しているものとする。図11に示すように、動画の再生が開始されてから2番目のタイミングの反応指数は、理性指数510と感情指数512と足し合わせて7であり、他のタイミングの反応指数と比べて高い。すなわち、図10に示した第2画像502に対応するシーンにおいて、視聴者の感情が大きく揺さぶられていることが言える。一方、第1画像500に対応するシーンの反応指数は、他のシーンの反応指数と比べて低い。このため、動画作成者は、第1画像500のシーンが初めに表示されることで、視聴率が急速に低下すると推測することができる。
そこで、動画作成者は、第1画像500に対応するシーンと、第2画像502に対応するシーンとを入れ替えて、図12に示すような、新たな動画を作成することができる。これにより、視聴者の感情を揺さぶることが可能なシーンを動画の初めに表示させることができ、視聴率の低下を抑制することができると考えられる。
図13は、元の作成された広告動画の視聴率の推移と、新たに作成された広告動画において期待される視聴率の推移とを示す図である。図13には、元の作成された広告動画の視聴率が破線、新たに作成された広告動画において期待される視聴率が実線で示されている。図13に示すように、新たに作成された広告動画では、視聴者の感情を揺さぶるシーンが初めに表示されるため、視聴率が下がりにくくなり、広告動画が最後まで視聴される確率が高まることが期待できる。
一般的に、Web上の広告動画は、一度再生された場合であっても、最後まで視聴されるとは限らない。例えば、30秒の広告動画が、15秒程度しか視聴されない場合も多い。このため、本実施形態の情報処理システム1をWeb上の広告動画の作成に適用することで、より大きな効果が発揮されると考えられる。
また、本実施形態に係る情報処理システム1によれば、既に作成された動画を評価し、当該動画に基づいて、新たな動画を作成することができる。このため、一から新たな動画を作成しなくとも、既存の動画を用いて視聴率の高い動画を作成することが可能になる。
また、広告動画の視聴者は、広告動画を視聴することで刺激を受け、広告の商品を購入したりするといった行動を行う。このとき、視聴者が刺激を受けると、当該刺激に基づく反応(広告動画に生じる感情など)に応じて、視聴者が上述のような行動を行っている。従来の技術では、視聴者に刺激については視聴率、視聴者の行動については広告動画に関連するサイトへのアクセス回数等、に基づき調査することが可能であった。視聴者への刺激と視聴者の行動との間には、広告動画への視聴者の反応がある。従来では、当該反応を調査する方法として、特定のブランドの広告に触れたことがある人と触れたことのない人とで、当該ブランドに対する感情を調査するブランドリフト調査があった。本発明に係る情報処理システム1によれば、広告動画の視聴による刺激に基づく視聴者の反応の推移を、に検証できるようになる。また、視聴者の反応に基づき、上述のように広告動画を修正することで、より広告動画の視聴率が向上し、広告動画の効果を高めることが可能になる。
以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素及びその配置、材料、条件、形状、サイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。
図7及び図8に示したフローチャートにおける各処理は、これらのフローチャートに示した順番で実施されなくてもよい。各処理は、矛盾のない範囲で適宜入れ替えた順番で実施されてもよいし、あるいは、並列的に実施されてもよい。例えば、図7に示す処理において、ステップS115における動画データに反応画像を付与する処理は、動画データがサーバ10に送信される処理(すなわち、ステップS107における処理)が行われてから、動画データがユーザ端末30に送信される処理(すなわち、ステップS117における処理)が行われるまでのいずれのタイミングで実施されてもよい。例えば、動画データに反応画像を付与する処理は、ステップS107の処理が行われた直後に、サーバ10において実施されてもよい。
1…情報処理システム、10…サーバ、11…プロセッサ、12…記憶装置、14…入力デバイス、15…出力デバイス、20…管理端末、30…ユーザ端末、35…ネットワーク、120…付与部、130…通信部、140…指数取得部、150…生成部、160…算出部、210…入力部、220…通信部、230…表示部、400…表示画面、402…動画、404…第1反応画像、406…第2反応画像、410…表示画面、412…動画、500…第1画像、502…第2画像、504…第3画像、506…第4画像、510…理性指数、512…感情指数

Claims (7)

  1. 動画データを取得する動画取得部と、
    前記動画データに基づく動画を視聴するユーザの反応を取得するための画像を、前記動画データに対して付与する付与部と、
    ユーザのセグメントを選択可能な画面を表示するための画面データを通信端末に送信し、前記通信端末に表示された複数のセグメントから選択されたセグメントを示すセグメント情報を受信し、前記付与部により前記画像が付与された動画データを、前記セグメント情報に合致するユーザのユーザ端末に送信する通信部と、
    前記通信部により送信された動画データに基づく動画が前記ユーザ端末において再生されている際における前記画像に対する前記ユーザの操作に基づき、前記操作に関する情報と前記動画の再生時間に関する情報とを取得する情報取得部と、
    前記操作に関する情報を、前記動画の再生時間と関連付けて表示するための表示データを生成する生成部と、
    を備え
    前記情報取得部は、前記セグメント情報と、前記操作に関する情報に基づく前記反応に関する指数とを関連付ける、
    情報処理装置。
  2. 前記操作に関する情報に基づき、前記反応に関する指数の統計的な数値を算出する算出部、をさらに備える、
    請求項1に記載の情報処理装置。
  3. 前記統計的な数値は、単位時間当たりの前記反応に関する指数の最大値と平均値との差分である、
    請求項2に記載の情報処理装置。
  4. 前記統計的な数値は、単位時間当たりの前記反応に関する指数の平均値である、
    請求項2に記載の情報処理装置。
  5. 前記情報取得部は、前記ユーザを識別可能な情報と対応付けられた前記反応に関する情報を取得する、
    請求項1〜4のいずれか1項に記載の情報処理装置。
  6. 動画データを取得することと、
    前記動画データに基づく動画を視聴するユーザの反応を取得するための画像を、前記動画データに対して付与することと、
    ユーザのセグメントを選択可能な画面を表示するための画面データを通信端末に送信し、前記通信端末に表示された複数のセグメントから選択されたセグメントを示すセグメント情報を受信し、前記画像が付与された動画データを、前記セグメント情報に合致するユーザのユーザ端末に送信することと、
    前記送信された動画データに基づく動画が前記ユーザ端末において再生されている際における前記画像に対する前記ユーザの操作に基づき、前記操作に関する情報と前記動画の再生時間に関する情報とを取得することと、
    前記操作に関する情報を、前記動画の再生時間と関連付けて表示するための表示データを生成することと、
    ユーザのセグメントを示すセグメント情報と、前記操作に関する情報に基づく前記反応に関する指数とを関連付けることと、
    を含む、情報処理方法。
  7. コンピュータに、
    動画データを取得することと、
    前記動画データに基づく動画を視聴するユーザの反応を取得するための画像を、前記動画データに対して付与することと、
    ユーザのセグメントを選択可能な画面を表示するための画面データを通信端末に送信し、前記通信端末に表示された複数のセグメントから選択されたセグメントを示すセグメント情報を受信し、前記画像が付与された動画データを、前記セグメント情報に合致するユーザのユーザ端末に送信することと、
    前記送信された動画データに基づく動画が前記ユーザ端末において再生されている際における前記画像に対する前記ユーザの操作に基づき、前記操作に関する情報と前記動画の再生時間に関する情報とを取得することと、
    前記操作に関する情報を、前記動画の再生時間と関連付けて表示するための表示データを生成することと、
    ユーザのセグメントを示すセグメント情報と、前記操作に関する情報に基づく前記反応に関する指数とを関連付けることと、
    を実行させるためのプログラム。
JP2019212549A 2019-11-25 2019-11-25 情報処理装置、情報処理方法及びプログラム Active JP6745393B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019212549A JP6745393B1 (ja) 2019-11-25 2019-11-25 情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019212549A JP6745393B1 (ja) 2019-11-25 2019-11-25 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP6745393B1 true JP6745393B1 (ja) 2020-08-26
JP2021087034A JP2021087034A (ja) 2021-06-03

Family

ID=72146280

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019212549A Active JP6745393B1 (ja) 2019-11-25 2019-11-25 情報処理装置、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6745393B1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024028943A1 (ja) * 2022-08-01 2024-02-08 楽天モバイル株式会社 動画を視聴する視聴者の行動を集計するライブ配信

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030105A (ja) * 2001-07-11 2003-01-31 Sony Corp コンテンツ評価システム、コンテンツ評価装置、コンテンツ評価方法、コンテンツ評価プログラム及びコンテンツ評価プログラム格納媒体
JP2005295266A (ja) * 2004-03-31 2005-10-20 Victor Co Of Japan Ltd 受信装置
JP2007151057A (ja) * 2005-10-25 2007-06-14 Dainippon Printing Co Ltd 評価感想情報を利用した映像コンテンツ閲覧システム
JPWO2008050613A1 (ja) * 2006-10-25 2010-02-25 シャープ株式会社 コンテンツ再生装置、コンテンツ再生方法、サーバ、コンテンツ再生システム、コンテンツ再生プログラム、および記録媒体
US20100005393A1 (en) * 2007-01-22 2010-01-07 Sony Corporation Information processing apparatus, information processing method, and program
JP2009038420A (ja) * 2007-07-31 2009-02-19 G Mode:Kk コンテンツ評価ソフトウェア及びサービス提供システム
JP2015073175A (ja) * 2013-10-02 2015-04-16 日本写真印刷株式会社 動画スタンプシステム、動画スタンプシステムの端末装置、動画スタンプシステムのスタンプサーバ、及び動画スタンプシステムのプログラム
JP5931257B1 (ja) * 2015-03-31 2016-06-08 株式会社トライグループ 動画再生装置及びプログラム
JP6304847B1 (ja) * 2017-04-28 2018-04-04 株式会社コナミデジタルエンタテインメント サーバ装置、及びそれに用いられるコンピュータプログラム

Also Published As

Publication number Publication date
JP2021087034A (ja) 2021-06-03

Similar Documents

Publication Publication Date Title
US11064257B2 (en) System and method for segment relevance detection for digital content
US20140325557A1 (en) System and method for providing annotations received during presentations of a content item
US20190098371A1 (en) Media narrative presentation systems and methods with interactive and autonomous content selection
US9268866B2 (en) System and method for providing rewards based on annotations
CN109842453B (zh) 通过观众反馈的广告选择
CN104782138B (zh) 缩略图图像选择系统、方法及计算机可读介质
US11343595B2 (en) User interface elements for content selection in media narrative presentation
Zhu et al. Measuring individual video qoe: A survey, and proposal for future directions using social media
KR20140108552A (ko) 동영상 동시발생 통계에 기반한 동영상 추천
US11812105B2 (en) System and method for collecting data to assess effectiveness of displayed content
US11137886B1 (en) Providing content for broadcast by a messaging platform
Semerádová et al. The (in) effectiveness of in-stream video ads: Comparison of facebook and youtube
CN112801684A (zh) 广告的播放方法及装置
JP6745393B1 (ja) 情報処理装置、情報処理方法及びプログラム
US11023664B2 (en) Persisting annotations applied to an electronic hosted whiteboard
US20150234924A1 (en) System and method for controlled syndication and population of database information
US11175807B1 (en) Intelligent contextual video thumbnail display
JP6567461B2 (ja) 認識装置、映像コンテンツ提示システム、プログラム
JP2019511139A (ja) ビデオ及び関連文書を提示するための並びにその視聴を追跡するためのシステム及び方法
US20230177532A1 (en) System and Method for Collecting Data from a User Device
US20230343368A1 (en) Tokenizing a manipulated short-form video
US20210368241A1 (en) System and method for curating internet multimedia content for television broadcast
Jeong et al. Jockey time: making video playback to enhance emotional effect

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191126

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191126

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200430

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200730

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200803

R150 Certificate of patent or registration of utility model

Ref document number: 6745393

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250