JP4865811B2 - 視聴傾向管理装置、システム及びプログラム - Google Patents

視聴傾向管理装置、システム及びプログラム Download PDF

Info

Publication number
JP4865811B2
JP4865811B2 JP2008549381A JP2008549381A JP4865811B2 JP 4865811 B2 JP4865811 B2 JP 4865811B2 JP 2008549381 A JP2008549381 A JP 2008549381A JP 2008549381 A JP2008549381 A JP 2008549381A JP 4865811 B2 JP4865811 B2 JP 4865811B2
Authority
JP
Japan
Prior art keywords
interest
content
viewer
information
viewing tendency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008549381A
Other languages
English (en)
Other versions
JPWO2008072739A1 (ja
Inventor
光一 菊池
誠司 尾崎
直幹 金森
裕之 金田
渡 倉島
剛 花村
Original Assignee
株式会社Vis総研
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Vis総研 filed Critical 株式会社Vis総研
Priority to JP2008549381A priority Critical patent/JP4865811B2/ja
Publication of JPWO2008072739A1 publication Critical patent/JPWO2008072739A1/ja
Application granted granted Critical
Publication of JP4865811B2 publication Critical patent/JP4865811B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • H04N7/17309Transmission or handling of upstream communications
    • H04N7/17318Direct or substantially direct transmission and handling of requests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/435Filtering based on additional data, e.g. user or group profiles
    • G06F16/436Filtering based on additional data, e.g. user or group profiles using biological or physiological data of a human being, e.g. blood pressure, facial expression, gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/435Filtering based on additional data, e.g. user or group profiles
    • G06F16/437Administration of user profiles, e.g. generation, initialisation, adaptation, distribution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/251Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/252Processing of multiple end-users' preferences to derive collaborative data

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Molecular Biology (AREA)
  • Physiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、視聴者の生理反応に基づいてコンテンツに対する視聴者応答を評価し、その評価結果から視聴傾向を分析する技術に関するものである。
従来、視聴者の生理反応の一つである眼球運動に基づいて映像コンテンツを評価する装置が知られている(特許文献1を参照)。この映像コンテンツ評価装置は、映像コンテンツを視聴する視聴者の眼球を赤外線カメラで撮影し、その眼球画像信号を二値化処理して眼球運動データを得て、時間軸における眼球運動データのグラフをディスプレイに表示することにより、映像コンテンツを評価するものである。
特開2004−282471号公報
ところで、映像コンテンツ評価装置が映像コンテンツを評価した情報を蓄積し、例えば、その蓄積情報に基づいて視聴者が嗜好する情報を生成した場合には、この嗜好情報は、視聴者にとっても映像コンテンツを提供する業者にとっても利用価値の高い有用な情報と成り得る。
前述した映像コンテンツ評価装置は、一方的に提示された映像コンテンツに対して視聴者の受動的な反応を測定することにより、映像コンテンツを評価するものに過ぎない。したがって、評価情報に基づいて、視聴者やコンテンツ提供事業者にとって利用価値の高い有用な情報を生成し提示するものではない。
また、視聴者へ嗜好情報を提示する場合、視聴している映像コンテンツに対する視聴者の応答を評価し、その映像コンテンツに対する視聴者の興味や関心に応じた情報を、視聴者により複雑な操作がなされることなく提示できることが望ましい。
そこで、本発明は前記課題を解決するためになされたものであり、その目的は、コンテンツに対する視聴傾向を求めることにより、データ入力やキー操作等の複雑な操作を行うことなく、視聴者またはコンテンツ提供者等にとって利用価値の高い有用な情報を提示可能な視聴傾向管理装置、システム及びプログラムを提供することにある。
本発明は、視聴者がコンテンツを視聴しているときに、視聴者の生理反応情報(例えば眼球運動)を測定及び解析し、コンテンツに対する興味・関心度を算出して視聴傾向を分析し、そして、その分析結果から視聴者やコンテンツ提供事業者等に提示するための情報を生成することを特徴とする。尚、提示するための情報を生成することには、複数のコンテンツや情報の中から必要なコンテンツ等を選択することも含むものとする。
すなわち、本発明による視聴傾向管理装置は、コンテンツを視聴する視聴者の生理反応情報に基づいて、前記コンテンツに対する視聴傾向を分析し、前記分析した情報から提示情報を生成して出力する視聴傾向管理装置において、前記コンテンツを視聴する視聴者の眼球画像を含む生理反応情報を取得し、前記生理反応情報に基づいて、前記コンテンツに対する興味・関心度を算出する興味・関心度算出部と、前記コンテンツに対し予め設定された複数の画面領域について、前記興味・関心度算出部により算出された興味・関心度を用いて、前記眼球画像から得られた視点が前記画面領域内に存在するときの興味・関心度をそれぞれ求め、前記興味・関心度が予め設定された閾値に到達した時点から、前記視点が前記画面領域から外れる時点までの間の時間を、興味・関心継続時間として前記画面領域毎に算出する視聴傾向分析部と、前記視聴傾向分析部により算出された画面領域毎の興味・関心継続時間と予め設定された時間とを比較し、前記画面領域毎の好感及び嫌悪感の判定を行い、前記予め設定された複数の画面領域の数及び前記好感と判定した画面領域の数に基づいて好感度を算出し、前記予め設定された複数の画面領域の数及び前記嫌悪感と判定した画面領域の数に基づいて嫌悪感度を算出し、提示情報として出力する情報処理部とを備えたことを特徴とする。また、本発明による視聴傾向管理装置は、コンテンツを視聴する視聴者の生理反応情報に基づいて、前記コンテンツに対する視聴傾向を分析し、前記分析した情報から提示情報を生成して出力する視聴傾向管理装置において、前記コンテンツを視聴する複数の視聴者の眼球画像を含む生理反応情報をそれぞれ取得し、前記生理反応情報に基づいて、前記コンテンツに対する興味・関心度を前記視聴者毎に算出する興味・関心度算出部と、前記興味・関心度算出部により算出された興味・関心度を用いて、前記コンテンツに対して予め設定された画面領域及び時間区間についての興味・関心度を、前記視聴者毎にそれぞれ算出する視聴傾向分析部と、前記視聴傾向分析部により算出された興味・関心度と予め設定された閾値とを比較して、前記画面領域に注目していたか否かを判定し、前記複数の視聴者の中で、前記画面領域に注目していたと判定した視聴者の数の割合、前記画面領域に注目していたと判定した視聴者の眼球画像により得られた視点が前記画面領域内に滞留していた時間長、前記画面領域に注目していたと判定した全ての視聴者における興味・関心度の平均、分散、標準偏差、最大値及び最小値のうちの少なくとも一つを算出し、提示情報として出力する情報処理部とを備えたことを特徴とする。
また、本発明による視聴傾向管理システムは、視聴者により要求されたコンテンツを配信するコンテンツ配信装置、前記配信されたコンテンツを受信して表示器に表示する端末装置前記表示器に表示されたコンテンツを視聴する視聴者に対し、生理反応を計測する生理反応計測装置と、前記視聴者の生理反応情報を前記生理反応計測装置から入力する前記視聴傾向管理装置とを備えたことを特徴とする。
また、本発明による視聴傾向管理プログラムは、コンピュータを、前記視聴傾向管理装置として機能させることを特徴とする。
本発明によれば、コンテンツに対する視聴傾向を求めることにより、データ入力やキー操作等の複雑な操作を行うことなく、視聴者またはコンテンツ提供者等にとって利用価値の高い有用な情報を提示可能な視聴傾向管理装置、システム及びプログラムを実現することができる。
本発明の実施の形態による視聴傾向管理システムの全体構成を示すブロック図である。 図1の視聴傾向管理サーバの構成を示すブロック図である。 初期処理を示すフローチャート図である。 図3の処理における情報の流れを示す図である。 視聴傾向分析処理を示すフローチャート図である。 興味・関心度の推移を示す図である。 ウェブページの領域分割を示す図である。 領域毎に区分される興味・関心度の推移を示す図である。 推薦コンテンツ提示処理を示すフローチャート図である。 図9の処理における情報の流れを示す図である。 推薦コンテンツ提示処理における画面推移を示す図である。 注目オブジェクト情報提示処理を示すフローチャート図である。 注目オブジェクト情報提示処理における画面推移を示す図である。 視聴傾向影響度情報提示処理を示すフローチャート図である。 視聴傾向影響度情報提示処理を説明する図である。 提示コンテンツ切替処理を説明するための視聴傾向管理システムの全体構成を示すブロック図である。 提示コンテンツ切替処理を説明するための興味・関心度の推移を示す図である。 提示コンテンツ切替処理を示すフローチャート図である。 図18のフローチャートにおける提示コンテンツ決定処理を説明する図である。 注目度判定処理を示すフローチャート図である。 注目度判定処理を説明するための興味・関心度の推移を示す図である。 注目度判定処理を説明するためのオブジェクトを示す図である。 好感・嫌悪感判定処理を示すフローチャート図である。 インプレッション評価処理を示すフローチャート図である。 指定領域エモーショナル効果処理を示すフローチャート図である。 興味・関心継続時間を説明するための図である。 嫌悪感が生じるオブジェクト及び好感が生じるオブジェクトに対する興味・関心度の例を示す図である。
符号の説明
1 視聴者
2,200 視聴傾向管理システム
10 コンテンツ提示・生理反応・視聴者応答計測装置
11 ディスプレイ
12 入力デバイス
13 生理反応計測装置
14 IRライト
100 視聴傾向管理サーバ
101 生理反応・視聴者応答データベース
102 基準コンテンツ用データベース
103 個人属性・視聴傾向等データベース
104 ネットワーク
105 コンテンツ配信サーバ
106 提示コンテンツ用データベース
110 コンテンツ読出提示部
120 情報取込部
130 興味・関心度算出部
140 視聴傾向分析部
150 情報処理部
151 推薦コンテンツ処理手段
152 注目オブジェクト情報処理手段
153 視聴傾向影響度処理手段
154 提示コンテンツ切替処理手段
155 注目度判定処理手段
156 好感・嫌悪感判定処理手段
157 インプレッション評価処理手段
158 指定領域エモーショナル効果処理手段
以下、本発明を実施するための最良の形態について図面を参照して説明する。
図1は、本発明の実施の形態による視聴傾向管理システムの全体構成を示すブロック図である。この視聴傾向管理システム2は、視聴者である視聴者1によるコンテンツに対する生理反応(眼球運動)情報及び視聴者応答を入力し、コンテンツに対する視聴者1の興味・関心度を算出し、この興味・関心度に基づいて視聴傾向を分析し、視聴傾向から視聴者1またはコンテンツ提供事業者等に対して有用な情報を生成し提示するものである。
視聴傾向管理システム2は、視聴者1に対するコンテンツ提示用及び嗜好情報提示用のディスプレイ11、視聴者1により視聴者応答の入力操作がされるマウス等の入力デバイス12、赤外線ランプであるIRライト14により視聴者1の眼球運動を撮影するカメラを含む生理反応計測装置13、コンテンツをディスプレイ11に表示して生理反応情報及び視聴者応答を入力デバイス12から入力する入力部、及び視聴傾向管理サーバ100へ生理反応情報等を送信する送信部等を備えたコンテンツ提示・生理反応・視聴者応答計測装置(端末装置)10、このコンテンツ提示・生理反応・視聴者応答計測装置10から生理反応情報等を受信して視聴者1の視聴傾向を管理する視聴傾向管理サーバ100、生理反応・視聴者応答データベース101、基準コンテンツ用データベース102、個人属性・視聴傾向等データベース103、提示用の動画像コンテンツが蓄積された提示コンテンツ用データベース106、視聴者1からの要求に従い提示コンテンツ用データベース106からコンテンツを読み出してコンテンツ提示・生理反応・視聴者応答計測装置10へ配信する配信部を備えたコンテンツ配信サーバ105、及び、コンテンツ提示・生理反応・視聴者応答計測装置10と視聴傾向管理サーバ100とコンテンツ配信サーバ105との間をインターネットやLAN等のネットワーク通信により接続するネットワーク104を備えて構成される。
コンテンツ提示・生理反応・視聴者応答計測装置10は、提示コンテンツ用データベース106からコンテンツ配信サーバ105及びネットワーク104を介してコンテンツを読み出し、ディスプレイ11に表示する。また、視聴者1による入力デバイス12の操作に従った視聴者応答を入力すると共に、これに同期して、視聴者1の眼球画像である生理反応情報を生理反応計測装置13から入力する。これらの視聴者応答及び生理反応情報は、ネットワーク104及び視聴傾向管理サーバ100を介して生理反応・視聴者応答データベース101に蓄積される。また、コンテンツ提示・生理反応・視聴者応答計測装置10は、視聴傾向管理サーバ100により生成された視聴者1の嗜好情報を受信し、ディスプレイ11に表示する。
次に、視聴傾向管理サーバ100について説明する。図2は、図1に示した視聴傾向管理サーバ100の構成を示すブロック図である。この視聴傾向管理サーバ100は、コンテンツ読出提示部110、情報取込部120、興味・関心度算出部130、視聴傾向分析部140及び情報処理部150を備えている。また、視聴傾向管理サーバ100には、生理反応・視聴者応答データベース101、基準コンテンツ用データベース102及び個人属性・視聴傾向等データベース103が接続され、各種情報の書き込み及び読み出しが行われる。視聴者1がコンテンツを視聴しているときに、生理反応・視聴者応答データベース101には、その視聴者のコンテンツに対する生理反応情報及び視聴者応答が順次蓄積され、個人属性・視聴傾向等データベース103には、その視聴者のコンテンツに対する興味・関心度が順次蓄積され、また視聴傾向ベクトル等の視聴傾向情報も順次蓄積される。
視聴傾向管理サーバ100は、以下の(1)〜(4)までの一連の処理を行う。
(1)初期処理
視聴者1である視聴者毎に、基準コンテンツに対する興味・関心度及び視聴者傾向ベクトルを算出して個人属性・視聴傾向等データベース103に蓄積すると共に、視聴者の個人属性情報cを収集して個人属性・視聴傾向等データベース103に蓄積する。ここで、基準コンテンツとは、視聴者個人の視聴傾向や視聴嗜好の判断材料となる補助データを収集するためのコンテンツをいう。例えば、模様無し画像、記号が移動するだけの画像または風景の画像、または、これらの用に供するネットワーク上に存在する任意のコンテンツも利用可能である。外部コンテンツを利用する場合、基準コンテンツ用データベース102にはそのコンテンツのロケーション情報が記録される。また、個人属性情報cとは、視聴者個人の職業、職種、性別、年齢、既婚/未婚、過去の住所、現在の住所、年収、世帯構成等の情報をいう。
(2)生理反応情報・視聴者応答蓄積処理
視聴者が視聴しているコンテンツに対する生理反応情報a及び視聴者応答bを生理反応・視聴者応答データベース101に蓄積する。ここで、生理反応情報aとは、コンテンツを視聴している視聴者の眼球運動に関する情報等をいう。また、視聴者応答bとは、視聴者が視聴しているコンテンツに同期して、入力デバイス12の操作により指示されるマウスカーソル位置(座標)及びマウスクリック位置(座標)等の情報をいう。
(3)視聴傾向分析処理
視聴者が視聴しているコンテンツに対する興味・関心度を算出して個人属性・視聴傾向等データベース103に蓄積する。また、興味・関心度の単位時間あたりの平均値を算出して視聴傾向ベクトルを求め、興味関心度の平均値及び視聴傾向ベクトル等を視聴傾向情報として個人属性・視聴傾向等データベース103に蓄積する。この処理により、視聴者及びコンテンツの組み合わせ毎に視聴傾向情報が順次蓄積される。このように蓄積された視聴傾向情報は、視聴者の嗜好に合わせた情報等の生成のために用いられる。
(4)提示情報生成処理
視聴傾向処理により生成された視聴傾向ベクトル等の視聴傾向情報に基づいて、視聴者やコンテンツ提供事業者等へ提示するための情報を生成する。
以下、(1)〜(4)の各処理について詳細に説明する。
〔初期処理〕
まず、(1)初期処理について説明する。この初期処理により、基準コンテンツに対する興味・関心度及び視聴者傾向ベクトル、さらに個人属性情報cが個人属性・視聴傾向等データベース103に蓄積される。図3は初期処理を示すフローチャート図、図4は初期処理における情報の流れを示す図である。図2を参照して、基準コンテンツ用データベース102には、基準コンテンツが予め蓄積されているものとする。コンテンツ読出提示部110は、基準コンテンツ用データベース102から基準コンテンツを読み出し、ネットワーク104を介してコンテンツ提示・生理反応・視聴者応答計測装置10へ送信すると共に、基準コンテンツのフレーム番号等の時間情報を情報取込部120に出力する。この送信された基準コンテンツは、コンテンツ提示・生理反応・視聴者応答計測装置10によりディスプレイ11に表示される(ステップS301)。
情報取込部120は、コンテンツ読出提示部110から基準コンテンツの時間情報を入力する。また、視聴者1がディスプレイ11に表示された基準コンテンツを視聴し、入力デバイス12を操作すると、情報取込部120は、コンテンツ提示・生理反応・視聴者応答計測装置10及びネットワーク104を介して生理反応情報a及び視聴者応答bを入力する。そして、情報取込部120は、生理反応情報a及び視聴者応答bと基準コンテンツとの間の対応付けができるように、入力したコンテンツの時間情報に基づいて同期情報を生成して、生理反応情報a、視聴者応答b及び同期情報を生理反応・視聴者応答データベース101に蓄積すると共に、興味・関心度算出部130に出力する。
興味・関心度算出部130は、情報取込部120から生理反応情報a、視聴者応答b及び同期情報を入力し(ステップS302)、視聴者1の瞳孔径を算出して興味・関心度及び視点位置を算出し、興味・関心度、視点位置及び同期情報を個人属性・視聴傾向等データベース103に蓄積すると共に、視聴傾向分析部140に出力する(ステップS303)。具体的には、興味・関心度算出部130は、生理反応情報aから瞳孔画像を抽出し、瞳孔の中心位置及び予め設定された画面上の位置情報等に基づいて視点位置を算出する。この場合、時間変化における視点位置を算出することにより、視点の移動速度や視点の軌跡等の視線運動データを求めることもできる。また、抽出した瞳孔画像に基づいて、瞳孔径を算出する。さらに、抽出した瞳孔画像の時間的変化に基づいて、瞬目発生頻度を算出し、瞬目回数を求めることもできる。また、同時に瞳孔径の変化速度及び加速度等を求めることもできる。
そして、興味・関心度算出部130は、算出した瞳孔径を用いて、興味・関心度を以下のように算出する。尚、興味・関心度算出部130は、視線運動データ、瞬目発生頻度または瞳孔の大きさ等の瞳孔画像から得られる情報に基づいて、興味・関心度を算出するようにしてもよい。P(t)を時刻tにおける瞳孔径、I(t)を時刻tにおける興味・関心度とすると、興味・関心度算出部130は、まず、瞳孔径P(t)に対して、高周波成分及び測定ノイズを除去するために、移動平均等の演算を施すことにより、低域フィルタ処理を行う。
そして、以下の式により、値域を[0,100]とした時系列の興味・関心度I(t)を算出する。
Figure 0004865811
ここで、所定時間内における測定データ系列中の瞳孔径P(t)の最大値をPmax、最小値をPmin、閾値をthとする。
閾値thは、例えば以下の式のように、最大値Pmaxと最小値Pminとの間の中間値が用いられる。
Figure 0004865811
尚、興味・関心度算出部130は、算出した瞬目発生頻度が、予め設定された閾値よりも大きいか否かを判断し、連続的に閾値よりも大きくなっている連続的瞬目発生区間については興味・関心度I(t)を強制的に0にするようにしてもよい。
視聴傾向分析部140は、興味・関心度算出部130または個人属性・視聴傾向等データベース103から興味・関心度、視点位置及び同期情報を入力し、視聴傾向ベクトル等を算出し、基準コンテンツの同期情報及び視聴傾向ベクトル等を個人属性・視聴傾向等データベース103に蓄積する(ステップS304)。視聴傾向ベクトルの算出手法の詳細については後述する。
また、情報取込部120は、視聴者1による入力デバイス12の操作により、ネットワーク104を介して個人属性情報cを入力し、個人属性・視聴傾向等データベース103に蓄積する(ステップS305)。
〔生理反応情報・視聴者応答蓄積処理〕
次に、(2)生理反応情報・視聴者応答蓄積処理について説明する。この処理により、視聴者1に提示されたコンテンツに対する生理反応情報及び視聴者応答が生理反応・視聴者応答データベース101に蓄積される。
視聴者1の要求に従って、コンテンツ配信サーバ105は、提示コンテンツ用データベース106からコンテンツを読み出し、ネットワーク104を介してコンテンツ提示・生理反応・視聴者応答計測装置10へ配信する。この配信されたコンテンツは、コンテンツ提示・生理反応・視聴者応答計測装置10によりディスプレイ11に表示される。また、コンテンツ配信サーバ105によるコンテンツの配信に伴い、視聴傾向管理サーバ100のコンテンツ読出提示部110は、そのコンテンツのフレーム番号等の時間情報をネットワーク104を介して入力し、情報取込部120に出力する。
情報取込部120は、コンテンツ読出提示部110からコンテンツの時間情報を入力する。また、視聴者1がディスプレイ11に表示された基準コンテンツを視聴し、入力デバイス12を操作すると、ネットワーク104を介して生理反応情報a及び視聴者応答bを入力する。そして、情報取込部120は、生理反応情報a及び視聴者応答bとコンテンツとの間の対応付けができるように、入力したコンテンツの時間情報に基づいて同期情報を生成する。そして、情報取込部120は、生理反応情報a、視聴者応答b及び同期情報を生理反応・視聴者応答データベース101に蓄積する。
〔視聴傾向分析処理〕
次に、(3)視聴傾向分析処理について説明する。この処理により、視聴者のコンテンツに対する興味・関心度及び視聴傾向ベクトル等の視聴傾向情報が個人属性・視聴傾向等データベース103に蓄積される。図5は、視聴傾向分析処理を示すフローチャート図である。図2を参照して、前述の(2)生理反応情報・視聴者応答蓄積処理により、情報取込部120が、生理反応情報a、視聴者応答b及び同期情報を生理反応・視聴者応答データベース101に蓄積すると共に、これらの情報を興味・関心度算出部130に出力する。
興味・関心度算出部130は、情報取込部120または生理反応・視聴者応答データベース101から生理反応情報a、視聴者応答b及び同期情報を入力し、瞳孔径を算出し(ステップS501)、瞳孔径から興味・関心度を算出し、興味・関心度、視点位置及び同期情報を視聴傾向分析部140に出力すると共に、個人属性・視聴傾向等データベース103に蓄積する(ステップS502)。具体的には、興味・関心度算出部130は、前述したように、生理反応情報aから瞳孔画像を抽出して視点位置を算出する。また、視点の移動速度や視点の軌跡等の視線運動データを求め、瞳孔画像に基づいて瞳孔径を算出する。さらに、抽出した瞳孔画像の時間的変化に基づいて、瞬目発生頻度を算出し、瞬目回数を求める。そして、興味・関心度算出部130は、算出した瞳孔径を用いて、前述の(1)式に示したように、興味・関心度を算出する。
視聴傾向分析部140は、興味・関心度算出部130または個人属性・視聴傾向等データベース103から興味・関心度及び同期情報を入力し、視聴傾向ベクトル等を算出し、コンテンツの同期情報及び視聴傾向ベクトル等を個人属性・視聴傾向等データベース103に蓄積する(ステップS503)。これにより、個人属性・視聴傾向等データベース103には、視聴傾向ベクトル等が視聴者毎及び視聴者が視聴したコンテンツ毎(視聴者及びコンテンツの組み合わせ毎)に独立して蓄積される。
以下、視聴傾向ベクトルの算出手法について、コンテンツが動画の場合と、ウェブページ等の場合に分けて説明する。まず、コンテンツが動画の場合について説明する。図6に示すように、視聴傾向分析部140は、動画メディアの連続する複数フレーム(シーケンス、シーン、カット等)に対応する時間区間jにおいて、興味・関心度の時間変動I(t)の単位時間あたりの平均値(興味・関心度の平均値qj)を以下のように算出する。シーケンス、シーン、カット等に対応する時間区間jは、予め手入力等により設定される。
Figure 0004865811
これを、サンプリング周波数Sでサンプリングされた離散値I(i)により表現すると、以下のようになる。
Figure 0004865811
ここで、t1,t2に対応するサンプル点をそれぞれi=u,vとする。
そして、視聴傾向分析部140は、視聴者Xの視聴傾向ベクトルを、連続する時間区間[0,n]毎の興味・関心度においてその興味・関心度の単位時間あたりの平均値qjの数列により設定する。
Figure 0004865811
ここで、xは視聴者を特定する番号である。
次に、コンテンツがウェブページの場合について説明する。この場合の視聴傾向ベクトルは、ウェブページの各領域において、興味・関心度の単位時間あたりの平均値である。図7に示すように、ウェブページがA〜Gの各領域に予め分割されているものとする。視聴傾向分析部140は、まず、図8に示す興味・関心度I(t)において、視点位置の情報に基づいて、視点の滞留領域を特定しラベル付けする。図8において、時間区間j−4の視点滞留領域はA(A0)、区間j−3の視点滞留領域はB(B0)等のようにラベル付けする。このラベル付けは、各領域を規定する矩形の4つの頂点の座標値と当該時間での視点の座標値との間の大小関係により行われる。
例えば、B領域に着目して、時間区間j−3,j,j+2,j+4,・・・,j+(n−1)のラベルB0,B1,B2,B3,・・・Bn−1について、それぞれの時間帯dB0,dB1,dB2,・・・,dBn−1における滞留時間をTB0,TB1,TB2,TB3,・・・,TBn−1とすると、領域Bに対する興味・関心度の単位時間あたりの平均値qBは、以下のようになる。
Figure 0004865811
ここで、TBは、領域Bに視点が滞留している総時間で以下によって算出する。
Figure 0004865811
これを、サンプリング周波数をSとして各時間区間におけるサンプル点数をSB0,SB1,SB2,SB3,・・・,SBn−1により表現すると、以下のようになる。
Figure 0004865811
ここで、SBは、領域Bに視点が滞留している時間の総サンプル点数であり、以下によって算出する。
Figure 0004865811
そして、視聴傾向分析部140は、視聴者Xの視聴傾向ベクトルを、分割されたウェブページの領域毎の興味・関心度においてその興味・関心度の単位時間あたりの平均値qrの数列により設定する。ここで、rは領域番号(ラベル)を示し、図7及び図8ではr=A,B,C・・・,Gである。
Figure 0004865811
ここで、xは視聴者を特定する番号である。以上、コンテンツがウェブページの場合について説明したが、コンテンツが静止画像の場合も、同様にして視聴傾向ベクトルを算出することができる。
また、視聴傾向分析部140は、後述する情報処理部150における視聴傾向影響度処理手段153の処理のために、コンテンツのシーンに対する興味・関心度の単位時間あたりの平均値を、前述の(3)式及び(4)式のように算出し、この平均値を視聴傾向情報として個人属性・視聴傾向等データベース103に蓄積すると共に、情報処理部150に出力する。また、視聴傾向分析部140は、後述する情報処理部150における好感・嫌悪感判定処理手段156、インプレッション(印象)評価処理手段157及び指定領域エモーショナル(情動)効果処理手段158の処理のために、所定領域における興味・関心度等を視聴傾向情報として個人属性・視聴傾向等データベース103に蓄積すると共に、情報処理部150に出力する。
〔提示情報生成処理〕
次に、(4)提示情報生成処理について説明する。この処理により、提示情報が生成され、視聴者等へ提示される。図2を参照して、情報処理部150は、視聴傾向ベクトル等の視聴傾向情報に基づいて提示情報を生成する機能を有し、推薦コンテンツ処理手段151、注目オブジェクト情報処理手段152、視聴傾向影響度処理手段153、提示コンテンツ切替処理手段154、注目度判定処理手段155、好感・嫌悪感判定処理手段156、インプレッション評価処理手段157及び指定領域エモーショナル効果処理手段158を備えている。
推薦コンテンツ処理手段151により生成される提示情報は推薦コンテンツであり、推薦コンテンツ処理手段151は、視聴傾向ベクトルに基づいて視聴中のコンテンツに対する視聴傾向が類似する視聴者を特定し、視聴中のコンテンツに関連付けられたコンテンツを特定し、関連コンテンツの中から類似視聴者の興味・関心度の高いコンテンツを特定し、そのコンテンツを視聴中の視聴者1へ提示する。また、注目オブジェクト情報処理手段152により生成される提示情報は注目オブジェクト情報であり、注目オブジェクト情報処理手段152は、視聴傾向ベクトルに基づいて興味・関心度の高い領域を特定し、その領域に含まれるオブジェクトを特定し、そのオブジェクトに関する情報を視聴中の視聴者1へ提示する。また、視聴傾向影響度処理手段153により生成される提示情報は視聴傾向影響度情報であり、視聴傾向影響度処理手段153は、連続した2つのシーンにおいて、直前のシーンが後のシーンの視聴傾向に与える影響度を算出し、その影響度を視聴傾向影響度情報としてコンテンツの提供事業者等へ提示する。また、提示コンテンツ切替処理手段154により生成(変更)される提示情報は提示コンテンツであり、提示コンテンツ切替処理手段154は、複数の視聴者1による視聴傾向に基づいて提示コンテンツを決定し、この決定した提示コンテンツを提示情報として複数の視聴者1へ提示する。また、注目度判定処理手段155により生成される提示情報は、画面内の分析対象への注目度情報であり、注目度判定処理手段155は、分析対象に対する興味・関心度及び視聴者1の応答(例えば、視聴者1によるボタン押下)に基づいて、その分析対象への注目度を判定し、この注目度情報を提示情報としてコンテンツの提供事業者等へ提示する。また、好感・嫌悪感判定処理手段156により生成される提示情報は、画面内のオブジェクトに対する好感度及び嫌悪感度であり、好感・嫌悪感判定処理手段156は、分析対象のオブジェクトに対する、所定条件を満たす興味・関心度の継続時間に基づいて、オブジェクトに対する好感及び嫌悪感を判定し、さらに好感度及び嫌悪感度を算出し、この好感度及び嫌悪感度の情報を提示情報としてコンテンツの提供事業者等へ提示する。また、インプレッション評価処理手段157により生成される提示情報は、画面内のオブジェクトが視聴者1に与える印象度合いを示すインプレッション度であり、インプレッション評価処理手段157は、分析対象のオブジェクトに対する前記好感度及び嫌悪感度を総合することにより、インプレッション度を算出し、このインプレッション度の情報を提示情報としてコンテンツの提供事業者等へ提示する。また、指定領域エモーショナル効果処理手段158により生成される提示情報は、視聴者1が画面内のオブジェクトを見て急速に引き起こされる一時的な感情度合いを示すエモーショナル度であり、指定領域エモーショナル効果処理手段158は、分析対象のオブジェクトに対する前記好感度及び嫌悪感度、並びに視聴者1の最終操作(例えば、視聴者1によるマウス操作)に基づいて、指定領域エモーショナル度を算出し、この指定領域エモーショナル度を提示情報として、コンテンツの提供事業者等へ提示する。以下、推薦コンテンツ処理手段151、注目オブジェクト情報処理手段152、視聴傾向影響度処理手段153、提示コンテンツ切替処理手段154、注目度判定処理手段155、好感・嫌悪感判定処理手段156、インプレッション評価処理手段157及び指定領域エモーショナル効果処理手段158の各処理について詳細に説明する。
〔推薦コンテンツ提示処理〕
まず、推薦コンテンツ提示処理について説明する。図9は、推薦コンテンツ提示処理を示すフローチャート図である。図10は、図9の処理における情報の流れを示す図である。いま、視聴者1(X)が、提示コンテンツ用データベース106から提示されたコンテンツαを視聴しているものとする。この場合、コンテンツαを視聴している視聴者1(X)に対し、前述の(2)生理反応情報・視聴者応答蓄積処理及び(3)視聴傾向分析処理が行われている(ステップS901,S902)。すなわち、視聴傾向分析部140は、視聴者1(X)が視聴しているコンテンツαに対する視聴傾向ベクトル(以下、ベクトルQx(α)という)
Figure 0004865811
を算出する。
そして、視聴中の視聴者1(X)が入力デバイス12により検索開始の操作を行うと、情報処理部150の推薦コンテンツ処理手段151は、視聴者1(X)に類似する嗜好傾向をもつ視聴者を特定する。具体的には、推薦コンテンツ処理手段151は、個人属性・視聴傾向等データベース103から視聴者1(X)を含む各視聴者の個人属性情報cを読み出し、視聴者1(X)の個人属性と他の視聴者の個人属性との間のマッチングを判定する(ステップS903)。例えば、個人属性情報cのうちの年齢について、視聴者1(X)の年齢を基準にして予め設定された範囲内の年齢の視聴者を、マッチングした視聴者として判定する。マッチングした視聴者をY,Z,U,V,W・・・とする。
また、推薦コンテンツ処理手段151は、視聴傾向分析部140から視聴者1(X)の視聴傾向ベクトルQx(α)を入力し、個人属性・視聴傾向等データベース103から、マッチングした視聴者Y,Z等のコンテンツαに対する視聴傾向ベクトルQy(α),Qz(α)・・・、すなわち
Figure 0004865811
を読み出し、コンテンツαに対する視聴者1(X)とマッチングした視聴者Y,Z等との間の視聴傾向相関度を算出し(ステップS904)、類似する視聴者を特定する(ステップS905)。尚、個人属性・視聴傾向等データベース103には、前記(3)視聴傾向ベクトル算出及び蓄積処理により、各視聴者のコンテンツαに対する視聴傾向ベクトルが格納されているものとする。
視聴傾向相関度の算出手法について説明する。以下は、視聴者Xと視聴者Yとの間の同一コンテンツに対する視聴傾向相関度Rvを算出する手法について説明する。推薦コンテンツ処理手段151は、視聴者Xの視聴傾向ベクトルQxと視聴者Yの視聴傾向ベクトルQyとの間の内積を算出し、これをベクトルの次元数で正規化して視聴傾向相関度Rvとする。
Figure 0004865811
この場合、Rvが大きいほど相関が高くなる。
また、推薦コンテンツ処理手段151は、以下の数式により視聴傾向相関度Rvを算出するようにしてもよい。
Figure 0004865811
この場合、Rvが小さいほど相関が高くなる。尚、コンテンツが動画の場合だけでなくウェブページの場合にも同様の手法により、視聴傾向相関度が算出される。
この場合、視聴傾向相関度Rvは、シーケンス、シーン等の各時間区間について算出されるが、予め設定された時間区間について算出されるようにしてもよい。
推薦コンテンツ処理手段151は、(11)式により視聴傾向相関度を算出した場合には、この相関度が予め設定された閾値以上のときに、類似する視聴者であると判定する。また、(12)式により視聴傾向相関度を算出した場合には、この相関度が予め設定された閾値以下のときに、類似する視聴者であると判定する。このようにして、推薦コンテンツ処理手段151は、マッチングした視聴者Y,Z等の中から、類似する視聴者を特定する。
そして、推薦コンテンツ処理手段151は、図示しない関連コンテンツテーブルからコンテンツαに関連するコンテンツa,b,c・・・のリストを読み出し(ステップS906)、関連コンテンツa,b,c等に対し、ステップS905により特定した類似視聴者が高い興味・関心度を示したシーン等を含むコンテンツを、推奨コンテンツとして特定し、視聴者1へ提示する(ステップS907)。また、提示されたコンテンツの中から、視聴者1が注目したコンテンツが選択され、ディスプレイ11の表示画面が注目コンテンツに切り替わる。ここで、関連コンテンツテーブルには、コンテンツのジャンルや映像内の情景等に応じて、コンテンツ毎に、関連するコンテンツが予め設定されている。前述の例では、コンテンツαに関連するコンテンツとして、コンテンツa,b,c・・・が設定されている。この際、図示しない方法により記述されるコンテンツのメタデータ内のキーワードの類似性や映像内の色調の類似性等を判定方法として使用することができる。ただし、類似性の判定はこれらの方法に限定されるものではない。また、関連コンテンツテーブルの中身は予め設定しておくようにしてもよいし、推薦コンテンツ提示処理(ステップS901〜S907)の任意のステップの前後で更新するようにしてもよい。この関連コンテンツテーブルの設定または更新は、図示しないシステム操作者による手入力やシステムの状態に基づく自動生成により行うことができる。例えば、ステップS905により特定した類似視聴者が過去に視聴したことのある任意のコンテンツを、ネットワークに接続されたサーバや操作端末に接続された蓄積装置等に蓄えられているコンテンツの中から抽出することにより、関連コンテンツテーブルを作成することが可能である。
例えば、推薦コンテンツ処理手段151は、コンテンツaに対して、類似視聴者の最も高い興味・関心度、または視聴傾向ベクトルの要素(時間区間における興味関心度の単位時間あたりの平均値)のうちの最も大きな要素を求め、同様に、コンテンツb,c等についても求め、そのうちの最も高い興味・関心度または視聴傾向ベクトルの要素の値を有するコンテンツを推奨コンテンツとして特定する。また、例えば、興味・関心度の高い順、または視聴傾向ベクトルの要素の値が大きい順にコンテンツリストを生成し、これを推奨コンテンツとして特定する。
このような視聴傾向相関度の算出手法は、コンテンツが動画の場合だけでなくウェブページや静止画像等の場合も同様に適用される。
図11は、推薦コンテンツ提示処理における画面推移を示す図である。視聴者1がディスプレイ11のコンテンツを視聴しているときに(A)、入力デバイス12により検索開始の操作を行うと、視聴者1の視聴傾向に合った推薦コンテンツが提示される(B)。視聴者1は、見たいコンテンツに注目すると、そのコンテンツの画面に切り替わる(C)。このような一連の処理が視聴傾向管理サーバ100により実現される。
以上のように、本発明の実施の形態によれば、推薦コンテンツ提示処理により、興味・関心度算出部130が、コンテンツを視聴している視聴者の生理反応情報等から興味・関心度の時間変動を算出し、視聴傾向分析部140が視聴傾向ベクトルを算出し、推薦コンテンツ処理手段151が、視聴傾向ベクトルから類似視聴者を特定し、関連コンテンツの中から推奨コンテンツを特定し、これを有用な嗜好情報として視聴中の視聴者へ提示するようにした。これにより、視聴者は、視聴したことのない自己の嗜好に合ったコンテンツを得ることができる。つまり、データ入力やキー操作等の複雑な操作を行うことなく、自己の嗜好に合った有用な情報を得ることができる。
〔注目オブジェクト情報提示処理〕
次に、注目オブジェクト情報提示処理について説明する。図12は、注目オブジェクト情報提示処理を示すフローチャート図である。この処理は、例えば、番組中に表示されたオブジェクトに対する視聴者の興味・関心度を算出し、そのオブジェクトに関する情報(販売サイトやサービス等の情報)を提示するものである。いま、視聴者1が、提示コンテンツ用データベース106から提示されたコンテンツαを視聴しているものとする。この場合、コンテンツαを視聴している視聴者1に対し、前述の(2)生理反応情報・視聴者応答蓄積処理及び(3)視聴傾向分析処理が行われている(ステップS1201)。すなわち、視聴傾向分析部140は、視聴者1が視聴しているコンテンツαに対する視聴傾向ベクトルを算出する。
そして、視聴中の視聴者1が入力デバイス12により検索モードへの移行指示の操作を行うと、情報処理部150の注目オブジェクト情報処理手段152は、視聴傾向ベクトルから興味・関心度の高い領域を特定する(ステップS1202)。例えば、(10)式に示した領域毎の興味・関心度の要素から成る視聴傾向ベクトルについて、興味・関心度の最も高い領域を特定する。そして、その領域に表示されているオブジェクトを、予め設定されたテーブル(コンテンツにおける領域とオブジェクトとが対応付けられたテーブル)により特定し(ステップS1203)、特定したオブジェクトに関連する情報のロケーションを、図示しないオブジェクト情報データテーブルから抽出し、そのロケーション(URLやURI等で指定)からオブジェクトに関連付けられた商品、サービスの情報や販売サイト等の情報を視聴者1へ提示する(ステップS1204)。この場合、視聴者1によるコンテンツαの視聴が終わったときに、注目オブジェクト情報処理手段152は、視聴者1による入力デバイス12の操作に従って検索モード終了を判定し、オブジェクトに関する情報や販売サイト等の情報をディスプレイ11に表示したり、電子メールにて送信するようにしてもよい。
図13は、注目オブジェクト情報提示処理における画面推移を示す図である。視聴者1がディスプレイ11のコンテンツを視聴しているときに(A)、入力デバイス12により検索開始の操作を行うと、視聴者1の視聴傾向に合った注目オブジェクト情報が提示される(B)。視聴者1は、さらに知りたい項目に注目すると、そのオブジェクト項目に関する詳細情報の画面に切り替わる(C)。このような一連の処理が視聴傾向管理サーバ100により実現される。なお、注目オブジェクト情報提示処理において、注目オブジェクト情報処理手段152は、図13の視聴対象コンテンツの同一画面上に、視聴者1が注目したオブジェクトに関する情報を、ポップアップする小画面や吹き出し等により提示するようにしてもよい。この場合、さらに、ポップアップした小画面や吹き出し等が表示されている情報提示領域を視聴者1が注目したか否かを興味・関心度に基づいて判定し、オンライン購入サイトでの仮想ショッピングカートへ商品を入れる等の商品購入に必要な処理指示の制御情報を、外部のシステムに送信する。
以上のように、本発明の実施の形態によれば、注目オブジェクト提示処理により、興味・関心度算出部130が生理反応情報等から興味・関心度を画面上の領域毎に算出し、視聴傾向分析部140が視聴傾向ベクトルを算出し、注目オブジェクト情報処理手段152が興味・関心度の高い領域内のオブジェクトを特定し、そのオブジェクトに関する情報を提示するようにした。これにより、視聴者は、コンテンツとして表示されたオブジェクトに関する情報を得る場合に、データ入力やキー操作等の複雑な操作を行うことなく、有用な情報を得ることが可能となる。さらに、注目オブジェクト情報の提示部分を視聴者が注目したことを判定し、その結果に基づいて処理指示の制御情報を外部のシステムへ送信することも可能となる。
〔視聴傾向影響度情報提示処理〕
次に、視聴傾向影響度情報提示処理について説明する。図14は、視聴傾向影響度情報提示処理を示すフローチャート図である。図15はこの処理を説明するための図である。一般に、連続した2つのシーンにおいて、後のシーンの興味・関心度は直前のシーンの興味・関心度の影響を受けることが知られている。この処理は、連続した2つのシーンにおいて、直前のシーンが後のシーンに与える視聴傾向の影響度を算出し、これを視聴傾向影響度情報として提示するものである。
図15において、映像のシーケンスAをシーンA→シーン1の順番とし、シーケンスBをシーンB→シーン1の順番としてそれぞれ提示された場合の視聴傾向影響度を算出するものとする。シーケンスAにおけるシーンA,シーン1の単位時間あたりの興味・関心度をqA,0,qA,1とし、シーケンスBにおけるシーンB,シーン1の単位時間あたりの興味・関心度をqB,0,qB,1とし、シーン1単体における興味・関心度をq0,1とする。
視聴傾向分析部140は、興味・関心度算出部130または個人属性・視聴傾向等データベース103から、シーケンスAにおけるシーンAの興味・関心度及びシーン1の興味・関心度を、シーケンスBにおけるシーンBの興味・関心度及びシーン1の興味・関心度を、シーン1単体の興味・関心度を入力する。尚、個人属性・視聴傾向等データベース103には、これらの情報が予め蓄積されているものとする。そして、視聴傾向分析部140は、単位時間あたりの興味・関心度qA,0,qA,1,qB,0,qB,1,q0,1を、前述の(3)式及び(4)式によりそれぞれ算出する(ステップS1401)。
ここで、シーケンスAにおけるシーン1の部分の興味・関心度qA,1、及びシーケンスBにおけるシーン1の部分の興味・関心度qB,1は以下のように表すことができる。
Figure 0004865811
この(13)式を1次近似すると、シーンAがシーン1に与える視聴傾向影響度k(qA,0)、及びシーンBがシーン1に与える視聴傾向影響度k(qB,0)を用いて、以下のように表すことができる。
Figure 0004865811
情報処理部150の視聴傾向影響度処理手段153は、視聴傾向分析部140により算出された各興味・関心度を入力し、前述の(13)式及び(14)式を用いて、シーンAがシーン1に与える視聴傾向影響度k(qA,0)、及びシーンBがシーン1に与える視聴傾向影響度k(qB,0)をそれぞれ算出する(ステップS1402)。このように算出された視聴傾向影響度は、例えばコンテンツ提供事業者へ提供される。
以上のように、本発明の実施の形態によれば、視聴傾向影響度情報提示処理により、図15に示した3つのシーケンスにて十分な時間間隔をもって視聴させ、興味・関心度算出部130が興味・関心度の時間変動を算出し、視聴傾向分析部140が各シーンにおける単位時間あたりの興味・関心度を算出し、視聴傾向影響度処理手段153が、シーンAがシーン1に与える視聴傾向影響度及びシーンBがシーン1に与える視聴傾向影響度を算出するようにした。この場合、例えば、複数の視聴者等により視聴傾向影響度を多数算出し、これらを統計解析により近似曲線を求めることにより、信頼性の一層高い視聴傾向影響度を提示することができる。また、シーンAがシーン1に与える視聴傾向影響度と、シーンBがシーン1に与える視聴傾向影響度とを比較することにより、シーン1の興味・関心度を引き上げる効果を有するシーンを選定することができる。例えば、シーンAがシーン1に与える視聴傾向影響度の方が、シーンBがシーン1に与える視聴傾向影響度よりも高い場合、シーンAの方がシーンBよりも、シーン1の興味・関心度引き上げ効果が大きいことがわかる。これにより、コンテンツ提供事業者は、コンテンツを評価する場合に、有用な情報を得ることが可能となる。
〔提示コンテンツ切替処理〕
次に、提示コンテンツ切替処理について説明する。図16は、提示コンテンツ切替処理を説明するための視聴傾向管理システムの全体構成を示すブロック図である。図17は、提示コンテンツ切替処理を説明するための興味・関心度の推移を示す図である。図18は、提示コンテンツ切替処理を示すフローチャート図である。図19は、図18に示すフローチャートにおける提示コンテンツ決定処理を説明する図である。図16において、この提示コンテンツ切替処理を説明するための視聴傾向管理システム200は、図1に示した視聴傾向管理システム2において、複数のコンテンツ提示・生理反応・視聴者応答計測装置10−1〜10−n、ディスプレイ11−1〜11−n、入力デバイス12−1〜12−n、生理反応計測装置13−1〜13−n及びIRライト14−1〜14−nを備えて構成される。この処理は、図16の視聴傾向管理システム200において、複数の視聴者1−1〜1−nが同じコンテンツを視聴している場合に、複数の視聴者1−1〜1−nの視聴傾向に基づいて、これから提示するコンテンツを決定し提示するものである。いま、視聴者1−1〜1−nが、提示コンテンツ用データベース106から提示されたコンテンツを視聴しているものとする。
提示コンテンツ切替処理を行うにあたって、図2において図示しない設定部は、予め対象視聴者を設定する(ステップS1801)。ここでは、複数の視聴者のうちのn人(視聴者1−1〜1−n)が設定されたものとする。また、設定部は、視聴傾向を分析する対象となる時間区間を過去の時間区間(0〜j)の中から設定し(ステップS1802)、分析する対象として「画面全体」「エリア」「オブジェクト」を設定する(ステップS1803)。例えば、動画またはウェブページのコンテンツにおいて、分析対象が「画面全体」の場合は、スポーツ番組、ドラマ、ニュース、CM(コマーシャル)等であり、「エリア」の場合は、前記画面中の人物、用品、商品、ニュース対象、CM対象等を含む領域であり、「オブジェクト」の場合は、前記画面中の人物、用品、商品、ニュース対象、CM対象等のオブジェクトを含む領域である。「エリア」を設定する場合は、画面全体の中から任意の領域を座標等により指定して設定する。また、「オブジェクト」を設定する場合、分析対象とするオブジェクトの領域を座標等により指定して設定する。
ステップS1801〜S1803により、視聴者、時間区間及び分析対象が予め設定されると、視聴傾向分析部140は、個人属性・視聴傾向データベース103から興味・関心度及び視点位置を読み出し、または、興味・関心度算出部130から興味・関心度及び視点位置を入力し(ステップS1804)、予め設定された視聴者1−1〜1−nの分析対象である「画面全体」「エリア」「オブジェクト」毎に、視点がその分析対象に滞留していた時間について興味・関心度I(t),I(t),・・・,I(t)を設定する。視点がその分析対象に滞留していない時間の興味・関心度は0とする。そして、視聴傾向分析部140は、視聴者1−1〜1−nの分析対象毎に、予め設定された時間区間における視聴傾向ベクトル、すなわちその時間区間における興味・関心度の単位時間あたりの平均値を算出する(ステップS1805)。視聴傾向ベクトルの算出手法については前述したので、ここでは説明を省略する。視聴傾向分析部140は、視聴者1−1〜1−nの分析対象毎の興味・関心度I(t),I(t),・・・,I(t)、及び視聴傾向ベクトルを個人属性・視聴傾向データベース103に格納する。
つまり、図17に示すように、時間区間j−3〜jまでは既にコンテンツが提示され視聴済みである場合、コンテンツを視聴している視聴者1−1〜1−nについて、前述の(2)生理反応情報・視聴者応答蓄積処理及び(3)視聴傾向分析処理が既に完了しており、視聴傾向分析部140は、予め設定された視聴者1−1〜1−nの時間区間毎に、視聴傾向ベクトル(興味・関心度の単位時間あたりの平均値を時間区間毎に要素としたもの)を算出する。
情報処理部150の提示コンテンツ切替処理手段154は、設定部により予め設定された閾値と、視聴傾向分析部140により算出された視聴傾向ベクトルの要素である興味・関心度の平均値とを比較し、閾値を超える興味・関心度の平均値を有する視聴者の数をカウントする(ステップS1806)。例えば、予め設定された時間区間のうちの一つの時間区間の興味・関心度が閾値を超える場合も、視聴者の数をカウントする。
そして、提示コンテンツ切替処理手段154は、この視聴者カウント数と、図2において図示しない設定部により予め設定された閾値とから割合を算出し、その割合値が設定部により予め設定された閾値を超える場合に、視聴者がその分析対象に興味があるものと判定し、設定部により予め分析対象に対応して設定されたコンテンツを、これから提示する時間区間j+1の示コンテンツに決定する(ステップS1807)。
いま、図19に示すように、設定部により、分析対象「オブジェクト」とコンテンツA、分析対象「エリア」とコンテンツB、分析対象「画面全体」とコンテンツC、及びその他の場合にコンテンツDがそれぞれ対応付いて設定されているものとする。提示コンテンツ切替処理手段154は、それぞれの分析対象について、視聴者カウント数が閾値を超える場合に、それぞれコンテンツA〜Dのうちのいずれかのコンテンツを提示コンテンツとして決定する。複数のコンテンツのうちのいずれかのコンテンツを決定するには、予め設定された優先順位に従う。例えば、「オブジェクト」の視聴者カウント数のみが閾値を超えている場合、コンテンツAを提示コンテンツに決定する。また、「オブジェクト」に加えて「エリア」の視聴者カウント数が閾値を超えている場合、優先順位は「オブジェクト」の方が高いとしてコンテンツAを提示コンテンツに決定する。また、いずれの分析対象の視聴者カウント数も閾値を超えていない場合、コンテンツDを提示コンテンツに決定する。この場合、時間区間jに提示していたコンテンツと同じコンテンツを提示コンテンツに決定する(コンテンツを変更しないようにする)ようにしてもよい。
尚、複数の視聴者1−1〜1−nのうち何人かを同一会場に集め、視聴傾向を分析するようにしてもよい。この場合、コンテンツ提示・生理反応・視聴者応答計測装置10−1〜10−n、ディスプレイ11−1〜11−n、入力デバイス12−1〜12−n、生理反応計測装置13−1〜13−n及びIRライト14−1〜14−nのうちの全てまたは一部を共有するような構成にしてもよい。
以上のように、本発明の実施の形態によれば、提示コンテンツ切替処理により、視聴傾向分析部140が、予め設定された視聴者の分析対象(「画面全体」「エリア」「オブジェクト」)毎に興味・関心度を設定し、時間区間毎に視聴傾向ベクトルを算出し、提示コンテンツ切替処理手段154が、分析対象毎に興味・関心度の高い視聴者数をカウントし、視聴者カウント数に基づいて提示コンテンツを決定するようにした。これにより、視聴者は、予め設定された複数の視聴者において、データ入力やキー操作等の複雑な操作を行うことなく、興味の高いコンテンツに切り替えて視聴することができる。
〔注目度判定処理〕
次に、注目度判定処理について説明する。図20は、注目度判定処理を示すフローチャート図である。この処理は、例えば、番組中に表示されたオブジェクトに対する視聴者の興味・関心度及び視聴傾向ベクトルを算出し、そのオブジェクトへの注目度情報を提示するものである。
注目度判定処理を行うにあたって、図2において図示しない設定部は、分析対象として「画面全体」「エリア」「オブジェクト」及びその時間帯(時間区間)を予め設定する(ステップS2001)。分析対象については前記のとおりである。
視聴傾向分析部140は、個人属性・視聴傾向データベース103から興味・関心度及び視点位置を読み出し、または、興味・関心度算出部130から興味・関心度及び視点位置を入力し、予め設定された分析対象である「画面全体」「エリア」「オブジェクト」毎に、視点がその分析対象に滞留していた分析時間帯について興味・関心度を設定する。視点がその分析対象に滞留していない時間の興味・関心度は0とする。そして、視聴傾向分析部140は、分析対象毎に、予め設定された分析時間帯における視聴傾向ベクトル、すなわちその時間帯における興味・関心度の単位時間あたりの平均値を算出する(ステップS2002)。視聴傾向ベクトルの算出手法については前述したので、ここでは説明を省略する。
また、情報処理部150の注目度判定処理手段155は、予め設定された分析時間帯におけるマウスクリックやボタン押下の視聴者応答の有無を、生理反応・視聴者応答データベース101から視聴者応答を読み出して判定する(ステップS2003)。
そして、注目度判定処理手段155は、それぞれの分析対象について、以下の3つの条件、または少なくとも一つの条件を満たす場合に、その分析対象に対する分析時間帯については注目度大であると判定し、いずれの条件を満たさない場合に、注目度小であると判定し、提示情報として提示する(ステップS2004)。
(1)視点が分析対象の領域内に存在すること。分析時間帯の興味・関心度が0の場合はその分析対象の領域内に視点が存在しないことになる。
(2)興味・関心度の単位時間あたりの平均値が予め設定された閾値を超えること。この閾値は、図2において図示しない設定部により設定される。
(3)予め設定された分析時間帯において視聴者応答があること。
以下、注目度判定処理について具体例を挙げて説明する。この注目度判定処理の例は、動画シーケンスを有するコンテンツに対して、複数のオブジェクト(オブジェクトを含む領域)及び時間帯を予め設定し、そのオブジェクト毎に視聴者が注目していたか否かを判定し、設定した複数のオブジェクトのうち注目していたオブジェクトの割合(注目率)を算出し、さらに、注目していたと判定したオブジェクトについて応答時間(反応時間)を算出し、これらの情報を提示情報として出力するものである。尚、この例では、オブジェクトを分析対象とし、複数のオブジェクトを予め設定し、オブジェクト毎に処理するようにしたが、画面全体を分析対象として処理するようにしてもよい。また、任意の形状の領域を分析対象として、複数の領域を予め設定し、その領域毎に処理するようにしてもよい。この場合、設定した領域の形状はビットマップ情報で保存され(分析対象部分を1、それ以外を0として保存され)、視点位置のビットマップ情報が1の場合はその領域内にあると判定され、0の場合はその領域内にないと判定される。
図2において図示しない設定部が、分析対象としての「オブジェクト」及びその時間帯を予め設定する。この場合、分析対象は、同じ「オブジェクト」が別時間に提示されるとき、同一「オブジェクト」として設定してもよいし、異なる「オブジェクト」として設定してもよい。また、時間帯は、異なる「オブジェクト」について重複していてもよい。図21は、注目度判定処理を説明するための興味・関心度の推移を示す図である。また、図22は、注目度判定処理を説明するためのオブジェクトを示す図である。設定部は、図21に示す興味・関心度の推移を示す時間軸において、オブジェクトAが提示されている時間区間j−1[TAS,TAE]を注目度判定区間の時間帯として設定する。ここで、TASは時間区間j−1の開始時刻を示し、TAEは終了時刻を示す。また、設定部は、図22に示すオブジェクトAを含む領域を設定する。ここで、オブジェクトAを含む領域は、
左上座標
Figure 0004865811
右下座標
Figure 0004865811
により指定される矩形領域である。
つまり、注目度判定処理手段155は、コンテンツの時間区間j−1(時区間[TAS,TAE])におけるオブジェクトAの注目度を判定する。同様に、複数のオブジェクトの注目度を判定し、コンテンツにおけるオブジェクトA等に対する注目度情報として、オブジェクトA等に注目していたか否かを判定すると共に、オブジェクトA等への注目率、及び注目していた場合の応答時間(反応時間)を算出し、これらを提示情報として出力する。
個人属性・視聴傾向データベース103には、あるコンテンツに対する興味・関心度(図21を参照)、視点位置及び同期情報が格納され、生理反応・視聴者応答データベース101には、そのコンテンツに対するマウスクリックやボタン押下等の視聴者応答及び同期情報が格納されているものとする。
視聴傾向分析部140は、個人属性・視聴傾向データベース103から興味・関心度、視点位置及び同期情報を読み出し、同期情報により時刻t(TAS<t<TAE)における視点(視点位置)
Figure 0004865811
がオブジェクトAを含む領域内にあるか否かを、以下の式により判定する。
AL(t)≦E(t)≦xAR(t),yAL(t)≦E(t)≦yAR(t)
ここで、視点がオブジェクトAを含む領域にあるものと判定した時区間を、TAS,1<t<TAE,1,TAS,2<t<TAE,2,・・・,TAS,n<t<TAE,nとする(以下、この時区間を視点一致時区間という。)。
そして、視聴傾向分析部140は、視点一致時区間における興味・関心度について、単位時間あたりの平均値を算出する。また、視聴傾向分析部140は、この視点一致時区間における興味・関心度の単位時間あたりの平均値を、同期情報及び視点一致時区間の情報と共に個人属性・視聴傾向データベース103に格納する。
情報処理部150の注目度判定処理手段155は、視聴傾向分析部140または個人属性・視聴傾向データベース103から視点一致時区間における興味・関心度の単位時間あたりの平均値等を入力し、生理反応・視聴者応答データベース101から視聴者応答及び同期情報を入力する。そして、注目度判定処理手段155は、同期情報により、視点一致時区間内に視聴者応答があったか否かを判定する。視点一致時区間内に視聴者応答があったと判定した場合には、視点一致時区間における興味・関心度の単位時間あたりの平均値qが予め設定された閾値thを超えているか否かを判定し、超えているときは(q>th)、オブジェクトAに注目していたものと判定する。
ここで、qを以下に示す。
Figure 0004865811
尚、視聴傾向分析部140は、視点一致時区間における興味・関心度について、その積分値Qを算出し、注目度判定処理手段155は、視聴傾向分析部140により算出された興味・関心度の積分値Qが予め設定された閾値THを超えているか否かを判定し、超えているときは(Q>TH)、オブジェクトAに注目していたものと判定するようにしてもよい。
このようにして、注目度判定処理手段155は、予め設定された複数のオブジェクトに対し、予め設定された時間帯において注目していたか否かを判定する。例えば、図21において、オブジェクトBについて時間帯が時間区間j、オブジェクトCについて時間帯が時間区間j+2、オブジェクトDについて時間帯が時間区間j+4であると設定された場合、注目度判定処理手段155は、それぞれのオブジェクトに対し、注目していたか否かを判定する。
そして、注目度判定処理手段155は、注目率Rを以下の式により算出する。
Figure 0004865811
ここで、Nは予め設定されたオブジェクトの数を示し、nは注目していたものと判定されたオブジェクトの数を示す。
また、注目度判定処理手段155は、注目していたものと判定した場合の応答時間(反応時間)を算出する。例えば、オブジェクトAに対する応答時間SA,resを、以下の式により算出する。
A,res=TA,push−TAS
ここで、TA,pushは視聴者応答の時刻(例えばボタン押下時刻)を示し、TASは時間区間j−1の開始時刻を示す。つまり、応答時間は、オブジェクトAに対する注目度判定処理を行う開始時刻から(図22に示したオブジェクトAが提示(画面に表示)されてから)、視聴者によるボタン押下時刻までの時間をいう。
注目度判定処理手段155は、全てのオブジェクトに対する応答時間を算出した後に、その応答時間の平均値や分散等を算出し、これらの情報を、視聴者の応答反応の傾向を判断するための情報としてコンテンツの提供事業者等へ提示する。
また、図16に示した視聴傾向管理システム200のように、予め設定された複数の視聴者毎に、興味・関心度算出部130が興味・関心度を算出し、視聴傾向分析部140が予め設定された分析時間帯の視点一致時区間における興味・関心度について、積分値または単位時間あたりの平均値を算出する。そして、注目度判定処理手段155は、複数の視聴者毎に、オブジェクトAに注目していたか否かを判定する。また、注目度判定処理手段155は、オブジェクトAに注目していたと判定した視聴者の数を、予め設定された複数の視聴者の数で除算することにより、オブジェクトAに注目していた視聴者の割合を算出する。さらに、オブジェクトAに注目していた視聴者の視点がオブジェクトAを含む領域(分析対象の領域)に視点が存在していた時間長を算出し、オブジェクトAに注目していた視聴者の視点一致時区間における興味・関心度の積分値または単位時間あたりの平均値から、オブジェクトAに注目していた全ての視聴者に対するその平均値、分散値、標準偏差値、最大値及び最小値を算出する。
以上のように、本発明の実施の形態によれば、注目度判定処理により、注目度判定処理手段155が、予め設定された分析対象(複数のオブジェクト)及び時間帯につき、興味・関心度の積分値または単位時間あたりの平均値に基づいて、オブジェクト毎に視聴者が注目していたか否かを判定し、その注目率を算出し、さらに、注目していたと判定したオブジェクトについて応答時間(反応時間)を算出し、これらの情報を注目度情報として提示するようにした。これにより、コンテンツ提供事業者等は、予め設定された分析対象及び時間帯において、データ入力やキー操作等の複雑な操作を行うことなく、コンテンツ評価のための有用な情報として注目度情報を得ることが可能となる。また、注目度判定処理手段155が、予め設定された複数の視聴者のうち、分析対象のオブジェクトに注目していた視聴者を判定し、その割合、分析対象を見ていた時間長等の統計情報を算出するようにした。これらの統計情報は、コンテンツの指定領域効果度を判断するために利用することができる。これにより、コンテンツ提供事業者等は、コンテンツ評価のための有用な情報を得ることが可能となる。
また、本発明の実施の形態によれば、注目度判定処理により、例えば、人間が機械を操作している場面を撮影したコンテンツ、またはその操作を模した場面を撮影したコンテンツを用いる場合には、視聴者に対して、機械の操作方法や安全性を教育することができる。例えば、ある設備を制御及び管理する制御パネルの操作方法や安全性の教育を行う場合、教育を受ける視聴者が、設備の運転状態を表示したモニタや運転状態ランプや警報ランプ等が配置された制御パネルの状況を撮影したコンテンツを見る。そうすると、注目度判定処理手段155は、予め設定された複数の分析対象(例えば警報ランプを含む領域)及び時間帯につき、それぞれ注目していたか否かを判定し、その注目率及び応答時間を算出する。例えば、分析対象を、警報ランプを含む領域とした場合、注目度判定処理手段155は、視聴者がその警報ランプの点灯に注目したか否か、注目してから所定の操作(視聴者応答)が行われるまでの応答時間等を算出する。すなわち、注目度判定処理手段155は、分析対象に対する必要な操作に関する情報(操作情報)、及び分析対象の応答時間に対する閾値を予め設定しておき、視聴者応答及び前述した操作情報に基づいて、視聴者応答が操作情報に合致した場合、正しい操作を行ったと判定し、合致しない場合、正しい操作を行わなかったと判定する。また、注目度判定処理手段155は、応答時間及び前述した閾値に基づいて、応答時間が閾値以内である場合、操作のタイミングが適切であったと判定し、応答時間が閾値以内でない場合、操作のタイミングが適切でなかったと判定する。また、注目度判定処理手段155は、これらの判定により、警報ランプが点灯したときに、有効な操作が適切な時間内に行われたか否かを判定し、これらの判定結果も含めて注目度情報として提示する。さらに、注目度判定処理手段155は、複数の分析対象に対して前述した処理を行い、有効な操作が適切な時間内に行われた分析対象の数を分析対象の総数で除算して比率を算出し、その比率から視聴者の習熟度を算出し(例えば、算出した比率を習熟度とみなして)、それを注目度情報として提示する。これにより、視聴者は、提示された注目度情報に基づいて、本来注目すべきであるにもかかわらず注目していなかった分析対象や、自らの習熟度を判断することができる。このように、機械操作を撮影したコンテンツ等を用いることにより、視聴者が機械操作に習熟しているか否か、どの分析対象に注目すべきであったか、安全な操作を行ったか否か、危険を適切に認識したか否か等を判断することができるから、このような注目度判定処理を行う視聴傾向管理サーバ100を、機械操作教育のためのツールとして活用することができる。
〔好感・嫌悪感判定処理〕
次に、好感・嫌悪感判定処理について説明する。図23は、好感・嫌悪感判定処理を示すフローチャート図である。この処理は、例えば、番組中に表示されたオブジェクトに対する視聴者の好感度または嫌悪感度を算出し、これらの情報を提示するものである。
好感・嫌悪感判定処理を行うにあたって、図2において図示しない設定部は、分析対象の「オブジェクト」を含む領域及びその時間帯を予め設定する(ステップS2301)。
視聴傾向分析部140は、個人属性・視聴傾向データベース103から興味・関心度及び視点位置を読み出し、または、興味・関心度算出部130から興味・関心度及び視点位置を入力し、分析時間帯において、予め設定された分析対象の「オブジェクト」を含む領域に視点が滞留していた時間を示す視点一致時区間の興味・関心度を設定する。視点がその領域に滞留していない時間の興味・関心度は0とする。そして、視聴傾向分析部140は、視点一致時区間の興味・関心度から、所定条件を満たす時間(興味・関心継続時間)を算出し(ステップS2302)、興味・関心継続時間を視聴傾向情報として情報処理部150に出力する。ここで、所定条件を満たす時間とは、興味・関心度が予め設定された閾値以上になった時点から、視点がその領域から外れた時点までの間の時間をいう。尚、所定の条件を満たす時間は、興味・関心度が予め設定された閾値以上になった時点から、興味・関心度が予め設定された閾値以下になった時点までの間の時間とすることもできる。
また、情報処理部150の好感・嫌悪感判定処理手段156は、視聴傾向分析部140から分析対象の「オブジェクト」を含む領域における興味・関心継続時間の視聴傾向情報を入力し、予め設定された閾値と比較し、好感及び嫌悪感を判定する(ステップS2303)。同様にして、同一の「オブジェクト」を分析対象とした複数の領域について好感及び嫌悪感を判定する。そして、分析対象の総数及び好感であると判定した分析対象の領域の数に基づいて好感度を算出し、また、分析対象の領域の総数及び嫌悪感であると判定した分析対象の領域の数に基づいて嫌悪感度を算出し、これらの情報を提示情報として出力する(ステップS2304)。
以下、好感・嫌悪感判定処理について具体例を挙げて説明する。この好感・嫌悪感判定処理の例は、動画シーケンスを有するコンテンツに対して、分析対象となるオブジェクト(オブジェクトを含む領域)及び時間帯を予め設定し、その設定したオブジェクトに対して視聴者が好感をもっていたか、または嫌悪感をもっていたかを判定し、好感をもっていたことを判定したオブジェクトの数(領域の数)から好感度を算出し、また、嫌悪感をもっていたと判定したオブジェクトの数(領域の数)から嫌悪感を算出し、これらの情報を提示情報として出力するものである。
図2において図示しない設定部は、分析対象の「オブジェクト」を含む領域及びその時間帯を予め設定する。例えば、図21に示した興味・関心度の推移を示す時間軸において、オブジェクトAが提示されている時間区間j−1[TAS,TAE]を分析対象の時間帯として設定する。ここで、TASは時間区間j−1の開始時刻を示し、TAEは終了時刻を示す。時間区間j−1では、オブジェクトAが全時間に渡って提示されているが、必ずしも全時間に渡って提示されている必要はなく、提示されていない時間があってもよく、複数回提示されていてもよい。また、設定部は、図22に示したオブジェクトAを含む領域を設定する。ここで、オブジェクトAを含む領域は、
左上座標
Figure 0004865811
右下座標
Figure 0004865811
により指定される矩形領域である。
つまり、好感・嫌悪感判定処理手段156は、コンテンツの時間区間j−1[TAS,TAE]におけるオブジェクトAの好感及び嫌悪感を判定し、好感であると判定したオブジェクトAの数(領域の数)に基づいて好感度を算出し、嫌悪感であると判定したオブジェクトAの数(領域の数)に基づいて嫌悪感度を提示情報として出力する。
個人属性・視聴傾向データベース103には、あるコンテンツに対する興味・関心度(例えば、図21を参照)、視点位置及び同期情報が格納されているものとする。
視聴傾向分析部140は、個人属性・視聴傾向データベース103から興味・関心度、視点位置及び同期情報を読み出し、同期情報により時刻t(TAS<t<TAE)における視点(視点位置)
Figure 0004865811
がオブジェクトAを含む領域内にあるか否かを、以下の式により判定する。
AL(t)≦E(t)≦xAR(t),yAL(t)≦E(t)≦yAR(t)
ここで、視点がオブジェクトAを含む領域にあると判定した視点一致時区間を、TAS,1<t<TAE,1,TAS,2<t<TAE,2,・・・,TAS,n<t<TAE,nとする。
図26を参照して、視聴傾向分析部140は、視点一致時区間における興味・関心度I(t)が閾値th以上であるか否かを、I(t)≧thの式により判定し、TAS,1を基準にして最初に興味・関心度I(t)が閾値th以上であると判定した時刻tA,Isを特定する。そして、その視点一致時区間の終了時刻TAE,1をtA,Ieとして、オブジェクトAを含む領域における興味・関心継続時間TA,Icを、以下の式により算出する。
A,Ic=tA,Ie−tA,Is
そして、オブジェクトAを含む領域における興味・関心継続時間TA,Icを視聴傾向情報として、同期情報と共に個人属性・視聴傾向等データベース103に格納する。また、オブジェクトAを含む領域における興味・関心継続時間TA,Icを情報処理部150の好感・嫌悪感判定処理手段156に出力する。
尚、前述の例では、図2において図示しない設定部は、分析対象の「オブジェクト」として画面内の矩形領域の1箇所を設定するようにしたが、画面全体を設定してもよいし、任意の形状の領域を設定してもよい。また、1つのオブジェクトでなく複数のオブジェクトを含む領域を設定してもよい。この場合、設定部は、設定した領域の形状をビットマップ情報で保存し(対象領域部分を1、それ以外を0として保存し)、視聴傾向分析部140は、視点位置のビットマップ情報が1の場合はその領域内にあると判定し、0の場合はその領域内にないと判定する。
情報処理部150の好感・嫌悪感判定処理手段156は、視聴傾向分析部140または個人属性・視聴傾向データベース103からオブジェクトAを含む領域における興味・関心継続時間TA,Icを入力し、興味・関心継続時間TA,Icと、予め設定されたオブジェクトAの好感閾値thA,good及び嫌悪感閾値thA,badとを比較する。ここで、
thA,good≧thA,bad
である。そして、
A,Ic≧thA,good
の場合、オブジェクトAに対して好感を有していると判定し、
A,Ic≦thA,bad
の場合、オブジェクトAに対して嫌悪感を有していると判定し、前記2つの比較式を満足しない場合、好感及び嫌悪感のどちらも有していないと判定する。
つまり、興味・関心継続時間が好感閾値(例えば1秒)以上である場合、すなわち、視聴者1がオブジェクトAに興味を示していて視線をそらさない場合に、オブジェクトAに対して好感を有していると判定する。一方、興味・関心継続時間が嫌悪感閾値(例えば0.3秒)以下である場合、すなわち、オブジェクトAに対する視聴者1の情動はあるが、短時間で視線をそらした場合に、オブジェクトAに対して嫌悪感を有していると判定する。
このようにして、設定部が画面内で同一のオブジェクトAについて複数の領域を設定し、好感・嫌悪感判定処理手段156が、その領域毎にオブジェクトAの好感及び嫌悪感を判定する。そして、好感・嫌悪感判定処理手段156は、分析対象に設定された全領域の数をN、好感であると判定した領域の数をn、嫌悪感であると判定した領域の数をnとすると、好感度Pg及び嫌悪感度Pbを以下の式により算出し、これらの情報を、オブジェクトAに対する好感及び嫌悪感の度合いを判断するための情報として、コンテンツの提供事業者等へ提示する。尚、以下の式では、百分率表示するために100を乗じている。
Figure 0004865811
Figure 0004865811
尚、本発明者らは、嫌悪感が生じるオブジェクトを対象とした興味・関心度のデータ、及び好感が生じるオブジェクトを対象とした興味・関心度のデータを実験により収集した。図27は、実験により収集した興味・関心度のデータを示す図である。図27(1)(2)において、縦軸は、視聴者1が注目する(視点位置が存在する)領域及び興味・関心度を示し、横軸は経過時間を示している。また、図中、実線は視聴者1が注目する領域、点線は興味・関心度をそれぞれ示している。(1)において、領域A〜Dには嫌悪感が生じる異なるオブジェクトが提示されており、(2)において、領域A’〜D’には好感が生じる異なるオブジェクトが提示されている。
図27(1)によれば、視聴者1は、嫌悪感が生じる4つのオブジェクトに対し、領域B→領域外→領域A→領域外→領域A→領域外→領域B→・・・の順番に視点が移動していることがわかる。また、そのときの興味・関心度は徐々に高まるが、注目領域に長時間留まることなく低下する、または注目領域から視点をそらすという傾向があることがわかる。つまり、興味・関心継続時間が嫌悪感閾値以下である場合、すなわち、オブジェクトに対する視聴者1の情動はあるが、短時間で視線をそらした場合に、そのオブジェクトに対して嫌悪感を有していると判定することができる。
また、図27(2)によれば、視聴者1は、好感が生じる4つのオブジェクトに対し、領域A’→領域外→領域B’→領域外→領域B’→領域外→領域B’→・・・の順番に視点が移動していることがわかる。また、そのときの興味・関心度は徐々に高まり、長時間維持するという傾向があることがわかる。つまり、興味・関心継続時間が好感閾値以上である場合、すなわち、視聴者1がオブジェクトに興味を示していて視線をそらさない場合に、オブジェクトに対して好感を有していると判定できる。
以上のように、本発明の実施の形態によれば、好感・嫌悪感判定処理により、好感・嫌悪感判定処理手段156が、予め設定された分析対象のオブジェクト及び時間帯につき、好感及び嫌悪感を判定し、好感と判定したオブジェクトを含む領域の数に基づいて好感度を算出し、また、嫌悪感と判定したオブジェクトを含む領域の数に基づいて嫌悪感度を算出し、これらの情報を提示するようにした。これにより、コンテンツ提供事業者等は、データ入力やキー操作等の複雑な操作を行うことなく、分析対象のオブジェクトを評価するための有用な情報として、好感及び嫌悪感情報を得ることが可能となる。
〔インプレッション評価処理〕
次に、インプレッション評価処理について説明する。図24は、インプレッション評価処理を示すフローチャート図である。この処理は、例えば、番組中に表示されたオブジェクトに対する視聴者の好感度または嫌悪感度を総合することにより、インプレッション度を算出し、この情報を提示するものである。
図24において、インプレッション評価処理のステップS2401からステップS2404までの処理は、図23に示した好感・嫌悪感判定処理のステップS2301からステップS2304までの処理と同じであるので、ここでは説明を省略する。
情報処理部150のインプレッション評価処理手段157は、好感度及び嫌悪感度に基づいてインプレッション度を算出し、この情報を提示情報として出力する(ステップS2405)。具体的には、分析対象として設定された全領域の数をN、好感であると判定した領域の数をn、嫌悪感であると判定した領域の数をnとすると、インプレッション度を以下の式により算出し、この情報を、オブジェクトに対する印象度合いを判断するための情報として、コンテンツの提供事業者等へ提示する。尚、以下の式では、百分率表示するために100を乗じている。
Figure 0004865811
尚、インプレッション評価処理手段157は、好感であると判定した領域の数n及び嫌悪感であると判定した領域の数nをそれぞれ重み付けしてから、インプレッション度を算出するようにしてもよい。また、設定部により設定される分析対象を画面全体とし、分析時間帯を、その画面が閲覧された時点から数秒(例えば5〜6秒)までの間として、インプレッション評価処理手段157が、その分析対象及び分析時間帯についてインプレッション度を算出するようにしてもよい。これにより、情動反応に対応したインプレッションを評価することができ、画面全体が短時間に視聴者1に与える印象を数値化することができる。
以上のように、本発明の実施の形態によれば、インプレッション評価処理により、インプレッション評価処理手段157が、予め設定された分析対象のオブジェクト及び時間帯につき、好感及び嫌悪感を判定し、好感と判定したオブジェクトを含む領域の数及び嫌悪感と判定したオブジェクトを含む領域の数に基づいてインプレッション度を算出し、この情報を提示するようにした。これにより、コンテンツ提供事業者等は、データ入力やキー操作等の複雑な操作を行うことなく、分析対象のオブジェクトを評価のための有用な情報として、インプレッション情報を得ることが可能となる。
〔指定領域エモーショナル効果処理〕
次に、指定領域エモーショナル効果処理について説明する。図25は、指定領域エモーショナル効果処理を示すフローチャート図である。この処理は、例えば、番組中に表示されたオブジェクトに対して急速に引き起こされる一時的な感情度合いを示すエモーショナル度を、そのオブジェクトに対する好感度及び嫌悪感度並びに視聴者1の最終操作に基づいて算出し、この情報を提示するものである。
指定領域エモーショナル効果処理を行うにあたって、図2において図示しない設定部は、分析対象の「オブジェクト」を含む領域、その時間帯及び最終操作対象領域を予め設定する(ステップS2501)。ここで、最終操作対象領域は、視聴者1がオブジェクトに対する応答反応として最終操作(例えば、ボタン押下、マウス操作、瞬きによる指示操作等)の入力を行う領域である。
視聴傾向分析部140は、図23に示した好感・嫌悪感判定処理のステップS2302と同様に、分析対象の「オブジェクト」を含む領域について、視点一致時区間の興味・関心度から、興味・関心継続時間を算出する(ステップS2502)。
また、情報処理部150の指定領域エモーショナル効果処理手段158は、視聴者応答情報bである最終操作対象領域における最終操作情報を生理反応・視聴者応答データベースから読み出し、最終操作の有無を判定する(ステップS2503)。そして、指定領域エモーショナル効果処理手段158は、図23のステップS2303及びステップS2304と同様に、興味・関心継続時間と予め設定された閾値とを比較して好感を判定し、好感度を算出する(ステップS2504,ステップS2505)。
また、指定領域エモーショナル効果処理手段158は、分析対象として設定された全領域の数をN、好感であると判定した領域の数をn、最終操作の有無をG(最終操作があった場合1、無かった場合0)、重み付け係数をq(0≦q≦1)とすると、指定領域エモーショナル効果度Mを以下の式により算出し、この情報を、オブジェクトに対して急速に引き起こされる一時的な感情度合いを判断するための情報として、コンテンツの提供事業者等へ提示する(ステップS2506)。尚、以下の式では、百分率表示するために100を乗じている。
Figure 0004865811
前述の式において、例えばq=0.5、最終操作の有無G=0(無し)のとき、指定領域エモーショナル効果度Mは0≦M≦50となり、最終操作の有無G=1(有り)のとき、指定領域エモーショナル効果度Mは50≦M≦100となる。指定領域エモーショナル効果度Mの情報の提示を受けたコンテンツ提供事業者等は、このMの値によって、以下の状況を認識することができる。
(1)Mが100に近いときは、視点が期待した経路を通り、最終操作対象領域にて最終操作が行われ、応答があった。
(2)Mが50〜70程度のときは、最終操作対象領域にて最終操作が行われ応答があったが、視点が期待した経路を通っていない。
(3)Mが40〜50程度のときは、視点が期待した経路を通ったが、最終操作が行われていないため、応答がない(最終操作に問題がある)。
(4)Mが0に近いときは、視点が期待した経路を通っておらず、最終操作も行われていないため、応答がない。
以上のように、本発明の実施の形態によれば、指定領域エモーショナル効果処理により、指定領域エモーショナル効果処理手段158が、予め設定された分析対象のオブジェクト及び時間帯につき好感を判定し、好感と判定したオブジェクトを含む領域の数及び視聴者1の最終操作の有無に基づいて指定領域エモーショナル度を算出し、この情報を提示するようにした。これにより、コンテンツ提供事業者等は、例えば、ウェブページにおいて視聴者1が期待する商品を閲覧し、興味・関心を示した結果その商品を購入する等の最終操作を行ったか否かを判定することができる。また、データ入力やキー操作等の複雑な操作を行うことなく、オブジェクトを評価するための有用な情報として、オブジェクトに対して急速に引き起こされる一時的な感情度合いの情報を得ることが可能となる。
以上、実施の形態を挙げて本発明を説明したが、本発明は上記実施の形態に限定されるものではなく、その技術思想を逸脱しない範囲で種々変形可能である。例えば、図1において、ディスプレイ11は、通常のブラウン管受像器の他に、プロジェクタのスクリーン画面パネルや液晶表示パネルであってもよい。また、生理反応計測装置13に備えたカメラは、IRライト14による赤外線カメラであることが好ましいが、これに限定されるものではない。尚、赤外線カメラの場合は、虹彩に写り込んだ外部映像を排除した高コントラスト画像を得ることができ、画像処理及びデータ解析を安定かつ高速に実行することができる点で有効である。
また、図1において、視聴者1から生理反応情報を入力する場合に、例えば、視聴者1から50〜100cm離れた位置に視聴者1の眼球を撮像するためのスタンド等を用いて生理反応計測装置13がセットされる。この場合、視聴者1の頭部の位置を固定するために、顎台を用いることもあり得る。また、生理反応計測装置13は、視聴者1の顔の位置と眼球の位置とを自動追尾させて、精度高く眼球運動の生理反応情報を得ることも可能である。
また、図1に示した生理反応計測装置13について、ヘッドマウント型装置を用いてカメラを視聴者1の頭部に装着させるようにしてもよい。この場合、視聴する対象を予め撮影した映像コンテンツとするのではなく、視聴者1が視認可能な一般の情景とするようにしてもよい。その際には、生理反応計測装置13のカメラとは逆向きに装着させる別途のカメラにより視聴者1の視野角内にある情景を同時に撮影し、その撮影した映像を、提示した映像コンテンツと同等のものとして処理するようにしてもよい。
また、図1において、コンテンツ提示・生理反応・視聴者応答計測装置10、視聴傾向管理サーバ100及びコンテンツ配信サーバ105のハードウェアは、パーソナルコンピュータ(パソコン)クラスのものであってもよい。また、コンテンツ提示・生理反応・視聴者応答計測装置10は、大型のディスプレイ11を備えたデスクトップ型のコンピュータであってもよいし、カメラを備えた携帯電話機等の携帯情報端末であってもよい。また、入力デバイス12は、マウスだけでなく、ボタン、キーボード、タッチパネル、リモコン、ゲーム機器に付属するコントローラであってもよく、視聴者1の操作により視聴者応答が時系列データとして生成されるものであればよい。
また、図1において、生理反応・視聴者応答データベース101、基準コンテンツ用データベース102及び個人属性・視聴傾向等データベース103は、ネットワーク104を介して視聴傾向管理サーバ100に接続されるようにしてもよい。
また、図1及び図2において、コンテンツ配信サーバ105が配信するコンテンツは、映像データ、ウェブページデータ、コンピュータゲームデータ、コンピュータプログラムの出力データのうちの少なくとも一つのデータを含む形式のコンテンツであり、ディスプレイ11には、文字列、図、記号、絵、写真、動画のうちの少なくとも一つが表示され、視聴者1に応答させるための情報が表示される。
また、視聴者1がコンテンツを視聴している任意の時間において、コンテンツ読出提示部110が基準コンテンツ(例えば、全画面黒色及び白色の画面が数秒程度静止画像になるようなコンテンツ)を視聴者1へ適宜提示することにより、その生理反応情報及び視聴者応答に基づいて興味・関心度及び視聴傾向ベクトルを補正するようにしてもよい。この場合、視聴者1の瞳孔は、黒画面及び白画面に対しそれぞれ暗順応及び明順応して、散大及び縮動する。興味・関心度算出部130は、黒画面シーン及び白画面シーン内で、それぞれ瞳孔径の最大値Pmax及び最小値Pminを算出し、これらの値を興味・関心度の算出のために使用する((1)式及び(2)式を参照)。これにより、瞳孔の縮動及び散大の個人差を吸収した興味・関心度を算出することができる。したがって、視聴傾向ベクトルを正規化することができ、視聴傾向情報の処理の精度を向上させることができる。
尚、視聴傾向管理サーバ100は、CPU、RAM等の揮発性の記憶媒体、ROM等の不揮発性の記憶媒体、及びインターフェース等を備えたコンピュータによって構成される。視聴傾向管理サーバ100に備えたコンテンツ読出提示部110、情報取込部120、興味・関心度算出部130、視聴傾向分析部140及び情報処理部150の各機能は、これらの機能を記述したプログラムをCPUに実行させることによりそれぞれ実現される。また、これらのプログラムは、磁気ディスク(フロッピィーディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の記憶媒体に格納して頒布することもできる。

Claims (10)

  1. コンテンツを視聴する視聴者の生理反応情報に基づいて、前記コンテンツに対する視聴傾向を分析し、前記分析した情報から提示情報を生成して出力する視聴傾向管理装置において、
    前記コンテンツを視聴する視聴者の眼球画像を含む生理反応情報を取得し、前記生理反応情報に基づいて、前記コンテンツに対する興味・関心度を算出する興味・関心度算出部と、
    前記コンテンツに対し予め設定された複数の画面領域について、前記興味・関心度算出部により算出された興味・関心度を用いて、前記眼球画像から得られた視点が前記画面領域内に存在するときの興味・関心度をそれぞれ求め、前記興味・関心度が予め設定された閾値に到達した時点から、前記視点が前記画面領域から外れる時点までの間の時間を、興味・関心継続時間として前記画面領域毎に算出する視聴傾向分析部と、
    前記視聴傾向分析部により算出された画面領域毎の興味・関心継続時間と予め設定された時間とを比較し、前記画面領域毎の好感及び嫌悪感の判定を行い、前記予め設定された複数の画面領域の数及び前記好感と判定した画面領域の数に基づいて好感度を算出し、前記予め設定された複数の画面領域の数及び前記嫌悪感と判定した画面領域の数に基づいて嫌悪感度を算出し、提示情報として出力する情報処理部とを備えたことを特徴とする視聴傾向管理装置。
  2. 請求項1に記載の視聴傾向管理装置において、
    前記情報処理部は、前記好感の判定をした画面領域の数と前記嫌悪感の判定をした画面領域の数との差を算出し、前記予め設定された複数の画面領域の数と前記算出した差とに基づいて、前記コンテンツに対する視聴者の印象度合いを示すインプレッション度を算出し、提示情報として出力することを特徴とする視聴傾向管理装置。
  3. 請求項1に記載の視聴傾向管理装置において、
    前記情報処理部は、前記予め設定された画面領域内の表示に対する前記視聴者による操作の有無、及び前記算出した好感度に基づいて、前記表示に対して引き起こされる前記視聴者の感情度合いを示すエモーショナル度を算出し、提示情報として出力することを特徴とする視聴者傾向管理装置。
  4. 請求項1から3までのいずれか一項に記載の視聴傾向管理装置において、
    前記興味・関心継続時間を、前記視点が画面領域内に存在するときの興味・関心度が予め設定された第1の閾値に到達した時点から、前記興味・関心度が前記第1の閾値よりも小さい値であって予め設定された第2の閾値に到達した時点までの間の時間とすることを特徴とする視聴傾向管理装置。
  5. コンテンツを視聴する視聴者の生理反応情報に基づいて、前記コンテンツに対する視聴傾向を分析し、前記分析した情報から提示情報を生成して出力する視聴傾向管理装置において、
    前記コンテンツを視聴する複数の視聴者の眼球画像を含む生理反応情報をそれぞれ取得し、前記生理反応情報に基づいて、前記コンテンツに対する興味・関心度を前記視聴者毎に算出する興味・関心度算出部と、
    前記興味・関心度算出部により算出された興味・関心度を用いて、前記コンテンツに対して予め設定された画面領域及び時間区間についての興味・関心度を、前記視聴者毎にそれぞれ算出する視聴傾向分析部と、
    前記視聴傾向分析部により算出された興味・関心度と予め設定された閾値とを比較して、前記画面領域に注目していたか否かを判定し、前記複数の視聴者の中で、前記画面領域に注目していたと判定した視聴者の数の割合、前記画面領域に注目していたと判定した視聴者の眼球画像により得られた視点が前記画面領域内に滞留していた時間長、前記画面領域に注目していたと判定した全ての視聴者における興味・関心度の平均、分散、標準偏差、最大値及び最小値のうちの少なくとも一つを算出し、提示情報として出力する情報処理部とを備えたことを特徴とする視聴傾向管理装置。
  6. 請求項に記載の視聴傾向管理装置において、
    前記情報処理部は、さらに、前記予め設定された画面領域の数に対する、前記注目していたと判定した画面領域の数の割合を注目率として算出し、提示情報として出力することを特徴とする視聴傾向管理装置。
  7. 請求項に記載の視聴傾向管理装置において、
    前記情報処理部は、さらに、前記コンテンツに対する応答として視聴者による入力操作があったときの時刻、及び前記予め設定された時間区間における開始時刻に基づいて応答時間を算出し、提示情報として出力することを特徴とする視聴傾向管理装置。
  8. 請求項に記載の視聴傾向管理装置において、
    前記視聴者が視聴するコンテンツは、所定の機械操作を伴う運転状態を撮影したコンテンツとし、
    前記情報処理部は、さらに、前記コンテンツに対する応答として視聴者による入力操作及び前記入力操作があったときの時刻に基づいて、前記運転状態に対する視聴者の入力操作が妥当であったか否かを判定し、前記視聴者の習熟度を算出することを特徴とする視聴傾向管理装置。
  9. 視聴者により要求されたコンテンツを配信するコンテンツ配信装置と、
    前記配信されたコンテンツを受信して表示器に表示する端末装置と、
    前記表示器に表示されたコンテンツを視聴する視聴者に対し、生理反応を計測する生理反応計測装置と、
    前記視聴者の生理反応情報を前記生理反応計測装置から入力する請求項1から8までのいずれか一項に記載の視聴傾向管理装置とを備えたことを特徴とする視聴傾向管理システム。
  10. コンピュータを、請求項1から8までのいずれか一項に記載の視聴傾向管理装置として機能させるための視聴傾向管理プログラム。
JP2008549381A 2006-12-15 2007-12-14 視聴傾向管理装置、システム及びプログラム Expired - Fee Related JP4865811B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008549381A JP4865811B2 (ja) 2006-12-15 2007-12-14 視聴傾向管理装置、システム及びプログラム

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
JP2006339135 2006-12-15
JP2006339135 2006-12-15
JP2007053311 2007-03-02
JP2007053311 2007-03-02
JP2007217904 2007-08-24
JP2007217904 2007-08-24
PCT/JP2007/074156 WO2008072739A1 (ja) 2006-12-15 2007-12-14 視聴傾向管理装置、システム及びプログラム
JP2008549381A JP4865811B2 (ja) 2006-12-15 2007-12-14 視聴傾向管理装置、システム及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2008072739A1 JPWO2008072739A1 (ja) 2010-04-02
JP4865811B2 true JP4865811B2 (ja) 2012-02-01

Family

ID=39511752

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008549381A Expired - Fee Related JP4865811B2 (ja) 2006-12-15 2007-12-14 視聴傾向管理装置、システム及びプログラム

Country Status (2)

Country Link
JP (1) JP4865811B2 (ja)
WO (1) WO2008072739A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200061570A (ko) * 2018-11-26 2020-06-03 케이티하이텔 주식회사 Tv 광고 영상을 실시간으로 분석하여 매칭되는 tv 앱을 호출하는 티커머스 경험 제공 방법

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9514436B2 (en) 2006-09-05 2016-12-06 The Nielsen Company (Us), Llc Method and system for predicting audience viewing behavior
US20100004977A1 (en) * 2006-09-05 2010-01-07 Innerscope Research Llc Method and System For Measuring User Experience For Interactive Activities
JP5194015B2 (ja) 2006-09-05 2013-05-08 インナースコープ リサーチ, インコーポレイテッド 感覚的刺激への視聴者反応を決定する方法およびシステム
CN101711388B (zh) 2007-03-29 2016-04-27 神经焦点公司 营销和娱乐的效果分析
US8392253B2 (en) 2007-05-16 2013-03-05 The Nielsen Company (Us), Llc Neuro-physiology and neuro-behavioral based stimulus targeting system
US8533042B2 (en) 2007-07-30 2013-09-10 The Nielsen Company (Us), Llc Neuro-response stimulus and stimulus attribute resonance estimator
US8386313B2 (en) 2007-08-28 2013-02-26 The Nielsen Company (Us), Llc Stimulus placement system using subject neuro-response measurements
JP2010094493A (ja) * 2008-09-22 2010-04-30 Koichi Kikuchi 視認情景に対する視認者情感判定装置
KR101521595B1 (ko) 2008-10-14 2015-05-19 삼성전자 주식회사 인터렉티브 컨텐츠 구성을 위한 데이터 처리 장치, 그 방법및 기록매체
US20100250325A1 (en) 2009-03-24 2010-09-30 Neurofocus, Inc. Neurological profiles for market matching and stimulus presentation
US8154615B2 (en) * 2009-06-30 2012-04-10 Eastman Kodak Company Method and apparatus for image display control according to viewer factors and responses
US10987015B2 (en) 2009-08-24 2021-04-27 Nielsen Consumer Llc Dry electrodes for electroencephalography
JP5428661B2 (ja) * 2009-08-31 2014-02-26 ソニー株式会社 情報処理装置及び情報処理方法
US9560984B2 (en) 2009-10-29 2017-02-07 The Nielsen Company (Us), Llc Analysis of controlled and automatic attention for introduction of stimulus material
US20110106750A1 (en) 2009-10-29 2011-05-05 Neurofocus, Inc. Generating ratings predictions using neuro-response data
JP2011129997A (ja) * 2009-12-15 2011-06-30 Victor Co Of Japan Ltd ユーザ情報処理プログラム、再生プログラム、ユーザ情報処理装置、再生装置、ユーザ情報処理方法、及び、再生方法
JP2011166572A (ja) * 2010-02-12 2011-08-25 Nec Personal Products Co Ltd 番組嗜好推定装置、画像視聴システム、番組視聴確認方法、及びプログラム
WO2011133548A2 (en) 2010-04-19 2011-10-27 Innerscope Research, Inc. Short imagery task (sit) research method
JP5703610B2 (ja) * 2010-07-02 2015-04-22 シャープ株式会社 コンテンツサーバ、コンテンツ視聴システム、コンテンツ推薦方法およびコンテンツ表示装置
JP5783777B2 (ja) * 2011-04-13 2015-09-24 富士通テン株式会社 情報配信装置、方法およびプログラム
JP2013016903A (ja) * 2011-06-30 2013-01-24 Toshiba Corp 情報処理装置及び情報処理方法
JP5811674B2 (ja) * 2011-08-08 2015-11-11 大日本印刷株式会社 アンケートシステム
JP5285196B1 (ja) * 2012-02-09 2013-09-11 パナソニック株式会社 お薦めコンテンツ提供装置、お薦めコンテンツ提供プログラムおよびお薦めコンテンツ提供方法
US9729920B2 (en) * 2013-03-15 2017-08-08 Arris Enterprises, Inc. Attention estimation to control the delivery of data and audio/video content
JP2015191551A (ja) * 2014-03-28 2015-11-02 株式会社ニコン 電子機器
JP6523038B2 (ja) * 2015-05-08 2019-05-29 日本放送協会 感覚提示装置
JP2017068547A (ja) * 2015-09-30 2017-04-06 大日本印刷株式会社 情報提供装置、プログラム及び情報提供方法
CN114788295A (zh) * 2019-12-05 2022-07-22 索尼集团公司 信息处理装置、信息处理方法及信息处理程序
JP6934233B1 (ja) * 2020-09-07 2021-09-15 株式会社Shift プログラム、情報処理装置、及び方法
JP7011860B1 (ja) * 2020-10-14 2022-01-27 株式会社Theater Guild プログラム、端末装置及び方法
WO2022163204A1 (ja) * 2021-01-29 2022-08-04 株式会社Nttドコモ 情報処理装置
CN113760098A (zh) * 2021-09-18 2021-12-07 陕西师范大学 基于时间积分的关注度有效量化方法及系统
WO2023095456A1 (ja) * 2021-11-29 2023-06-01 株式会社Nttドコモ レコメンド装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092023A (ja) * 2000-09-14 2002-03-29 Nippon Telegr & Teleph Corp <Ntt> 情報提供装置および方法と情報提供プログラムを記録した記録媒体
JP2002183212A (ja) * 2000-12-19 2002-06-28 Fuji Xerox Co Ltd 電子文書加工システム、電子文書加工方法、及び、コンピュータ読取り可能な記録媒体
JP2003250146A (ja) * 2001-12-21 2003-09-05 Nippon Telegr & Teleph Corp <Ntt> 番組選択支援情報提供サービスシステムとサーバ装置および端末装置ならびに番組選択支援情報提供方法とプログラムおよび記録媒体
JP2005182603A (ja) * 2003-12-22 2005-07-07 Fuji Xerox Co Ltd 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3724859B2 (ja) * 1995-10-16 2005-12-07 富士通株式会社 画像表示システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002092023A (ja) * 2000-09-14 2002-03-29 Nippon Telegr & Teleph Corp <Ntt> 情報提供装置および方法と情報提供プログラムを記録した記録媒体
JP2002183212A (ja) * 2000-12-19 2002-06-28 Fuji Xerox Co Ltd 電子文書加工システム、電子文書加工方法、及び、コンピュータ読取り可能な記録媒体
JP2003250146A (ja) * 2001-12-21 2003-09-05 Nippon Telegr & Teleph Corp <Ntt> 番組選択支援情報提供サービスシステムとサーバ装置および端末装置ならびに番組選択支援情報提供方法とプログラムおよび記録媒体
JP2005182603A (ja) * 2003-12-22 2005-07-07 Fuji Xerox Co Ltd 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200061570A (ko) * 2018-11-26 2020-06-03 케이티하이텔 주식회사 Tv 광고 영상을 실시간으로 분석하여 매칭되는 tv 앱을 호출하는 티커머스 경험 제공 방법
KR102285172B1 (ko) * 2018-11-26 2021-08-02 주식회사 케이티알파 Tv 광고 영상을 실시간으로 분석하여 매칭되는 tv 앱을 호출하는 티커머스 경험 제공 방법

Also Published As

Publication number Publication date
JPWO2008072739A1 (ja) 2010-04-02
WO2008072739A1 (ja) 2008-06-19

Similar Documents

Publication Publication Date Title
JP4865811B2 (ja) 視聴傾向管理装置、システム及びプログラム
US20210326931A1 (en) Digital advertising system
US10346860B2 (en) Audience attendance monitoring through facial recognition
JP6424357B2 (ja) 視認対象効果度測定装置
EP3516583B1 (en) Machine learning models for identifying objects depicted in image or video data
CN103760968B (zh) 数字标牌显示内容选择方法和装置
US7020336B2 (en) Identification and evaluation of audience exposure to logos in a broadcast event
JP6482172B2 (ja) レコメンド装置、レコメンド方法、およびプログラム
WO2009096428A1 (ja) 表示システム、表示効果測定システム、表示方法、表示効果測定方法、及び、記録媒体
US20190340780A1 (en) Engagement value processing system and engagement value processing apparatus
US20050088407A1 (en) Method and system for managing an interactive video display system
US20130151333A1 (en) Affect based evaluation of advertisement effectiveness
US11481791B2 (en) Method and apparatus for immediate prediction of performance of media content
US20230122126A1 (en) Audience attendance monitoring through facial recognition
JP2010218550A (ja) 人流計測システム
JP2013088832A (ja) 情報処理装置、情報処理方法、および、プログラム
US20110167445A1 (en) Audiovisual content channelization system
JP5325181B2 (ja) コンテンツ表示制御方法、コンテンツ表示制御装置およびコンテンツ表示システム
US20120001828A1 (en) Selecting displays for displaying content
JP7265202B2 (ja) 広告閲覧情報出力方法及び広告閲覧情報出力プログラム、並びに情報処理装置
US11367083B1 (en) Method and system for evaluating content for digital displays by measuring viewer responses by demographic segments
KR102428955B1 (ko) 딥 러닝을 이용한 인공지능 기반 3d 디스플레이 광고 영상 제공방법 및 시스템
JP2014060642A (ja) 表示装置及び表示システム
Chen et al. Predicting Decision-making Using Item Response Theory
JP2003331109A (ja) 行動予測システム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111102

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111110

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141118

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees