JP2006020131A - 関心度測定装置および関心度測定方法 - Google Patents

関心度測定装置および関心度測定方法 Download PDF

Info

Publication number
JP2006020131A
JP2006020131A JP2004196688A JP2004196688A JP2006020131A JP 2006020131 A JP2006020131 A JP 2006020131A JP 2004196688 A JP2004196688 A JP 2004196688A JP 2004196688 A JP2004196688 A JP 2004196688A JP 2006020131 A JP2006020131 A JP 2006020131A
Authority
JP
Japan
Prior art keywords
interest
content
viewer
degree
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004196688A
Other languages
English (en)
Inventor
Yasuhiro Fujiwara
靖宏 藤原
Takehito Abe
剛仁 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004196688A priority Critical patent/JP2006020131A/ja
Publication of JP2006020131A publication Critical patent/JP2006020131A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】コンテンツ視聴者の眼球運動から,特定の視聴者のコンテンツへの関心の程度と,特定のコンテンツへの視聴者の関心の程度とを測定する技術を提供する。
【解決手段】端末装置20は,視聴者によるコンテンツの視聴状況や,その視聴者の眼球運動を調査し,その調査結果を関心度測定装置10に送信する。関心度測定装置10において,瞬目解析装置13,反応時間解析装置14,サッケード解析装置15,視線偏差解析装置16は,それぞれ端末装置20からの情報により瞬目回数,反応時間,サッケードの速度や継続時間,視線の位置的な偏差等を解析する。関心度計算装置11は,それぞれの解析結果を計算要素として,その視聴者のコンテンツへの関心の程度を算出する。また,その計算結果と,データ格納装置12に格納された他の計算結果とをもとに,特定のコンテンツへの視聴者の関心の程度を算出する。
【選択図】図1

Description

本発明は,コンテンツに対する関心度測定装置および関心度測定方法に関し,特にコンテンツの視聴者の眼球運動から,特定の視聴者のコンテンツへの関心の程度と,特定のコンテンツへの視聴者の関心の程度とを測定する技術に関する。
現在,コンテンツ評価として,ビデオリサーチ社等が行っている視聴率調査がある。この視聴率調査では,主に以下の3つの方法が用いられている。
(1)視聴者が視聴のはじめと終わりにボタン入力し,調査者がそのボタン入力情報を収集することにより視聴状況を調査する。
(2)テレビに備え付けた装置によってテレビの表示状況を測定し,調査者がその測定情報を収集することにより視聴状況を調査する。
(3)視聴者による日記式のアンケートから,個人の視聴率を調査する。
しかし,これらの方法によって調査可能なのは,視聴者がテレビを見たのか見なかったのかということであり,視聴者がどの程度の関心を持ってコンテンツを視聴していたのかということまではわからないという問題点がある。
視聴者のコンテンツへの関心の程度を測定する従来技術として,視聴者の視聴状況(顔の向き)からコンテンツへの関心の程度を測定する方法がある(例えば,非特許文献1参照)。この方法は,コンテンツ視聴時における視聴者の視聴状況を撮影し,画像中における視聴者の顔の向きを抽出して,そこからコンテンツへの関心の程度を調査する方法である。顔が画面の方へ向けられていればコンテンツに対して関心があると推定し,顔が画面の方へ向けられていなければコンテンツに対して関心がないと推定する。この方法では,「視聴者の顔が画面の方向を向いていれば,その視聴者はコンテンツに興味がある」ということを前提条件としている。
なお,本発明の背景となる事項を記載した文献として,下記の非特許文献2,非特許文献3,非特許文献4,非特許文献5などがある。
清水正浩,岩田満,田野俊一,"ディジタルテレビ視聴時におけるマルチモーダル情報を用いた関心度推定システム",PRMU 2001- 272〜300 ,電子情報通信学会技術研究報告〔パターン認識・メディア理解〕,ISSN 0913-5685,信学技報 Vol.101 No.713 ,pp.217-224,2002 山田光穂,福田忠彦,"大画面ディスプレイから受ける心理効果の客観的評価に関する基礎的検討",テレビジョン学会誌,43,pp.714-722, 1989 田多英興,山田冨美雄,福田恭介,"まばたきの心理学",北大路書房,1996 塚原進,"画像による心理反応の客観計測",テレビジョン学会誌,33, pp.1040-1046, 1979 植野彰規,太田善久,高瀬守一郎,南谷晴之,"視覚誘発サッケードと内部誘発サッケードにおける覚醒水準依存性",信学論 (D-II), vol.J81-D-II, no.6, pp.1411-1420, 1998
従来の視聴者の顔の向きからコンテンツへの関心の程度を測定する方法の問題点として,上記の前提条件が必ずしも成立しないことがあるということが挙げられる。すなわち,視聴者の顔が画面の方向を向いていても,視聴者がコンテンツに対して興味がないこともある。例えば,視聴者が考え事をしながらコンテンツを視聴していれば,視聴者の顔が画面の方を向いていても,視聴者はそのコンテンツへの関心がないという状況も起こりえる。
本発明は,上記問題点の解決を図り,視聴者のコンテンツの視聴状況から,従来の技術よりも正確に,特定の視聴者のコンテンツへの関心の程度と,特定のコンテンツへの視聴者の関心の程度とを測定する技術を提供することを目的とする。
本発明は,上記課題を解決するため,コンテンツ視聴時における視聴者の眼球運動(瞬目,反応時間,サッケード等)を測定し,その眼球運動を解析して統計的処理を行うことにより,視聴者の関心の程度を測定することを特徴とする。
すなわち,本発明は,視聴者のコンテンツに対する関心の程度を測定する関心度測定方法であって,視聴者の端末装置により,少なくとも視聴者によるコンテンツの視聴状況に関する情報と視聴者の眼球運動の情報とに関して調査を行い,関心度測定装置へコンテンツを特定するコンテンツIDやコンテンツ操作情報や視聴者の眼球運動の測定情報等を送り,関心度測定装置が,端末装置による調査結果から,視聴者の眼球運動の情報をもとに,コンテンツの視聴部分における実際にコンテンツを視聴していた時間の割合を求めることにより,視聴者のコンテンツに対する関心の程度を算出する。
また,端末装置からの調査の結果をもとに,視聴者の瞬目の頻度に関する解析を行う過程を有し,視聴者のコンテンツに対する関心の程度を算出する過程では,少なくとも視聴者の瞬目の頻度に関する解析の結果を計算要素として,視聴者のコンテンツに対する関心の程度を算出する。瞬目の頻度が,あらかじめ測定された平均瞬目頻度(平常時の瞬目頻度)に比べて小さいほど,コンテンツに対する関心の程度が高い値になるように算出する。
また,端末装置からの調査の結果をもとに,コンテンツの画面変化または音量変化に対する視聴者の反応時間に関する解析を行う過程を有し,視聴者のコンテンツに対する関心の程度を算出する過程では,少なくともコンテンツの画面変化または音量変化に対する視聴者の反応時間に関する解析の結果を計算要素として,視聴者のコンテンツに対する関心の程度を算出する。短い反応時間の回数が多いほど,コンテンツに対する関心の程度が高い値になるように算出する。
また,端末装置からの調査の結果をもとに,視聴者のサッケードの振幅,速度または継続時間に関する解析を行う過程を有し,視聴者のコンテンツに対する関心の程度を算出する過程では,少なくとも視聴者のサッケードの振幅,速度または継続時間に関する解析の結果を計算要素として,視聴者のコンテンツに対する関心の程度を算出する。例えば,サッケードの継続時間が減少した場合には,コンテンツに対する関心の程度が低いものとする。
また,端末装置からの調査の結果をもとに,視聴者の視線の位置的な偏差に関する解析を行う過程を有し,視聴者のコンテンツに対する関心の程度を算出する過程では,少なくとも視聴者の視線の位置的な偏差に関する解析の結果を計算要素として,視聴者のコンテンツに対する関心の程度を算出する。同じコンテンツに対する複数の視聴者の視線の平均的な位置に近い位置を見ていた視聴者は,そのコンテンツへの関心の程度が高いものとする。
また,視聴者のコンテンツに対する関心の程度を算出する過程で算出された視聴者のコンテンツに対する計算結果をデータ格納装置に格納しておき,多くの視聴者のコンテンツに対する計算結果とをもとに,コンテンツごとの一般視聴者の関心の程度を算出する。
本発明によって,従来の技術に比べてより正確な関心の程度の測定が可能となる。
前述のように,従来技術では,顔の向きからコンテンツへの関心の程度を測定する。そのため,顔が画面の方向を向いていれば,画面が出力するコンテンツに対して関心がなくても関心があると測定するという問題点がある。
本発明では,この問題点を解決するために,視聴者の眼球の動きに注目してコンテンツへの関心の程度を測定する。コンテンツに関心がある場合には,眼球がコンテンツに対して反応するためである。眼球が反応するのは,視野における中心視は非常に狭いため(半径約1°の範囲),コンテンツの内容を理解しようとすれば,常に眼球を運動させなければならないからである。過去の研究で,視野角内の画面が及ぶ角度が半径16°であれば,それほど頭部は運動しないことが報告されている(非特許文献2参照)。
以下,本発明の実施の形態について,最初に図を用いて本システムの構成を説明し,その後に本システムの動作を説明する。
図1は,本発明の実施の形態における関心度測定システムの構成例を示す図である。関心度測定システムは,視聴者のコンテンツへの関心の程度を測定する関心度測定装置10と,視聴者がコンテンツの視聴を行う端末装置20とから構成される。関心度測定装置10は,ネットワーク30を介して,複数の端末装置20と接続されている。
関心度測定装置10は,関心度計算装置11と,データ格納装置12と,瞬目解析装置13と,反応時間解析装置14と,サッケード解析装置15と,視線偏差解析装置16と,通信装置17とから構成される。端末装置20は,コンテンツ表示装置21と,眼球運動測定装置22と,通信装置23とから構成される。関心度測定装置10および各端末装置20の構成要素は,CPU,メモリ等からなるコンピュータとソフトウェアプログラム,およびディスプレイ,入力センサもしくはカメラ等の入出力装置のハードウェアによって実現される。
図2は,端末装置20におけるコンテンツ表示装置21の構成例を示す図である。コンテンツ表示装置21は,外部からコンテンツを受信するコンテンツ受信部210と,視聴者がどのコンテンツを視聴するかなどを操作するためのコンテンツ操作部211と,コンテンツを視聴者に対して出力するコンテンツ表示部212と,コンテンツの視聴時刻を調査する時刻調査部213と,どのコンテンツのどこの部分が視聴されたかを調査するコンテンツ操作調査部214と,調査した結果のコンテンツ情報を眼球運動測定装置22へ送信するコンテンツ情報送信部215とから構成される。
図3は,端末装置20における眼球運動測定装置22の構成例を示す図である。眼球運動測定装置22は,視聴者がどのような体勢でコンテンツを視聴しているかを撮影する視聴状況撮影部220と,視聴状況撮影部220で撮影された動画像から視聴者がコンテンツ表示部212のどこを見ていたかを測定する眼球運動測定部221と,視聴状況撮影部220で撮影された動画像から視聴者を特定する視聴者特定部222と,コンテンツ表示装置21から送信されてきたコンテンツ情報を受信するコンテンツ情報受信部223と,コンテンツ情報受信部223が受信したコンテンツ情報と眼球運動測定部221が測定した眼球運動の情報と視聴者特定部222が特定した視聴者の情報と操作情報とを統合して調査結果情報とし,通信装置23を用いてネットワーク30を介して関心度測定装置10へ送信する調査結果送信部224とから構成される。
図4は,関心度測定装置10における瞬目解析装置13の構成例を示す図である。瞬目解析装置13は,通信装置17を介して端末装置20からの調査結果情報を受信する調査結果受信部130と,コンテンツの輝度変化量や音量のレベルなどのコンテンツ特有の情報と端末装置20から受信した調査結果情報とを統合して関心度計算装置11が関心度を計算するのに用いる瞬目(まばたき)に関する計算要素を算出する調査結果解析部131と,調査結果解析部131が算出した計算要素(瞬目解析結果)を関心度計算装置11へ送信する瞬目解析結果送信部132とから構成される。
図5は,関心度測定装置10における反応時間解析装置14の構成例を示す図である。反応時間解析装置14は,通信装置17を介して端末装置20からの調査結果情報を受信する調査結果受信部140と,コンテンツの輝度変化量や音量のレベルなどのコンテンツ特有の情報と端末装置20から受信した調査結果情報とを統合して関心度計算装置11が関心度を計算するのに用いる反応時間に関する計算要素を算出する調査結果解析部141と,調査結果解析部141が算出した計算要素(反応時間解析結果)を関心度計算装置11へ送信する反応時間解析結果送信部142とから構成される。
図6は,関心度測定装置10におけるサッケード解析装置15の構成例を示す図である。サッケード解析装置15は,通信装置17を介して端末装置20からの調査結果情報を受信する調査結果受信部150と,コンテンツの輝度変化量や音量のレベルなどのコンテンツ特有の情報と端末装置20から受信した調査結果情報とを統合して関心度計算装置11が関心度を計算するのに用いるサッケード(急速眼球運動)に関する計算要素を算出する調査結果解析部151と,調査結果解析部151が算出した計算要素(サッケード解析結果)を関心度計算装置11へ送信するサッケード解析結果送信部152とから構成される。
図7は,関心度測定装置10における視線偏差解析装置16の構成例を示す図である。視線偏差解析装置16は,通信装置17を介して端末装置20からの調査結果情報を受信する調査結果受信部160と,端末装置20から受信した調査結果情報をもとに関心度計算装置11が関心度を計算するのに用いる視線偏差に関する計算要素を算出する調査結果解析部161と,調査結果解析部161が算出した計算要素(視線偏差解析結果)を関心度計算装置11へ送信する視線偏差解析結果送信部162とから構成される。
図8は,関心度測定装置10における関心度計算装置11の構成例を示す図である。関心度計算装置11は,通信装置17および瞬目解析装置13や反応時間解析装置14やサッケード解析装置15や視線偏差解析装置16から計算要素を受信する計算要素受信部110と,データ格納装置12からの情報を受信する格納データ受信部111と,視聴者の関心の程度やコンテンツへの関心の程度を計算する関心度演算部112と,計算結果をデータ格納装置12やその他の出力装置へ送信する計算結果出力部113とから構成される。
図9は,関心度測定装置10におけるデータ格納装置12の構成例を示す図である。データ格納装置12は,関心度計算装置11からの計算結果を受信する結果受信部120と,結果受信部120により受信した計算結果を格納する結果格納部121と,結果格納部121に格納された計算結果を関心度計算装置11へ送信する結果送信部122とから構成される。
次に,図1〜図9に示した装置構成の動作について説明する。図1に示す端末装置20で,視聴者がコンテンツの視聴を行うと,端末装置20は,視聴者を特定する情報などの視聴者に関する情報(視聴者情報),視聴したコンテンツの内容に関する情報(コンテンツ情報),視聴者の眼球運動に関する情報(眼球運動情報)などを統合した調査結果情報を,ネットワーク30を介して関心度測定装置10へ送信する。
関心度測定装置10は,端末装置20から受信した調査結果情報や,それ以前に受信したその他の端末装置20からの過去の調査結果情報などをもとに,視聴者の関心の程度を測定し,また視聴されたコンテンツに対する関心の程度を測定する。
図2に示すコンテンツ受信部210は,例えば,地上波デジタル電波や,IP網や,DVDその他の記録媒体などからコンテンツを受信する。視聴者は,コンテンツ操作部211を用いて,どのコンテンツを視聴するか,どの音量で再生するか,早送り,巻き戻し,再生の停止など,コンテンツを視聴する環境を設定する。コンテンツ表示部212は,コンテンツ操作部211によって操作されたとおりに,コンテンツを視聴者に対して出力する。
視聴者が視聴したコンテンツや,視聴者がコンテンツ操作部211を用いて行った操作などの情報は,時刻調査部213からの時間情報とともに,コンテンツ操作調査部214に保存される。なお,時刻調査部213は,外部の時刻同期サーバや電波時計などに用いられる標準電波などに同期させることで時刻の正確性を担保する。コンテンツ操作調査部214に保存された情報は,コンテンツ情報送信部215によって,眼球運動測定装置22に送信される。
視聴者がコンテンツを視聴している際の体勢は,図3に示す眼球運動測定装置22の視聴状況撮影部220を用いて撮影される。視聴状況撮影部220の例としては,コンテンツ表示装置21に固定された1台以上のカメラや,視聴者自身の身体(頭など)に取り付けられた1台以上のカメラなどがある。
眼球運動測定部221や視聴者特定部222では,視聴状況撮影部220によって撮影された動画像中における視聴者の頭部部分の抽出を行い,さらに,抽出された視聴者の頭部部分から眼・鼻・口などの特定部分を抽出する。眼球運動測定部221は,抽出された眼の部分から,視聴者がコンテンツ表示部212のどこを見ていたか(またはコンテンツ表示部212以外を見ていたか)を測定する。視聴者特定部222は,抽出された眼・鼻・口などの特定部分から,コンテンツを視聴した視聴者を特定する。なお,視聴者の特定は,あらかじめ登録された端末装置20の端末番号などを用いて行ってもよい。コンテンツ情報受信部223は,コンテンツ表示装置21から送信されたコンテンツ情報を受信する。
調査結果送信部224は,眼球運動測定部221により測定された視聴者の眼球運動の情報,視聴者特定部222により特定された視聴者の情報,コンテンツ情報受信部223により受信されたコンテンツ情報(コンテンツの操作の情報や時刻情報を含む)などをまとめて調査結果情報とし,その調査結果情報を通信装置23を用いてネットワーク30を介して関心度測定装置10へ送信する。
図4に示す瞬目解析装置13において,調査結果受信部130は,端末装置20からの調査結果情報を受信する。調査結果解析部131は,端末装置20から受信した調査結果情報と,データ格納装置12にあらかじめ格納しておいたコンテンツの輝度変化量や音量のレべルなどのコンテンツ特有の情報とを統合して関心度計算装置11が計算を行うための計算要素を算出する。
瞬目は視認性が低下(文字が見難いなど)したり,画面が明るくなったり暗くなったりすると,増加することが報告されている(非特許文献3参照)。そのため,調査結果解析部131では,関心の程度と関係のないこれらの要因における瞬目を,ノイズとして取り除くために,コンテンツの輝度変化量や音量のレべルなどのコンテンツ特有の情報を用いる。算出された計算要素(瞬目解析結果)は,瞬目解析結果送信部132により,関心度計算装置11へ送信される。
図5に示す反応時間解析装置14において,調査結果受信部140は,端末装置20からの調査結果情報を受信する。各調査結果解析部141は,端末装置20から受信した調査結果情報と,データ格納装置12にあらかじめ格納しておいたコンテンツの輝度変化量や音量のレべルなどのコンテンツ特有の情報とを統合して関心度計算装置11が計算を行うための計算要素を算出する。具体的な算出のしかたの例については後述する。算出された計算要素(反応時間解析結果)は,反応時間解析結果送信部142により,関心度計算装置11へ送信される。
図6に示すサッケード解析装置15において,調査結果受信部150は,端末装置20からの調査結果情報を受信する。調査結果解析部151は,端末装置20から受信した調査結果情報と,データ格納装置12にあらかじめ格納しておいたコンテンツの輝度変化量や音量のレべルなどのコンテンツ特有の情報とを統合して関心度計算装置11が計算を行うための計算要素を算出する。
例えば視聴者が画面上をゆっくり移動する物体を注視していた場合,結果的にサッケードの速さはゆっくりになる。そのため,このようなノイズを除去するためにコンテンツの輝度変化量や音量のレべルなどのコンテンツ特有の情報を用いる。算出された計算要素(サッケード解析結果)は,サッケード解析結果送信部152により,関心度計算装置11へ送信される。
図7に示す視線偏差解析装置16において,調査結果受信部160は,端末装置20からの調査結果情報を受信する。調査結果解析部161は,端末装置20から受信した調査結果情報をもとに関心度計算装置11が計算を行うための計算要素を算出する。算出された計算要素(視線偏差解析結果)は,視線偏差解析結果送信部162により,関心度計算装置11へ送信される。
図8に示す関心度演算部112は,計算要素受信部110で受信した各計算要素をもとに,視聴者の関心の程度を計算する。計算結果は,計算結果出力部113により,データ格納装置12や他の任意の出力装置へ送信される。また,視聴者の関心の程度の計算結果と,格納データ受信部111が受信した他の計算結果とをもとに,コンテンツへの関心の程度を計算することも行われる。
関心度計算装置11で計算された関心の程度の情報は,図9に示すデータ格納装置12の結果受信部120が受信し,結果格納部121に保存される。保存された結果は,要求により結果送信部122から関心度計算装置11へ送信される。
以下では,関心度測定装置10が視聴者の関心の程度やコンテンツへの関心の程度を測定する方法の具体例について説明する。
なお,以下の実施の形態において,関心度演算部112は,コンテンツへの関心の程度を,視聴者の関心の程度IP の平均を計算することにより求めるものとする。すなわち,コンテンツへの関心の程度IC は,
C =ΣIP /n (nは視聴者数)
として求める。nは視聴者数であり,ΣIP はすべての視聴者の関心の程度IP の和を示す。
〔実施の形態1〕
本実施の形態1では,関心度演算部112が,関心の程度の測定を行うコンテンツ視聴部分のうちの実視聴時間を計測することによって,視聴者の関心の程度を測定する。ここで,コンテンツの視聴部分とは,時間的なコンテンツの全体のうち視聴者が一度でも視聴した部分のことである。
図10は,実視聴時間の説明図である。実視聴時間とは,視聴者が実際にコンテンツを視聴していた時間(サッケードや瞬目をしていた時間を含む)をいう。視聴者が実際にコンテンツを視聴していたかどうかは,視聴者がコンテンツ表示部212を見ていたかどうかを眼球運動から判断する。例えば,顔がコンテンツ表示部212の方を向いていたとしても,眼球がコンテンツ表示部212の方を向いていなかったら実視聴時間の時間としてはカウントしない。すなわち,実視聴時間は,眼球(視線)がコンテンツ表示部212の方を向いていた時間である。
図10(A)に示すように,コンテンツが60分番組であり,視聴者がそのうちの25分を1回視聴し,20分を巻戻しと再生により2回視聴し,15分は早送りにより1回も視聴しなかったとする。この場合,コンテンツ視聴部分は,25分+20分=45分となる。一方,実視聴時間は,20分を2回視聴しているので,25分+20分×2=65分とカウントされる。
本実施の形態1では,端末装置20からネットワーク30を介して通信装置17が受信した調査結果情報を,関心度計算装置11が通信装置17から直接受信し,計算を行う。コンテンツの視聴部分の時間をTとし,実視聴時間のうち再生していた時間をtP ,早送りしていた時間をtF ,巻き戻ししていた時間をtR ,一時停止していた時間をtS とすると,関心度演算部112は,視聴者の関心の程度IP を,
P =(a・tP +b・tF +c・tR +d・tS )/T
として求める。a,b,c,dは任意の定数であり,例えば実験結果の統計処理により適切な値を定める。
実視聴時間は,例えば図10(B)に示すように,コンテンツ表示部212を注視していた時間(t1 ,t3 ,t5 ,t7 ,t9 ,t11),瞬目を行っていた時間(t2 ,t8 ,t10),サッケードを行っていた時間(t4 ,t6 )に分類される。視聴者は注視していた時間だけ認識活動を行うため,図10(B)に示す時間のうち,瞬目を行っていた時間およびサッケードを行っていた時間を,実視聴時間に含めないで,注視していた時間だけを実視聴時間として視聴者の関心の程度Ip を計算してもよい。
〔実施の形態2〕
本実施の形態2では,関心度演算部112が,視聴者が実視聴時間内に行った瞬目の頻度によって,視聴者の関心の程度を測定する。コンテンツ視聴時における瞬目の頻度の減少量は,コンテンツに対する関心の程度と関連があることが知られている(非特許文献4参照)。非特許文献4には,コンテンツへの関心の程度が高いほど瞬目の頻度が減少することが報告されている。
本実施の形態2では,端末装置20から通信装置17が受信した調査結果情報を,瞬目解析装置13が通信装置17から受け取り,調査結果解析部131により解析を行い,解析により得られた計算要素(瞬目解析結果)と端末装置20から受信した調査結果情報とをもとに,関心度計算装置11が計算を行う。
瞬目解析装置13の調査結果解析部131では,瞬目頻度の個人差の影響を排除するために,平常時の瞬目頻度を参考にコンテンツ視聴時の瞬目頻度を求める。すなわち,平常時の瞬目頻度をBU ,コンテンツ視聴時の瞬目頻度をBV とすると,計算要素(瞬目解析結果)Bは,
B=BU /BV
となる。
関心度演算部112は,視聴者の関心の程度IP を,
P =e・B・(a・tP +b・tF +c・tR +d・tS )/T
として求める。ここで,tP ,tF ,tR ,tS ,Tについては,前述の実施の形態1と同様である。a,b,c,d,eは実験により定めた任意の定数である。
〔実施の形態3〕
本実施の形態3では,関心度演算部112が,コンテンツの変化の反応時間によって,視聴者の関心の程度を測定する。コンテンツは時々刻々と画面の輝度値や音量が変化していくが,それらの変化量がある一定値を超えたときに視聴者が反応しているかを,眼球運動によって測定する。例えば,シーンチェンジがあった場合に,視聴者が一定時間内にサッケードを行うかどうかで測定を行う。
本実施の形態3では,端末装置20から通信装置17が受信した調査結果情報を,反応時間解析装置14が受け取って解析を行い,解析により得られた計算要素(反応時間解析結果)と端末装置20から受信した調査結果情報とをもとに,関心度計算装置11が計算を行う。
反応時間解析装置14の調査結果解析部141では,画面の画素変化量や音量レベルの変化量から視聴者が反応すると考えられるポイントを算出する。また,そのポイントにおいて視聴者が一定の時間内Sにサッケードを行っているかを測定することにより,視聴者が反応しているかどうかを測定する。コンテンツ中の反応ポイントの数をPA ,視聴者が反応したポイントの数をPR とすると,計算要素(反応時間解析結果)Pは,
P=PR /PA
となる。
関心度演算部112は,視聴者の関心の程度IP を,
P =e・P・(a・tP +b・tF +c・tR +d・tS )/T
として求める。ここで,tP ,tF ,tR ,tS ,Tについては,前述の実施の形態1と同様である。a,b,c,d,eは実験により定めた任意の定数である。
〔実施の形態4〕
本実施の形態4では,関心度演算部112が,視聴者がコンテンツ視聴中に行うサッケードの速度や継続時間を測定することによって,視聴者の関心の程度を測定する。人間は覚醒度が低下すると,サッケードの継続時間が減少することが知られている(非特許文献5参照)。そこで,覚醒度が低くなればコンテンツに対する関心の程度は低下していると判断する。
本実施の形態4では,端末装置20から通信装置17が受信した調査結果情報を,サッケード解析装置15が受け取って解析を行い,解析により得られた計算要素(サッケード解析結果)と端末装置20から受信した調査結果情報とをもとに,関心度計算装置11が計算を行う。
サッケード解析装置15の調査結果解析部151では,平常時とコンテンツ視聴時のサッケードの振幅[deg]と継続時間[ms]とをサンプリングする。次に,人間が行うサッケードが,
D(A)=D0 log(k・A+1)
(D(A)は継続時間,Aは振幅[deg],D0 ,kは定数)
という式でモデル化できることを用いて,平常時のサッケードの近似式DU (A)とコンテンツ視聴時のサッケードの近似式DV (A)とを求める。また,計算要素(サッケード解析結果)Dを,
D=DV (AA )/DU (AA
(AA はサンプリングされたサッケードの振幅の平均値)
として求める。
なお,視聴者がコンテンツ中に表示される移動部分に追従した眼球運動を行うことがあるが,このような眼球運動は,調査結果解析部151がコンテンツを解析することにより,サンプリングの対象から外す。
関心度演算部112は,視聴者の関心の程度IP を,
P =e・D・(a・tP +b・tF +c・tR +d・tS )/T
として求める。ここで,tP ,tF ,tR ,tS ,Tについては,前述の実施の形態1と同様である。a,b,c,d,eは実験により定めた任意の定数である。
なお,サッケードが,
V(A)=V0 {1−exp(−A/k)}
(V(A)はサッケードの最高速度,Aは振幅[deg],V0 ,kは定数)
とモデル化できることを用いて,関心の程度を求めてもよい。
〔実施の形態5〕
本実施の形態5では,関心度演算部112が,視聴者の視線の位置的な偏差の程度を測定することによって,視聴者の関心の程度を測定する。コンテンツを複数の視聴者が視聴すれば,視線の平均の位置が求められる。視線の平均位置から近い位置を見ていた視聴者は,コンテンツへの関心の程度が高いと測定する。
本実施の形態5では,端末装置20から通信装置17が受信した調査結果情報を視線偏差解析装置16が受け取って解析を行い,解析により得られた計算要素(視線偏差解析結果)と端末装置20から受信した調査結果情報とをもとに,関心度計算装置11が計算を行う。
視線偏差解析装置16の調査結果解析部161では,視聴者がコンテンツ表示部212のどこを見ていたかを,サンプリング周波数(例えば1Hz)ごとに求める。ここで,視聴者がサッケードや瞬目を行っていたときには,その視線の位置は考慮しない。
調査結果解析部161は,サンプリング周波数ごとに視聴者の視線の平均位置xA (t),yA (t)を求める。また,測定された視聴者の視線の位置x(t),y(t)との位置的な近さCから,計算要素(視線偏差解析結果)Cを求める。
C=((x(t)−xA (t))2 +(y(t)−yA (t))2 1/2
関心度演算部112は,視聴者の関心の程度IP を,
P =e・C・(a・tP +b・tF +c・tR +d・tS )/T
として求める。ここで,tP ,tF ,tR ,tS ,Tについては,前述の実施の形態1と同様である。a,b,c,d,eは実験により定めた任意の定数である。
なお,視聴者がサッケードや瞬目を行っていたときの視線情報を用いて,関心の程度を求めてもよい。
〔実施の形態6〕
本実施の形態6では,関心度演算部112が,コンテンツ視聴者の瞬目の頻度,反応時間,サッケードの速度・継続時間,視線の位置的な偏差から,関心度を測定する。
端末装置20から通信装置17が受信した調査結果情報を,瞬目解析装置13,反応時間解析装置14,サッケード解析装置15,視線偏差解析装置16がそれぞれ受け取って解析を行い,解析により得られた各計算要素(瞬目解析結果B,反応時間解析結果P,サッケード解析結果D,視線偏差解析結果C)をもとに,関心度計算装置11が計算を行う。
関心度演算部112は,視聴者の関心の程度IP を,
P =a・B+b・P+c・D+d・C (a,b,c,dは任意の定数)
として求める。ここで,B,P,D,Cについては,前述の実施の形態2〜5と同様である。なお,これらのすべてを組み合わせるのではなく,一部だけを組み合わせる実施も可能である。
本発明の実施の形態における関心度測定システムの構成例を示す図である。 本実施の形態におけるコンテンツ表示装置の構成例を示す図である。 本実施の形態における眼球運動測定装置の構成例を示す図である。 本実施の形態における瞬目解析装置の構成例を示す図である。 本実施の形態における反応時間解析装置の構成例を示す図である。 本実施の形態におけるサッケード解析装置の構成例を示す図である。 本実施の形態における視線偏差解析装置の構成例を示す図である。 本実施の形態における関心度計算装置の構成例を示す図である。 本実施の形態におけるデータ格納装置の構成例を示す図である。 実視聴時間の説明図である。
符号の説明
10 関心度測定装置
11 関心度計算装置
12 データ格納装置
13 瞬目解析装置
14 反応時間解析装置
15 サッケード解析装置
16 視線偏差解析装置
17 通信装置
20 端末装置
21 コンテンツ表示装置
22 眼球運動測定装置
23 通信装置
30 ネットワーク
110 計算要素受信部
111 格納データ受信部
112 関心度演算部
113 計算結果出力部
120 結果受信部
121 結果格納部
122 結果送信部
130 調査結果受信部
131 調査結果解析部
132 瞬目解析結果送信部
140 調査結果受信部
141 調査結果解析部
142 反応時間解析結果送信部
150 調査結果受信部
151 調査結果解析部
152 サッケード解析結果送信部
160 調査結果受信部
161 調査結果解析部
162 視線偏差解析結果送信部
210 コンテンツ受信部
211 コンテンツ操作部
212 コンテンツ表示部
213 時刻調査部
214 コンテンツ操作調査部
215 コンテンツ情報送信部
220 視聴状況撮影部
221 眼球運動測定部
222 視聴者特定部
223 コンテンツ情報受信部
224 調査結果送信部

Claims (12)

  1. コンテンツを表示する視聴者の端末装置にネットワークを介して接続され,コンテンツを視聴している視聴者がどの程度コンテンツへ関心を有しているかを測定する関心度測定装置において,
    前記端末装置から送信された,視聴者が視聴するコンテンツを特定する情報と,それに対する操作情報と,コンテンツを視聴する視聴者の眼球運動の測定情報とを受信する通信手段と,
    受信した操作情報と眼球運動の測定情報とをもとに,視聴者が実際にコンテンツを視聴していた時間を算出し,コンテンツの視聴部分における実際にコンテンツを視聴していた時間の割合によって当該視聴者のコンテンツに対する関心の程度を計算する関心度計算手段と,
    計算した視聴者のコンテンツに対する関心の程度のデータを格納するデータ格納手段とを有する
    ことを特徴とする関心度測定装置。
  2. 請求項1記載の関心度測定装置において,
    少なくとも前記端末装置から受信した眼球運動の測定情報をもとに,コンテンツ視聴中の視聴者の瞬目頻度を測定する瞬目解析手段を有し,
    前記関心度計算手段は,前記瞬目解析手段が測定した瞬目頻度に基づいて当該視聴者のコンテンツに対する関心の程度を計算する
    ことを特徴とする関心度測定装置。
  3. 請求項1または請求項2記載の関心度測定装置において,
    少なくとも前記端末装置から受信した眼球運動の測定情報をもとに,コンテンツの画面変化または音量変化に対する視聴者の反応時間を解析する反応時間解析手段を有し,
    前記関心度計算手段は,前記反応時間解析手段が解析した情報に基づいて当該視聴者のコンテンツに対する関心の程度を計算する
    ことを特徴とする関心度測定装置。
  4. 請求項1,請求項2または請求項3記載の関心度測定装置において,
    少なくとも前記端末装置から受信した眼球運動の測定情報をもとに,サッケードの振幅,速度,継続時間またはそれらの組合せを解析するサッケード解析手段を有し,
    前記関心度計算手段は,前記サッケード解析手段が解析した情報に基づいて当該視聴者のコンテンツに対する関心の程度を計算する
    ことを特徴とする関心度測定装置。
  5. 請求項1,請求項2,請求項3または請求項4記載の関心度測定装置において,
    少なくとも前記端末装置から受信した眼球運動の測定情報をもとに,視聴者間の視線の位置的な偏差を解析する視線偏差解析手段を有し,
    前記関心度計算手段は,前記視線偏差解析手段が解析した情報に基づいて当該視聴者のコンテンツに対する関心の程度を計算する
    ことを特徴とする関心度測定装置。
  6. 請求項1から請求項5までのいずれか1項に記載の関心度測定装置において,
    一般視聴者の特定のコンテンツへの関心の程度を,当該コンテンツに対する前記関心度計算手段によって計算した各視聴者の関心の程度を平均することにより算出する
    ことを特徴とする関心度測定装置。
  7. コンテンツを表示する視聴者の端末装置と,コンテンツを視聴している視聴者がどの程度コンテンツへ関心を有しているかを測定する関心度測定装置とからなるシステムにおける関心度測定方法において,
    前記端末装置が,コンテンツを視聴者に対して出力するコンテンツ表示過程と,
    前記端末装置が,コンテンツを視聴する視聴者の眼球の運動を測定する眼球運動測定過程と,
    前記端末装置が,視聴者が視聴したコンテンツを特定する情報とそれに対する操作情報と眼球運動の測定情報とを,ネットワークを介して前記関心度測定装置へ送信する過程と,
    前記関心度測定装置が,前記端末装置から送信されたコンテンツを特定する情報とそれに対する操作情報と眼球運動の測定情報とを受信する過程と,
    前記関心度測定装置が,受信したコンテンツを特定する情報とそれに対する操作情報と眼球運動の測定情報をもとに,視聴者が実際にコンテンツを視聴していた時間を算出し,コンテンツの視聴部分における実際にコンテンツを視聴していた時間の割合によって当該視聴者のコンテンツに対する関心の程度を計算する関心度計算過程と,
    前記関心度測定装置が,計算した視聴者のコンテンツに対する関心の程度のデータをデータ格納装置に格納する過程とを有する
    ことを特徴とする関心度測定方法。
  8. 請求項7記載の関心度測定方法において,
    前記関心度測定装置が,少なくとも前記端末装置から受信した眼球運動の測定情報をもとに,コンテンツ視聴中の視聴者の瞬目頻度を測定する瞬目解析過程を有し,
    前記関心度計算過程では,前記瞬目解析過程が測定した瞬目頻度に基づいて当該視聴者のコンテンツに対する関心の程度を計算する
    ことを特徴とする関心度測定方法。
  9. 請求項7または請求項8記載の関心度測定方法において,
    前記関心度測定装置が,少なくとも前記端末装置から受信した眼球運動の測定情報をもとに,コンテンツの画面変化または音量変化に対する視聴者の反応時間を解析する反応時間解析過程を有し,
    前記関心度計算過程では,前記反応時間解析過程が解析した情報に基づいて当該視聴者のコンテンツに対する関心の程度を計算する
    ことを特徴とする関心度測定方法。
  10. 請求項7,請求項8または請求項9記載の関心度測定方法において,
    前記関心度測定装置が,少なくとも前記端末装置から受信した眼球運動の測定情報をもとに,サッケードの振幅,速度,継続時間またはそれらの組合せを解析するサッケード解析過程を有し,
    前記関心度計算過程では,前記サッケード解析過程が解析した情報に基づいて当該視聴者のコンテンツに対する関心の程度を計算する
    ことを特徴とする関心度測定方法。
  11. 請求項7,請求項8,請求項9または請求項10記載の関心度測定方法において,
    前記関心度測定装置が,少なくとも前記端末装置から受信した眼球運動の測定情報をもとに,視聴者間の視線の位置的な偏差を解析する視線偏差解析過程を有し,
    前記関心度計算過程では,前記視線偏差解析過程が解析した情報に基づいて当該視聴者のコンテンツに対する関心の程度を計算する
    ことを特徴とする関心度測定方法。
  12. 請求項7から請求項11までのいずれか1項に記載の関心度測定方法において,
    前記関心度測定装置が,一般視聴者の特定のコンテンツへの関心の程度を,当該コンテンツに対する前記関心度計算過程によって計算した各視聴者の関心の程度を平均することにより算出する
    ことを特徴とする関心度測定方法。
JP2004196688A 2004-07-02 2004-07-02 関心度測定装置および関心度測定方法 Pending JP2006020131A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004196688A JP2006020131A (ja) 2004-07-02 2004-07-02 関心度測定装置および関心度測定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004196688A JP2006020131A (ja) 2004-07-02 2004-07-02 関心度測定装置および関心度測定方法

Publications (1)

Publication Number Publication Date
JP2006020131A true JP2006020131A (ja) 2006-01-19

Family

ID=35793941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004196688A Pending JP2006020131A (ja) 2004-07-02 2004-07-02 関心度測定装置および関心度測定方法

Country Status (1)

Country Link
JP (1) JP2006020131A (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006254145A (ja) * 2005-03-11 2006-09-21 Mmn:Kk テレビ番組の視聴質測定方法
JP2009247753A (ja) * 2008-04-09 2009-10-29 Honda Motor Co Ltd 関心度推定装置および方法
JP2010204823A (ja) * 2009-03-02 2010-09-16 Hitachi Information & Control Solutions Ltd 視線認識装置
US7834912B2 (en) 2006-04-19 2010-11-16 Hitachi, Ltd. Attention level measuring apparatus and an attention level measuring system
JP2011239247A (ja) * 2010-05-12 2011-11-24 Nippon Hoso Kyokai <Nhk> デジタル放送受信装置および関連情報提示プログラム
WO2012105196A1 (ja) * 2011-02-04 2012-08-09 パナソニック株式会社 関心度推定装置および関心度推定方法
KR101490040B1 (ko) 2013-08-30 2015-02-04 고려대학교 산학협력단 시청자의 시선 상태를 분류하는 방법 및 장치
CN107285148A (zh) * 2017-08-07 2017-10-24 浙江新再灵科技股份有限公司 基于电梯场景的兴趣区域判断系统及方法
CN107613289A (zh) * 2017-10-19 2018-01-19 何翔 一种基于眨眼检测的视频内容分析方法及装置
WO2019181537A1 (ja) * 2018-03-22 2019-09-26 国立研究開発法人科学技術振興機構 処理装置、処理方法、データ処理装置、データ処理システム、データ処理方法及びプログラム
JP2019168837A (ja) * 2018-03-22 2019-10-03 国立研究開発法人科学技術振興機構 処理装置、処理方法、及びプログラム
CN110503027A (zh) * 2019-08-20 2019-11-26 合肥凌极西雅电子科技有限公司 一种基于数据采集与分析的儿童兴趣、性格分析系统和方法
WO2022186451A1 (ko) * 2021-03-04 2022-09-09 주식회사 비주얼캠프 시선 집중도 산출 방법 및 이를 수행하기 위한 컴퓨팅 장치

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4536558B2 (ja) * 2005-03-11 2010-09-01 株式会社エム・エム・エヌ テレビ番組の視聴質測定方法
JP2006254145A (ja) * 2005-03-11 2006-09-21 Mmn:Kk テレビ番組の視聴質測定方法
US7834912B2 (en) 2006-04-19 2010-11-16 Hitachi, Ltd. Attention level measuring apparatus and an attention level measuring system
JP2009247753A (ja) * 2008-04-09 2009-10-29 Honda Motor Co Ltd 関心度推定装置および方法
US8044808B2 (en) 2008-04-09 2011-10-25 Honda Motor Co., Ltd. System and method for estimating interest level
JP2010204823A (ja) * 2009-03-02 2010-09-16 Hitachi Information & Control Solutions Ltd 視線認識装置
JP2011239247A (ja) * 2010-05-12 2011-11-24 Nippon Hoso Kyokai <Nhk> デジタル放送受信装置および関連情報提示プログラム
US9538219B2 (en) 2011-02-04 2017-01-03 Panasonic Intellectual Property Corporation Of America Degree of interest estimating device and degree of interest estimating method
WO2012105196A1 (ja) * 2011-02-04 2012-08-09 パナソニック株式会社 関心度推定装置および関心度推定方法
CN102934458A (zh) * 2011-02-04 2013-02-13 松下电器产业株式会社 兴趣度估计装置以及兴趣度估计方法
JPWO2012105196A1 (ja) * 2011-02-04 2014-07-03 パナソニック株式会社 関心度推定装置および関心度推定方法
JP5841538B2 (ja) * 2011-02-04 2016-01-13 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 関心度推定装置および関心度推定方法
KR101490040B1 (ko) 2013-08-30 2015-02-04 고려대학교 산학협력단 시청자의 시선 상태를 분류하는 방법 및 장치
CN107285148A (zh) * 2017-08-07 2017-10-24 浙江新再灵科技股份有限公司 基于电梯场景的兴趣区域判断系统及方法
CN107613289A (zh) * 2017-10-19 2018-01-19 何翔 一种基于眨眼检测的视频内容分析方法及装置
WO2019181537A1 (ja) * 2018-03-22 2019-09-26 国立研究開発法人科学技術振興機構 処理装置、処理方法、データ処理装置、データ処理システム、データ処理方法及びプログラム
JP2019168837A (ja) * 2018-03-22 2019-10-03 国立研究開発法人科学技術振興機構 処理装置、処理方法、及びプログラム
KR20200135431A (ko) * 2018-03-22 2020-12-02 재팬 사이언스 앤드 테크놀로지 에이전시 처리 장치, 처리 방법, 데이터 처리 장치, 데이터 처리 시스템, 데이터 처리 방법 및 프로그램
JP7023504B2 (ja) 2018-03-22 2022-02-22 国立研究開発法人科学技術振興機構 処理装置、処理方法、及びプログラム
KR102516751B1 (ko) 2018-03-22 2023-03-31 재팬 사이언스 앤드 테크놀로지 에이전시 처리 장치, 처리 방법, 데이터 처리 장치, 데이터 처리 시스템, 데이터 처리 방법 및 프로그램
CN110503027A (zh) * 2019-08-20 2019-11-26 合肥凌极西雅电子科技有限公司 一种基于数据采集与分析的儿童兴趣、性格分析系统和方法
WO2022186451A1 (ko) * 2021-03-04 2022-09-09 주식회사 비주얼캠프 시선 집중도 산출 방법 및 이를 수행하기 위한 컴퓨팅 장치

Similar Documents

Publication Publication Date Title
CA2808910C (en) System and method for measuring audience reaction to media content
US9779308B2 (en) Video monitoring system
US10182720B2 (en) System and method for interacting with and analyzing media on a display using eye gaze tracking
US20120213212A1 (en) Life streaming
WO2015056742A1 (ja) 視認対象効果度測定装置
US10019058B2 (en) Information processing device and information processing method
JP2006020131A (ja) 関心度測定装置および関心度測定方法
US10198802B2 (en) Monitoring system, photography-side device, and verification-side device
CN109416562B (zh) 用于虚拟现实的装置、方法和计算机可读介质
CN111726689B (zh) 一种视频播放控制方法及装置
US10820040B2 (en) Television time shifting control method, system and computer-readable storage medium
US20190371189A1 (en) Engagement measurement system
US20150375106A1 (en) Implementing user motion games
JP5733658B2 (ja) 注目度検出システム、注目度判定装置、注目度判定装置用のプログラム、及び画像配信システム
CN108012026B (zh) 一种保护视力方法及移动终端
US20180242898A1 (en) Viewing state detection device, viewing state detection system and viewing state detection method
JP2017162103A (ja) 点検作業支援システム、点検作業支援方法、点検作業支援プログラム
JP4536558B2 (ja) テレビ番組の視聴質測定方法
JP5829590B2 (ja) 疲労感評価装置、疲労感評価方法、及びプログラム
CN113794934A (zh) 防沉迷引导方法、电视和计算机可读存储介质
JP5470302B2 (ja) 集団行動判定装置、方法及びプログラム
US20130006571A1 (en) Processing monitoring data in a monitoring system
JP2011239158A (ja) ユーザ反応推定装置、ユーザ反応推定方法およびユーザ反応推定プログラム
CN112887771A (zh) 视频评价方法及装置、计算机可读介质和电子设备
CN114501041B (zh) 特效显示方法、装置、设备及存储介质