JP5113721B2 - メディア情報の注目度測定装置、メディア情報の注目度測定方法、メディア情報の注目度測定プログラムおよびそのプログラムを記録した記録媒体 - Google Patents

メディア情報の注目度測定装置、メディア情報の注目度測定方法、メディア情報の注目度測定プログラムおよびそのプログラムを記録した記録媒体 Download PDF

Info

Publication number
JP5113721B2
JP5113721B2 JP2008279820A JP2008279820A JP5113721B2 JP 5113721 B2 JP5113721 B2 JP 5113721B2 JP 2008279820 A JP2008279820 A JP 2008279820A JP 2008279820 A JP2008279820 A JP 2008279820A JP 5113721 B2 JP5113721 B2 JP 5113721B2
Authority
JP
Japan
Prior art keywords
face
detection
media information
attention
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008279820A
Other languages
English (en)
Other versions
JP2010108257A (ja
Inventor
哲也 杵渕
慎吾 安藤
章 鈴木
秀樹 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008279820A priority Critical patent/JP5113721B2/ja
Publication of JP2010108257A publication Critical patent/JP2010108257A/ja
Application granted granted Critical
Publication of JP5113721B2 publication Critical patent/JP5113721B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、人物顔検出・姿勢推定手法を利用して撮像装置の撮像画像からメディア情報の注目度を測定する技術に関する。
近年、“ディジタルサイネージ”と呼ばれる、屋外や店頭、交通機関など一般家庭以外の場所においてディスプレイなどの電子的な表示器を使って、メディア情報(画像メディアや映像メディア)を配信する形態が普及し始めている。この新しい配信形態は、特に広告情報として有益である。
すなわち、ネットワークと連携することで広告主が、最新情報をリアルタイムに発信・更新できるため、従来の広告形態よりも費用対効果が高く、これに伴って広告効果を客観的に測定する技術が強く求められている。
広告効果を客観的に測定する方法としては、特許文献1に記載の方法が知られている。この測定方法は、メディア側にカメラを設置し、カメラに映った人物を輪郭情報等に基づき抽出して、その抽出された数をメディアへの注目度合いとして評価しその評価値を集計するものである。これに例えば非特許文献1の顔検出技術などを組み合わせることで、より精確な注目度合いを計測することができる。また、顔の姿勢を高精度に推定する方法としては、例えば非特許文献2に記載の方法が提案されている。
特許第3757584号公報 三田雄志,金子敏充,堀修,"個体差のある対象の画像照合に適した確率的増分符号相関" 電子情報通信学会論文誌 D−II Vol.J88−D−II No.8 pp.1614−1623,(株)電子情報通信学会 2005 安藤慎吾,草地良規,鈴木章,荒川賢一,"サポートベクトル回帰を用いた三次元物体の姿勢推定法",電子情報通信学会論文誌 D Vol.J89−D No.8 pp.1840−1847,(株)電子情報通信学会 2006
しかしながら、一般に知られている顔検出手法は顔の向きや照明変動等に影響されやすいだけでなく、顔と似たパターンにも反応しやすいため、一時的に背景から顔として誤検出される場合(以下、過検出という。)や、逆に一時的に顔が検出できなくなる場合(以下、検出漏れという。)が生じることが少なくない。
したがって、過検出や検出漏れに起因して評価集計値にノイズが混入し、不正確な集計結果となるおそれがある。すなわち、過検出が生じると人数が実際より多くカウントされてしまう。一方、検出漏れが生じると人数が実際より少なくカウントされることや、異なるフレームで一時的に顔をロストし、ロスト時点の前後で同一人物が別の人と判断され、同一人物が二以上と誤って多めにカウントされるおそれもある。
この問題は、人物トラッキング技術等を単純に導入しただけでは解決することはできない。なぜなら、トラッキングでは検出結果を訂正する(例えば、後から削除するなど)といった操作は含まれないからである。
本発明は、従来の前記問題に鑑みてなされたものであり、精度の高い注目指標を算出してメディア情報の注目度を測定する技術を提供することを解決課題としている。
そこで、前記課題を解決するため、請求項1記載の発明は、メディア情報を表示する表示器機の周囲を撮像装置で撮像した画像から、該メディア情報の注目度を測定する装置であって、前記撮像装置より連続的に入力されたフレームから顔の存在する領域を検出し、検出顔情報として該顔領域の検出位置・大きさ・顔らしさの類似度・検出時刻を取得する顔領域検出手段と、前記顔領域検出手段の検出した顔領域をもとに顔の姿勢を表すパラメータを推定する顔姿勢推定手段と、前フレームの顔領域と現フレームの顔領域とを、前記検出顔情報および前記パラメータを用いて対応付け、該現フレームの顔領域の状態を判別する状態判別手段と、前記対応付けられた前フレームの顔領域が持つ検出IDおよび注視時間に基づき現フレームでの検出IDと注視時間とを付与する情報付与手段と、前記各手段の処理結果のログのいずれか/すべてを演算して注目指標を算出する注目指標集計手段と、を備え、前記顔姿勢推定手段は、メディア情報に対して顔の正面を0度とした指定角度のyaw角(左右方向の角度)およびpitch角(上下方向の角度)を前記パラメータとして取得し、前記注目指標集計手段は、前記顔姿勢推定手段が前記パラメータとして取得したyaw角とpitch角の少なくとも一方の角度の余弦関数を用いた重み値に前記情報付与手段が付与した注視時間を掛け合わせて前記注目指標を算出することを特徴としている。
請求項2記載の発明は、前記状態判別手段は、前記顔状態を事前に定義された複数タイプのいずれかとして判別することを特徴としている。
請求項3記載の発明は、前記状態判別手段は、前記パラメータが指定範囲内であるか否かを基準に前記顔状態を判別することを特徴としている。
請求項4記載の発明は、メディア情報を表示する表示器機の周囲を撮像装置で撮像した画像から、該メディア情報の注目度を測定する方法であって、顔領域検出手段が、前記撮像装置より連続的に入力されたフレームから顔の存在する領域を検出し、検出顔情報として該顔領域の検出位置・大きさ・顔らしさの類似度・検出時刻を取得する第1ステップと、顔姿勢推定手段が、前記第1ステップで検出した顔領域をもとに顔の姿勢を表すパラメータを推定する第2ステップと、状態判別手段が、前フレームの顔領域と現フレームの顔領域とを、前記検出顔情報および前記パラメータを用いて対応付け、該現フレームの顔領域の状態を判別する第3ステップと、情報付与手段が、前記対応付けられた前フレームの顔領域が持つ検出IDおよび注視時間に基づき現フレームでの検出IDと注視時間とを付与する第4ステップと、注目指標集計手段が、前記各手段の処理結果のログのいずれか/すべてを演算して注目指標を算出する第5ステップと、を有し、前記第2ステップは、メディア情報に対して顔の正面を0度とした指定角度のyaw角(左右方向の角度)およびpitch角(上下方向の角度)を前記パラメータとして取得し、前記第5ステップは、前記第2ステップで前記パラメータとして取得したyaw角とpitch角の少なくとも一方の角度の余弦関数を用いた重み値に前記第4ステップで付与した注視時間を掛け合わせて前記注目指標を算出することを特徴としている。
請求項記載の発明は、前記第3ステップにおいて前記顔状態を事前に定義された複数タイプのいずれかとして判別することを特徴としている。
請求項記載の発明は、前記第3ステップにおいて、前記パラメータが指定範囲内であるか否かを基準に前記顔状態を判別することを特徴としている。
請求項記載の発明は、請求項4〜6のいずれか1項に記載の注目度測定方法の各ステップをコンピュータに実行させることを特徴とするメディア情報の注目度測定プログラムに関する。
請求項8記載の発明は、請求項に記載されたメディア情報の注目度測定プログラムを格納したことを特徴とする記録媒体に関する。
請求項1〜8記載の発明によれば、注目指標には各ログの記録内容が版せいていることから、集計結果にメディア情報の注目度が定量的に表され、これにより過検出や誤検出が防止され、検出精度が向上する。特に、メディア情報を見ていた人の顔の向きおよび見ていた時間を考慮した注目度指標を定量的に算出可能となる。また、検出された顔領域の顔の向きが一定値を超えている場合はメディア情報を見ていないと推定し、その結果を用いてメディア情報を見ていた人の割合を算出することもできる。
請求項2.記載の発明によれば、顔状態をタイプ別に定義し、その状態遷移から顔検出状態を判定・集計することでも、過検出や誤検出の弊害が防止される。
以下、図面に基づき本発明の実施形態を説明する。ここでは本発明の注目度測定装置が広告メディアの広告効果を測定する装置に応用されている。もっとも、本発明は、前記広告効果測定装置に限定されるものではなく、測定対象メディアや装置構成などは各請求項に記載した範囲内にて各種に変更される。
具体的には、前記広告効果測定装置は、広告メディアを注視している時間・顔検出位置・大きさ・顔類似度・顔姿勢パラメータを測定し、広告効果の指標として(1)決められた期間内(例えば1日)又は特定コンテンツにおける任意時間以上注視した人物の数や、(2)顔検出位置・大きさ・顔類似度・顔姿勢パラメータ・注視時間のいずれか/すべての演算によって算出される値を計測する。この広告メディアには、画像メディア(静止画)や映像メディア(動画)が含まれる。
前記指標(2)の一例として、検出した顔ごとに顔姿勢パラメータである左右の角度を用いて重み値を算出し(例えば角度の余弦関数を重み値とするなど)、当該重み値を各人物の注視時間と掛け合わせ、これにより算出された値を検出した人数分合計した値などが挙げられる。
この場合に「正面向き」、「斜め向き」、「横向き」と顔の向きを分類しそれぞれに重み値を付与する方法も考えられるが、このような方法の場合、各顔向きの角度範囲を定性的に設定しなくてはならず、角度範囲をどのように設定するのが適切であるか、という問題が生じる。そこで、重み値に、顔の角度の余弦関数に代表される連続関数を用いることにより、前記問題を解消している。
図1は前記指標(1)の具体例を示し、図2は前記指標(2)の具体例を示している。図1の例では、一瞬しか広告メディアを見なかったもの(過検出もこれに含まれると考える)は除外されるため、信頼性の高い数値を算出できる。また、例えば長時間に広告メディアを見ていた人物だけ映っている一部映像を抽出し、人間が目視確認することで、より詳細な分析も可能にしている。
図2の例によれば、注視時間に掛け合わされる重み値は、人物が広告メディアの方向を向いている時に最大であるため、人がどれだけ熱心に広告メディアを注視していたか、あるいは広告メディアがどれだけ視聴者の心理に浸透したのか、を定量的に表すことが可能である。
また、顔検出状態を(1)仮検出、(2)正検出、(3)注視に関する三つの状態(タイプ)として定義する。そして、時間的に過去(例えば一つ前のフレーム)の検出結果を利用して各々の検出顔を前記各状態のいずれか一つに割り当て、各人物の状態遷移を記録し集計することで、過検出または検出漏れの少ない、より正確な注目指標を算出して測定する。人物がメディア情報を注視しているかどうかは、顔検出後に顔姿勢推定を行い、顔が特定範囲内の方角を向いているかどうか調べることで判定可能である。
なお、図2の例では、広告コンテンツA.B.C毎に異なる時間帯で表示した集計結果が示されている。この集計結果を以後の表示時間やコンテンツの内容に反映させれば、広告主は広告効果の高いメディアを配信することができる。
(1)構成例
図3は、本発明の実施形態に係る前記広告効果測定装置10の構成例を示し、該装置には広告メディアの周囲を撮像する撮像装置(デジタルカメラやビデオカメラなど)からデジタルデータの撮像画像が時系列に入力されている。
具体的には、前記広告効果測定装置10は、前記画像データを入力する画像入力部11と、該入力画像データから人物の顔のある領域を検出する顔検出部12と、検出された顔領域データをもとに顔の姿勢を表す顔姿勢パラメータ値を推定する顔姿勢推定部13と、検出された顔の状態を判別する状態判別部14と、検出された顔の検出IDと注視時間情報を付与する検出ID・注視時間付与部15と、前記各部12.14.15の処理結果を記憶する前検出状態記録部16と、前記各部12〜15の処理結果のいずれか/すべてを前記撮像装置に映った注目者のログ(以下、注目者ログという。)として蓄積する注目者ログ記憶部17と、該注目者ログから指定期間内または指定広告コンテンツの注目指標を集計・算出する注目指標集計部18と、該集計結果を出力する結果出力部19とを有している。
この各機能ブロック11〜19は、コンピュータの処理部(例えばCPU:Central Processor Unit)とソフトウェアとの協働の結果、実現されている。このとき画像入力部11は、例えば撮像装置からネットワーク経由で画像データを入力するための通信デバイスや入出力ポートをもって実現されている。また、前検出状態記憶部16および注目者ログ記憶部17は、メモリ(RAM)やハードディスクドライブ装置(HDD)に構築されている。その他、前記広告効果測定装置10は、通常のコンピュータの構成要素、例えば処理データを表示可能なモニタなどの表示手段やキーボード,マウスなどの入力手段を備えている。
以下、前記広告効果測定装置10の具体的な処理内容を図4の処理フローに基づき説明する。この処理内容は、前記撮像装置に映った注目者ログを取得する図4(a)の処理ステップ(S11〜S17)と、該注目者ログを集計して出力する図4(b)の出力ステップ(S18.S19)とに大別される。以下、各ステップを個別具体的に説明する。
(2)注目者ログの取得ステップ
S11〜S17の処理ステップは、前記撮像装置から画像フレームが入力されている限り繰り返して行われる。
S11:画像入力部11では、図4(a)に示すように、撮像装置により入力される画像情報を顔検出部12に伝送する。ここで撮像装置は、広告メディア掲示位置の近傍(例えばディスプレイの上部など)に設置されているものとする。ここでの広告メディアは、ディジタルサイネージ以外にも通常のポスター広告やテレビ放送も含まれる。
S12:顔検出部12では、S11にて画像入力部11から伝送された各画像データから顔のある領域を検出する。ここでは例えば非特許文献1に記載された確率的増分符号相関などの統計的手法を利用して高速に検出することが可能である。このとき検出に用いられた照合評価値、即ち顔らしさを示す類似度は状態判定部14の処理に使用される。また、顔検出部12は、前記類似度と併せて顔領域の検出位置・大きさ・検出時刻なども検出顔情報として測定・取得している。
S13:顔姿勢推定部13では、検出された顔領域の明度パターンを入力として、顔の姿勢を高精度に推定する。ここでは例えば非特許文献2に記載の主成分分析とサポートベクトル回帰を組み合わせたパラメータ推定法などが適用可能である。この顔の姿勢を表すパラメータには、yaw角(左右方向の角度),pitch角(上下方向の角度)の2種類が用いられている。
S14:状態判別部14では、前検出状態記憶部16を参照して前フレームの検出顔の検出位置、大きさとその状態を読み込み、現フレームでの各検出顔の状態を判別する。ここでの検出顔の状態は以下の3種類と定義されている。
状態1:仮検出結果
状態2:正検出結果
状態3:正検出結果、且つ注視状態
具体的には、まず、現フレームの各検出顔を、顔らしさを表す類似度でソートする。つぎに、類似度の高いものから順番に、検出位置と大きさとを用いて、前フレームの検出顔と対応付けていく。この対応付けは1対1に行われ、以下の2条件を両方満たすものと対応付けられるものとする。
条件1:現フレーム検出顔の大きさを「s」とした場合、前フレーム検出顔の大きさ「spre」が以下の式(1)に当てはまること。
Figure 0005113721
条件2:現フレーム検出顔の中心位置を(x,y)とした場合、前フレーム検出顔の中心位置(xpre,ypre)が以下の式(2)に当てはまること。
Figure 0005113721
式(1)(2)において「kmin」,「kmax」,「lmin」,「lmax」,「mmin」,「mmax」は、あらかじめ与えられる定数である。また、該当するものが2個以上ある場合、中心位置どうしの距離が最も小さいものを採用することとする。そして、現フレームの全ての検出顔が対応付けられた後に、図5に示す処理に基づいてそれらの状態を決定する。なお、式(1)(2)はプログラムに定義されているものとする。
図5において、前フレームの検出結果が“状態1”であるときは、現フレーム
に対応付けられた検出結果、即ち式(1)(2)の条件を満たす前フレームの検出顔が存在するか否かを判別し(S14a)、存在しない場合は現フレームの検出結果を“検出なし”とする。
前フレームの検出結果が“状態2”.“状態3”であるときも、同様に現フレームに対応付けられた検出結果、即ち式(1)(2)の条件を満たす前フレームの検出顔が存在するか否かを判別し(S14b)、存在しない場合は現フレームの検出結果を“状態1”とする。この場合は、前フレームの検出位置、大きさを継承して現フレームの検出結果に反映する。
前記ステップS14aおよび前記ステップS14bにおいて、対応付けられた検出結果が存在する場合は、姿勢が指定範囲内であるか否かを判別する(S14c)。判別結果が指定範囲内ではない場合は、現フレームの検出結果を“状態2”とする一方、指定範囲内である場合は“状態3”とする。
ここで指定範囲内とは、現フレームにおける検出顔の姿勢パラメータ「yaw角」,「pitch角」が以下の式(3)を満たす場合を指す。
Figure 0005113721
式(3)において「ymin」,「ymax」,「pmin」,「pmax」は、あらかじめ与えられる定数である。これらの値を適切に設定することにより、撮像装置と広告メディアとの相対的な位置関係にある程度の自由度を持たせることができる。例えば、ななめ横から撮影するような状態にも対応可能である。なお、式(3)はプログラムに定義されているものとする。
前フレームの検出結果が“検出なし”であるときは、現フレームに前フレームのどの結果とも対応付けられなかったものが残存するか否かを判別し(ステップS14d)、残存する場合は現フレームの検出結果を“状態1”とする。なお、図6は、S14a〜S14dの判別結果例を示している。
このように顔検出状態を(1)仮検出、(2)正検出、(3)注視の3状態として定義し、その状態遷移を記録し過去のフレームでの顔検出状態を利用して現フレームでの顔検出状態を判定し集計することで、過検出により人数が実際よりも多くなることや、検出漏れにより人数が実際よりも少なくなること、および同様に検出漏れにより1人の人を別の時刻で別人と判定することが防止され、精度の高い測定ができる。
S15:検出ID・注視時間付与部15では、前検出状態記憶部16を参照して、現フレームのそれぞれの検出顔の状態に対応付けられた前フレームの検出顔が持つ検出ID情報および注視時間を取得する。この取得した検出ID情報および注視時間情報に基づき現フレームでの検出ID情報と注視時間情報を付与する。以下、具体的な付与方法を図6の検出例に基づいて説明する。
図6(a)は、前フレームの検出結果(ID:10〜ID:13の検出顔)を示し、図6(b)は現フレームの状態判別前の検出結果(検出顔(あ),(い),(う)の三つの顔が検出された事例)を示し、図6(c)は現フレームの状態判別後の検出結果を示している。
ここで検出顔(あ)については、前フレームに対応する検出顔が存在しないため、新規の検出ID(ID:14)を発行して付与される。ここでは検出顔(あ)は、前記S14dに示すように、“状態1”とし、注視時間を0秒とする。
検出顔(い)については、前フレームに対応する“状態1”の検出顔(ID:11)が存在するため、検出IDは対応する前フレーム検出顔からそのまま継承する。この検出顔(い)については、姿勢が式(3)に示す指定範囲の範囲外であるため、前記S14cに示すように、ID:11の状態は“状態1”から“状態2”へと変化する。状態判別後の状態が“状態2”の場合、注視時間は対応する前フレーム検出顔からそのまま継承する(図6の例では1secのまま)。
検出顔(う)については、前フレームに対応する“状態2”の検出顔(ID:13)が存在するため、検出IDは対応する前フレーム検出顔からそのまま継承する。この検出顔(う)は、姿勢が式(3)に示す指定範囲内であるため、前記S14cに示すように、ID:13の状態が“状態2”から“状態3”へと変化する。
ここで状態判別後の状態が“状態3”の場合、「注視時間=(対応する前フレーム検出顔が持つ注視時間情報)+(前フレーム−現フレーム間の経過時間)」とする。図6では、前フレーム−現フレーム間の経過時間を「1sec」としているため、ID:13の注視時間は前フレームでの「2sec」から「1sec」分増加し、「3sec」となる。
前フレームにのみ存在するID:10の顔領域(“状態3”)については、現フレームに対応付けられた検出結果が存在しないため、前記S14bに示すように、“状態1”に変化する。この場合には前フレームの検出IDおよび注視状態をそのまま承継する。(図6の例では注視状態は3secのまま)
前フレームにのみ存在するID:12の顔領域(“状態1”)については、現フレームに対応付けられた検出結果が存在しない。したがって、ID:12の顔領域は、前記S14aに示すように、“検出なし”に変化して当該検出IDを削除する。
S16:前検出状態記憶部16では、S12,S14,S15の処理結果、即ち現フレームのすべて顔検出時刻、検出位置、大きさ、顔状態、検出ID、注視時間が記憶される。その際に前回記憶したデータは消去される。
S17:注目者ログ記憶部17では、S12〜S15の処理結果、即ち現フレームのすべての検出顔に関する顔検出時刻・検出位置・大きさ・顔類似度・顔姿勢パラメータ・検出ID・注視時間を注目者ログとして時系列に記録する。ここではS12〜S15の処理結果のいずれかを記録してもよく、またすべての検出顔情報を記録してもよい。その際に前回記録した分は消去せず、追記のかたちで蓄積される。
なお、S17の処理後にも画像フレームが入力されている場合にはS11に戻って次フレームの処理を開始する。この場合には前検出状態記録部16の記録情報は前フレームの検出顔情報として状態判別部14.検出ID・注視時間付与部に伝送される。一方、画像フレームの入力が無い場合には注目者ログの取得工程を終了する。
(3)出力ステップ
S18:注目指標集計部18では、図4(b)に示すように、注目者ログ記憶部17に記録された注目者ログと、ユーザ指定の対象期間あるいは対象の広告コンテンツと、ユーザ指定の注視時間しきい値とから注目指標を計数する。
具体的には、まず注目者ログ記憶部17から対象期間内あるいは対象広告コンテンツの注目者ログを読み込む。このとき対象期間や対象広告コンテンツは、ユーザが入力手段などをもって指定するものであるが、ディジタルサイネージやテレビコマーシャル等では対象広告が一部時間帯に限定されている場合がある。その場合は、対象広告のタイムスケジュール情報を入力し、広告表示されている時間帯でさらに絞り込む。
次に、検出時刻が最も遅いものから順に参照しつつ、検出IDの異なる検出顔情報(ここでは検出時刻,検出ID,注視時間とする。)を一つずつピックアップしていく。この操作により、同一検出IDの検出顔情報は注視時間情報が最大のものだけが唯一つ残されることになる。さらに、注視時間情報が注視時間しきい値より小さいものを除外する。最終的に残った検出顔の数を数え、注目指標とする。注視時間しきい値は複数指定してもよい。その場合、注目指標は、図1に示すように、複数算出されることになる。すなわち、図1の例では、注視時間しきい値=5秒以上.10秒以上.15秒以上.20秒以上.25秒以上であり、該各しきい値に応じた注目者数(注目指標)が計測されている。
また、注目指標は、単位時間あたりの注目指標で表現するのでもよい(例えば、1日あたりの注目指標を1ヶ月間で集計)。さらに、複数の注視時間しきい値を設けた場合、それぞれの注目指標に重み付けして足し算し、総合評価点として用いてもよい。
このように広告メディアを注視している時間を測定し、集計結果として任意の指定時間以上に注視した人物の数を測定することにより、広告効果を定量的に表す数値として、一瞬しか広告メディアを見なかった場合や過検出を除外した注目指標を算出することができる。
また、S18の他の処理例を説明する。注目指標集計部18は対象期間前後の注目者ログを抽出した後に当該対象期間内に出現したすべての検出IDについて、顔検出位置、大きさ、顔類似度、顔姿勢パラメータ、注視時間のいずれかまたはすべてとの演算によって算出される値を計算し、当該値を合計する。ここでは一例として顔姿勢パラメータと注視時間を用いて演算を行う事例を、図7および図8に基づき説明する。
図7は、広告メディアを注視する人を真上方向から見た図を示し、顔姿勢パラメータのyaw角は正面を角度0°として「−90°〜90°」の範囲内で出力されるものとする。
処理の流れとしては、まず特定の検出IDに注目し、当該検出IDに関するログを対象期間前後の注目者ログからピックアップする。図8(a)(b)はピックアップされたログの一例を示し、図8(a)は対象期間前から顔検出されており対象期間後も顔検出が続いていた事例を示し、図8(b)は対象期間の途中で顔検出が始まり対象期間の途中で顔検出が終了した事例を示している。
ここでは図8(a)(b)のログは、「時刻(Ti)」、「yaw:顔姿勢パラメータ(yaw角)」、「注視時間の加算分(Gi)」、「cos(yaw):重み値×注視時間の加算分」で構成されているが、これに限定されることなく他の事項を用いてもよい。例えば時刻が動画フレーム番号である場合には顔検出処理を実行したシステム時刻等を用いることもできる。また、図8(a)(b)のログは、顔検出処理の結果が定期的(5秒間隔)に出力されているが、不定期間隔で出力されていてもよい。
図8(a)において、対象期間(9:00:02〜9:00:22の20秒間)の開始時刻「9:00:02」の前の時点から顔検出は始まっており、当該対象期間内で最初のログ記録時刻「9:00:05」の時点において、当該対象期間内での注視時間は「3秒」である。次のログ記録時刻「9:00:10」の時点における注視時間の加算分は、前回のログ記録時刻「9:00:05」の時点からの経過時間の5秒であり、「9:00:20」までの各ログ記録時刻における注視時間の加算分は同様に5秒である。ここでは「9:00:25」にも顔検出されているため、対象期間の終了時刻「9:00:22」以降も顔検出は継続し、該終了時刻の時点における注視時間の加算分は2秒である。
図8(b)は、対象期間の途中の「9:00:10」の時点ではじめて顔検出がなされている。ここでログは所定間隔おきの時刻に記録されているので(図8の例では5秒間隔)、顔検出時刻からの正確な注視時間の加算分は不明である。そこで、前回のログ記録時刻「9:00:05」の直後の時点で顔検出が始まったとみなし、当該加算値を5秒(ログ記録時刻の差分)と設定している。この設定値は任意の値に設定してよく、例えば、「9:00:10」の直前の時点で顔検出が始まったとみなして当該値を0秒に設定する方法、またはログ記録時刻の差分である5秒の半分の2.5秒に設定することもできる。
また、図8(b)では、「9:00:15」時点の注視時間の加算分は、前回のログ記録時刻「9:00:10」の時点からの経過時間である5秒である。その後、次のログ記録時刻「9:00:20」の時点では顔検出が終了しており、この場合も正確な注視時間の加算分が不明である。ここでは「9:00:20」の直前で顔検出が終了したとみなし、当該加算値を5秒に設定しているが、該設定値も適宜に任意の値に変更してよい。
このように注視時間の加算分は下記のアルゴリズム(1)〜(4)で算出される(条件あてはめの優先度は(1)〜(4)の順)。
(1)Gi=0(Tiで顔検出されていない場合およびTi-1で顔検出されていない場合)
(2)Gi=Ti−Ti-1(TiとTi-1の間に対象期間の開始時刻および終了時刻が存在しない場合)
(3)Gi=Ti−StarTime(TiとTi-1の間に対象期間の開始時刻が存在する場合)
(4)Gi=EndTime−Ti-1(TiとTi-1の間に対象期間の終了時刻が存在する場合)
ここで、「Ti」はログ記録時刻であり、対象期間の開始時刻の直前のログ記録時刻から対象期間の終了時刻直後のログ記録時刻(図8の例では9:00:00〜9:00:25)を示し、「Gi」は時刻「Ti」における注視時間の加算分を示し、「StarTime」は対象期間の開始時刻を示し、「EndTime」は対象期間の終了時刻を示している。
次に、検出時刻ごとに顔姿勢パラメータyaw角に基づく重み値を前記注視時間の加算分に掛け合わせ、算出された値を合計し、検出IDごとの重み付き注視時間合計値(以下、顔別重み付き注視時間とする。)を算出する。図8の例では、前記重み値として余弦関数(cos(yaw))を用いており、図8(a)での顔別重み付き注視時間は14秒、図8(b)での顔別重み付き注視時間は5秒と算出される。ここでは重み値として顔姿勢パラメータ「yaw」の余弦関数を用いたが、このような連続的な値の他、あらかじめ顔姿勢パラメータ「yaw角」に依存するとびとびの値を記述しておき、当該値を重み値として用いることも可能である。また、yaw角の他にも、pitch角、顔検出位置、大きさ、顔類似度を重み値に変換して組み合わせる方法を用いることもできる。その一例を式(4)に示す。
Figure 0005113721
ここで、「a」,「b」は任意の定数、(x,y)は顔検出位置の座標値、(X,Y)は画像の中心点等任意に定めた座標値、「s」は顔の大きさ、Sは任意の定数、rは顔類似度、Rは任意の定数である。
また、yaw角とpitch角との分布状態を実験的に収集し、それぞれを「σyaw 2」と「σpitch 2」とを分散とする式(5)の正規分布「f」にあてはめ、当該正規分布「f」を使用した重み値を用いることもできる。その一例を式(6)に示す。
Figure 0005113721
Figure 0005113721
この式(5)(6)はプログラムに定義されているものとする。ここで「C」は定数であり、「C=f(yaw=0°,σyaw 2)・f(pitch=0°,σpitch 2)」などが用いられる。そして、すべての検出IDについて前記処理を行った後、算出された顔別重み付き注視時間(この処理例では該顔別重み付き注視時間が注目指数となる。)を合算し、集計結果を得る。
ここでは検出時刻ごとに顔姿勢パラメータyaw角に基づく重み値を前記注視時間の加算分に掛け合わせた処理例を説明したが、他の注目指標の演算で顔別重み付き注視時間を設定してもよい。また、前記重み値は各記録時刻で同じ値に設定することもできる。仮に図8(a)の処理例において前記重み値をすべて「1」に設定すれば顔別重み付き注視時間は20秒と算出される。
このように顔検出位置(x,y)、大きさ(s)、顔類似度(r)、yaw角、pitch角、注視時間のいずれか/すべてを演算して算出する値を用いることで、人がどれだけ熱心に広告メディアを見ていたか、あるいは広告メディアがどれだけ視聴者の心理に浸透したのか、を定量的に表すことができる。
特に、顔姿勢パラメータ(yaw角.pitch角)を広告メディアの方向を向いているときに最大化するような重み値に変換し、当該重み値を注視時間に掛け合わせてこれを注目指標とすることで、広告メディアを見ていた人の顔の向きおよび見ていた時間を考慮した指標を定量的に算出可能となる。
また、顔領域は検出されたものの顔の向きがある一定値を超える場合は広告メディアを見ていないと推定し、その結果を用いて広告メディアを見ていた人の割合を算出することも可能となる。
S19:結果出力部19では、注目指標集計部18で得られた集計結果を出力する。この出力はモニタなどの表示手段に映してもよく、またプリンタなどで出力してもよい。
なお、本発明は、前記広告効果測定装置としてコンピュータを機能させるプログラムとしても構築することができる。このプログラムは、S11〜S19の全てのステップをコンピュータに実行させるものでもよく、あるいはS18などの一部のステップのみを実行させるものであってもよい。
このプログラムは、Webサイトなどからのダウンロードによってコンピュータに提供できる。また、前記プログラムは、CD−ROM,DVD−ROM,CD−R,CD−RW,DVD−R,DVD−RW,MO,HDD,Blu−ray Disk(登録商標)などの記録媒体に格納してコンピュータに提供してもよい。この記録媒体から読み出されたプログラムコード自体が前記実施形態の処理を実現するので、該記録媒体も本発明を構成する。
本発明の実施形態に係る装置の集計結果例の説明図。 同 集計結果の他例を示す説明図。 同 装置構成を示すブロック図。 (a)は同装置の注目指数を記録する処理フロー図、(b)は注目指数集計処理の処理フロー図 同 状態判別処理の説明図。 (a)は前フレームの検出結果例を示す図、(b)は状態判別前における現フレームの検出結果例を示す図、(c)は状態判別後における現フレームの検出結果例を示す図。 同 広告メディアを人物が注視しているときの模式図。 (a)は対象期間前から顔検出され対象期間後も顔検出が続いていた場合の注目指標集計処理例を示す説明図、(b)は対象期間の途中で顔検出が始まり対象期間の途中で顔検出が終了した場合の注目指標集計処理例を示す説明図。
符号の説明
10…広告効果測定装置(注目度測定装置)
11…画像入力部
12…顔検出部(顔検出手段)
13…顔姿勢推定部(顔姿勢推定手段)
14…状態判別部(状態判別手段)
15…検出ID・注視時間付与部(情報付与手段)
16…前検出状態記憶部
17…注目者ログ記憶部
18…注目指標集計部(注目指標集計手段)
19…結果出力部

Claims (8)

  1. メディア情報を表示する表示器機の周囲を撮像装置で撮像した画像から、該メディア情報の注目度を測定する装置であって、
    前記撮像装置より連続的に入力されたフレームから顔の存在する領域を検出し、検出顔情報として該顔領域の検出位置・大きさ・顔らしさの類似度・検出時刻を取得する顔領域検出手段と、
    前記顔領域検出手段の検出した顔領域をもとに顔の姿勢を表すパラメータを推定する顔姿勢推定手段と、
    前フレームの顔領域と現フレームの顔領域とを、前記検出顔情報および前記パラメータを用いて対応付け、該現フレームの顔領域の状態を判別する状態判別手段と、
    前記対応付けられた前フレームの顔領域が持つ検出IDおよび注視時間に基づき現フレームでの検出IDと注視時間とを付与する情報付与手段と、
    前記各手段の処理結果のログのいずれか/すべてを演算して注目指標を算出する注目指標集計手段と、を備え、
    前記顔姿勢推定手段は、メディア情報に対して顔の正面を0度とした指定角度のyaw角(左右方向の角度)およびpitch角(上下方向の角度)を前記パラメータとして取得し、
    前記注目指標集計手段は、前記顔姿勢推定手段が前記パラメータとして取得したyaw角とpitch角の少なくとも一方の角度の余弦関数を用いた重み値に前記情報付与手段が付与した注視時間を掛け合わせて前記注目指標を算出することを特徴とする注目度測定装置。
  2. 前記状態判別手段は、前記顔状態を事前に定義された複数タイプのいずれかとして判別する
    ことを特徴とする請求項1記載のメディア情報の注目度測定装置。
  3. 前記状態判別手段は、前記パラメータが指定範囲内であるか否かを基準に前記顔状態を判別する
    ことを特徴とする請求項1または2のいずれか1項に記載のメディア情報の注目度測定装置。
  4. メディア情報を表示する表示器機の周囲を撮像装置で撮像した画像から、該メディア情報の注目度を測定する方法であって、
    顔領域検出手段が、前記撮像装置より連続的に入力されたフレームから顔の存在する領域を検出し、検出顔情報として該顔領域の検出位置・大きさ・顔らしさの類似度・検出時刻を取得する第1ステップと、
    顔姿勢推定手段が、前記第1ステップで検出した顔領域をもとに顔の姿勢を表すパラメータを推定する第2ステップと、
    状態判別手段が、前フレームの顔領域と現フレームの顔領域とを、前記検出顔情報および前記パラメータを用いて対応付け、該現フレームの顔領域の状態を判別する第3ステップと、
    情報付与手段が、前記対応付けられた前フレームの顔領域が持つ検出IDおよび注視時間に基づき現フレームでの検出IDと注視時間とを付与する第4ステップと、
    注目指標集計手段が、前記各手段の処理結果のログのいずれか/すべてを演算して注目指標を算出する第5ステップと、を有し、
    前記第2ステップは、メディア情報に対して顔の正面を0度とした指定角度のyaw角(左右方向の角度)およびpitch角(上下方向の角度)を前記パラメータとして取得し、
    前記第5ステップは、前記第2ステップで前記パラメータとして取得したyaw角とpitch角の少なくとも一方の角度の余弦関数を用いた重み値に前記第4ステップで付与した注視時間を掛け合わせて前記注目指標を算出することを特徴とする注目度測定方法
  5. 前記第3ステップにおいて、前記顔状態を事前に定義された複数タイプのいずれかとして判別する
    ことを特徴とする請求項4記載のメディア情報の注目度測定方法。
  6. 前記第3ステップにおいて、前記パラメータが指定範囲内であるか否かを基準に前記顔状態を判別する
    ことを特徴とする請求項4または5のいずれか1項に記載のメディア情報の注目度測定方法。
  7. 請求項4〜6のいずれか1項に記載の注目度測定方法の各ステップをコンピュータに実行させることを特徴とするメディア情報の注目度測定プログラム。
  8. 請求項に記載されたメディア情報の注目度測定プログラムを格納したことを特徴とする記録媒体。
JP2008279820A 2008-10-30 2008-10-30 メディア情報の注目度測定装置、メディア情報の注目度測定方法、メディア情報の注目度測定プログラムおよびそのプログラムを記録した記録媒体 Active JP5113721B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008279820A JP5113721B2 (ja) 2008-10-30 2008-10-30 メディア情報の注目度測定装置、メディア情報の注目度測定方法、メディア情報の注目度測定プログラムおよびそのプログラムを記録した記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008279820A JP5113721B2 (ja) 2008-10-30 2008-10-30 メディア情報の注目度測定装置、メディア情報の注目度測定方法、メディア情報の注目度測定プログラムおよびそのプログラムを記録した記録媒体

Publications (2)

Publication Number Publication Date
JP2010108257A JP2010108257A (ja) 2010-05-13
JP5113721B2 true JP5113721B2 (ja) 2013-01-09

Family

ID=42297647

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008279820A Active JP5113721B2 (ja) 2008-10-30 2008-10-30 メディア情報の注目度測定装置、メディア情報の注目度測定方法、メディア情報の注目度測定プログラムおよびそのプログラムを記録した記録媒体

Country Status (1)

Country Link
JP (1) JP5113721B2 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5321547B2 (ja) * 2010-07-21 2013-10-23 カシオ計算機株式会社 画像配信システム、及びサーバー
US20120041825A1 (en) * 2010-08-16 2012-02-16 Kasargod Kabir S Contextual translation of non-interactive advertisements into interactive advertisements
JP5754613B2 (ja) * 2010-10-18 2015-07-29 カシオ計算機株式会社 画像表示装置及びプログラム
JP5678643B2 (ja) * 2010-12-21 2015-03-04 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP5664234B2 (ja) * 2010-12-28 2015-02-04 大日本印刷株式会社 携帯用端末装置、情報閲覧用プログラム、サーバ装置及び、閲覧情報提供用プログラム
JP5691849B2 (ja) * 2011-05-31 2015-04-01 三菱電機株式会社 注視者検知装置
JP6094626B2 (ja) * 2015-05-22 2017-03-15 カシオ計算機株式会社 表示制御装置及びプログラム
CN111310602A (zh) * 2020-01-20 2020-06-19 北京正和恒基滨水生态环境治理股份有限公司 一种基于情绪识别的展品关注度分析系统及分析方法
CN112926177A (zh) * 2020-12-24 2021-06-08 南京城建隧桥经营管理有限责任公司 一种户外多媒体平台中异质信息显示时长自适应确定方法
CN113040757B (zh) * 2021-03-02 2022-12-20 江西台德智慧科技有限公司 头部姿态监测方法、装置、头部智能穿戴设备及存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4159159B2 (ja) * 1999-01-20 2008-10-01 株式会社野村総合研究所 広告メディア評価装置
JP4603975B2 (ja) * 2005-12-28 2010-12-22 株式会社春光社 コンテンツ注目評価装置及び評価方法
JP4876687B2 (ja) * 2006-04-19 2012-02-15 株式会社日立製作所 注目度計測装置及び注目度計測システム

Also Published As

Publication number Publication date
JP2010108257A (ja) 2010-05-13

Similar Documents

Publication Publication Date Title
JP5113721B2 (ja) メディア情報の注目度測定装置、メディア情報の注目度測定方法、メディア情報の注目度測定プログラムおよびそのプログラムを記録した記録媒体
JP4622702B2 (ja) 映像監視装置
JP4876687B2 (ja) 注目度計測装置及び注目度計測システム
JP4991440B2 (ja) 商品販売装置、商品販売管理システム、商品販売管理方法およびプログラム
WO2009096428A1 (ja) 表示システム、表示効果測定システム、表示方法、表示効果測定方法、及び、記録媒体
US20080109397A1 (en) Automatic detection and aggregation of demographics and behavior of people
JP5731766B2 (ja) 販売機会損失の分析システム及び分析方法
TW201033908A (en) System and method for counting people flow
JP2010211485A (ja) 注視度合測定装置、注視度合測定方法、注視度合測定プログラムおよびそのプログラムを記録した記録媒体
JP7421149B2 (ja) 広告閲覧情報出力方法及び広告閲覧情報出力プログラム、並びに情報処理装置
JP2006254274A (ja) 視聴層分析装置、販売戦略支援システム、広告支援システム及びtv装置
US20110264534A1 (en) Behavioral analysis device, behavioral analysis method, and recording medium
JP2011232864A (ja) 施設情報分類システムおよび施設情報分類プログラム
JP5272214B2 (ja) 広告効果指標測定装置、広告効果指標測定方法およびプログラム
JP2012022538A (ja) 注目位置推定方法、画像表示方法、注目コンテンツ表示方法、注目位置推定装置および画像表示装置
US20140257968A1 (en) Method and apparatus for determining digital media visibility
WO2012054048A1 (en) Apparatus and method for evaluating an object
US20140173099A1 (en) Method and apparatus for determining digital media visibility
JP5103287B2 (ja) 広告効果測定装置、広告効果測定方法、広告効果測定プログラムおよびそのプログラムを記録した記録媒体
JP2017139010A (ja) 情報処理装置及び情報処理プログラム
JP6428062B2 (ja) 情報処理装置及び情報処理プログラム
JP2016219065A (ja) 滞留分析システム及び方法
US20220192561A1 (en) Information processing system, information processing method, and information processing apparatus
JPWO2022176342A5 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
US20160098766A1 (en) Feedback collecting system

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100610

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120702

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121009

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121012

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151019

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5113721

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350