JP2011233119A - 広告効果測定装置、広告効果測定方法およびプログラム - Google Patents

広告効果測定装置、広告効果測定方法およびプログラム Download PDF

Info

Publication number
JP2011233119A
JP2011233119A JP2010105791A JP2010105791A JP2011233119A JP 2011233119 A JP2011233119 A JP 2011233119A JP 2010105791 A JP2010105791 A JP 2010105791A JP 2010105791 A JP2010105791 A JP 2010105791A JP 2011233119 A JP2011233119 A JP 2011233119A
Authority
JP
Japan
Prior art keywords
face
face direction
attribute
area
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010105791A
Other languages
English (en)
Other versions
JP5272213B2 (ja
Inventor
Tetsuya Kinebuchi
哲也 杵渕
Hiroyuki Arai
啓之 新井
Naoki Ito
直己 伊藤
Akira Suzuki
章 鈴木
Hideki Koike
秀樹 小池
Shingo Ando
慎吾 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2010105791A priority Critical patent/JP5272213B2/ja
Publication of JP2011233119A publication Critical patent/JP2011233119A/ja
Application granted granted Critical
Publication of JP5272213B2 publication Critical patent/JP5272213B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

【課題】被写体の顔方向に対しロバストかつ処理速度の速い属性識別を実現する。また、被写体の年齢層識別において、主観年齢層を精度良く識別できる技術を提供する。
【解決手段】広告効果測定装置3は、広告媒体の近傍の第1のエリアを撮像する混雑度計測カメラ1aによって撮像された撮像画像を画素単位に信号処理し、第1のエリア内の滞在者数を計測する混雑度計測エンジン14と、第1のエリア内の一部のエリアである第2のエリアを撮像する顔方向推定カメラ1bによって撮像された撮像画像内の顔領域を検出し、各顔領域の顔方向を推定し、第2のエリア内における広告媒体の視聴者数を計測する顔方向推定エンジン18と、混雑度計測カメラエリアカバー率と、顔方向推定カメラエリアカバー率と、第1の画像処理手段の計測値と、第2の画像処理手段の計測値とに基づいて、広告媒体の効果を示す統計解析情報24を生成する統計解析情報生成部23とを備える。
【選択図】図2

Description

本発明は、広告効果測定装置、広告効果測定方法およびプログラムに関する。特に、本発明は、本発明は、カメラを用いて広告効果を測定する広告効果測定装置、広告効果測定方法およびプログラムに関する。
カメラを用いた広告効果測定装置は、基本的に、以下の2つの方法を利用し、広告を視聴したと思われる人数を測定する。
(1)画素単位の信号処理をベースとした人数計測
フレーム間処理に基づき画像から前景領域を取得し、当該領域が何人分の人物に相当するのかを、予め各画素に与えられた荷重値に基づいて算出する方法である(例えば、特許文献1参照)。当該方法では、1人の人物に対して、小さな画像サイズ(例えば、数画素〜10画素程度)を割り当てれば足りるため、人数計測の対象エリアを比較的広くすることができる。例えば、解像度VGA(640×480)のカメラを用いる場合、対象エリアは100m四方程度となる。
(2)人間の顔等の物体検出をベースとした人数計測
画像から顔を認識する過程において、付帯情報として各顔の向き(顔方向)、性別、年代などの人物属性を推定する方法である。当該方法では、推定された顔方向に基づいて、広告の方向を向いている人数、即ち、広告を視聴している可能性が高い人数を計測する。また、当該方法では、推定された人物属性に基づいて、性別毎、年代毎の広告効果を推計する。
特開2009−294755号公報
しかしながら、上記の方法は以下の問題がある。
(1)の方法は、人物の顔方向、即ち、広告を視聴していそうなのか否かを推定することができない。また、性別、年代などの人物属性を推定することができない。
(2)の方法は、人物の顔方向と属性とを推定することができるが、それを実現するため顔領域に対してある程度の画像サイズ(例えば、20画素×20画素〜40画素×40画素)が割り当てる必要がある。従って、人数計測の対象エリアは比較的狭くなる。例えば、解像度VGAのカメラを用いる場合、対象エリアは10m四方程度となる。
本発明は、このような事情を考慮してなされたものであり、その目的は、被写体の顔方向に対しロバストかつ処理速度の速い属性識別を実現する技術を提供することにある。また、被写体の年齢層識別において、主観年齢層を精度良く識別できる技術を提供することにある。
上述した課題を解決するために、本発明の一実施態様である広告効果測定装置は、広告媒体の近傍の第1のエリアを撮像する第1のカメラによって撮像された撮像画像を画素単位に信号処理し、前記第1のエリア内の滞在者数を計測する第1の画像処理手段と、前記第1のエリア内の一部のエリアである第2のエリアを撮像する第2のカメラによって撮像された撮像画像内の顔領域を検出し、各顔領域の顔方向を推定し、前記第2のエリア内における前記広告媒体の視聴者数を計測する第2の画像処理手段と、前記第1のカメラのエリアカバー率と、前記第2のカメラのエリアカバー率と、前記第1の画像処理手段の計測値と、前記第2の画像処理手段の計測値とに基づいて、前記広告媒体の効果を示す広告効果情報を生成する広告効果情報生成手段とを備えることを特徴とする。
上述広告効果測定装置において、前記第2の画像処理手段は、前記第2のカメラの撮像画像を取得する撮像画像取得手段と、前記第2のカメラの撮像画像から顔領域を検出し顔切出画像データを出力する認識用顔領域検出手段と、前記認識用顔領域検出手段によって出力された前記顔切出画像データに基づいて、前記第2のカメラの撮像画像の被写体の顔方向を推定し、顔方向が前記広告媒体を方向と一致している者を視聴者として視聴者数を計数する顔方向推定手段とを有するようにしてもよい。
上述広告効果測定装置において、前記第2の画像処理手段は、学習用データとして、種々の方向から撮像された顔画像データ、前記顔画像データの被写体の顔方向を示す学習用顔方向パラメータ、前記被写体の属性データを取得する学習用データ取得手段と、前記学習用データ取得手段によって取得された前記顔画像データから、被写体の顔領域を検出して切り出した顔切出画像データを出力する学習用顔領域検出手段と、前記学習用顔領域検出手段によって出力された前記顔切出画像データであって前記学習用顔方向パラメータが同一である複数の前記顔切出画像データと、当該複数の顔切出画像データそれぞれの前記属性データとに基づいて、前記被写体の顔方向別に、前記被写体の属性を識別する属性識別器を生成する顔方向別属性識別器生成手段と、前記顔方向別属性識別器生成手段によって生成された前記属性識別器を記憶する顔方向別属性識別器記憶手段と、前記第2のカメラの撮像画像を取得する撮像画像取得手段と、前記第2のカメラの撮像画像から顔領域を検出し顔切出画像データを出力する認識用顔領域検出手段と、前記認識用顔領域検出手段によって出力された前記顔切出画像データに基づいて、前記第2のカメラの撮像画像の被写体の顔方向を推定し、顔方向が前記広告媒体を方向と一致している者を視聴者として視聴者数を計数するとともに、前記被写体の顔方向を示す属性識別用顔方向パラメータを出力する顔方向推定手段と、前記顔方向推定手段によって出力された前記属性識別用顔方向パラメータに基づいて、前記前記第2のカメラの撮像画像から、被写体の顔領域を再度検出して切り出した顔切出画像データを出力する認識用顔領域再検出手段と、前記顔方向推定手段によって出力された前記属性識別用顔方向パラメータに基づいて、前記顔方向別属性識別器記憶手段に記憶されている複数の前記属性識別器のなかから1または2以上の前記属性識別器を選択し、当該選択した1または2以上の前記属性識別器に、前記認識用顔領域再検出手段が出力した前記顔切出画像データを入力し、前記前記第2のカメラの撮像画像の被写体に係る識別結果を取得する属性識別手段とを有し、人物属性別の視聴者数を算出するようにしてもよい。
上述広告効果測定装置において、前記広告効果情報生成手段は、注目率、延べ滞在人秒、延べ視聴人秒、人物属性別の延べ視聴人秒、又は、人秒ベースの注目率を集計することによって前記広告効果情報を生成するようにしてもよい。
上述広告効果測定装置において、前記広告効果情報生成手段は、前記広告媒体の設置場所に係る場所属性情報として、前記滞在者数に係る性別比率、年代比率、又は性別と年代とを組み合わせた属性区分比率を算出するようにしてもよい。
上述した課題を解決するために、本発明の他の実施態様である広告効果測定方法は、広告媒体の効果を測定する広告効果測定装置における広告効果指標測定方法であって、前記広告効果測定装置の第1の画像処理手段が、広告媒体の近傍の第1のエリアを撮像する第1のカメラによって撮像された撮像画像を画素単位に信号処理し、前記第1のエリア内の滞在者数を計測し、前記広告効果測定装置の第2の画像処理手段が、前記第1のエリア内の一部のエリアである第2のエリアを撮像する第2のカメラによって撮像された撮像画像内の顔領域の検出し、各顔方向を推定し、前記第2のエリア内における前記広告媒体の視聴者数を計測し、前記広告効果測定装置の第2の広告効果情報生成手段が、前記第1のカメラのエリアカバー率と、前記第2のカメラのエリアカバー率と、前記第1の画像処理手段による計測値と、前記第2の画像処理手段による計測値とに基づいて、前記広告媒体の効果を示す広告効果情報を生成することを特徴とする。
上述した課題を解決するために、本発明の他の実施態様であるプログラムは、上述の広告効果測定装置の処理をコンピュータに実行させるためのプログラムである。
本発明によれば、被写体の顔方向に対しロバストかつ処理速度の速い属性識別を実現できるようになる。また、被写体の年齢層識別において、主観年齢層を精度良く識別できるようになる。
本発明の一実施形態による広告効果測定装置3の設置環境の一例を説明するための説明図である。 広告効果測定装置3の構成例を示す構成図である。 カメラ制御に関連する処理の一例を示すフローチャートである。 混雑度計測エンジン14のチューニングに関連する処理の一例を示すフローチャートである。 顔方向推定エンジン18のチューニングに関連する処理の一例を示すフローチャートである。 性別と年代とを組み合わせた区分け方法の一例である。 効果の測定に関連する処理の一例を示すフローチャートである。 統計解析情報の生成に関連する処理の一例を示すフローチャートである。 注目率について説明するための説明図である。 GSTについて説明するための説明図である。 GVTについて説明するための説明図である。 統計解析情報生成処理における統計解析情報の出力例を説明するための説明図である。 統計解析情報生成処理における統計解析情報の出力例を説明するための説明図である。 顔方向推定エンジン18の構成の一例を示す機能ブロック図である。 認識用顔領域再検出部124の処理を説明するための説明図である。 年齢層識別を説明するための説明図である。 年齢層識別を説明するための説明した説明図である。 顔方向推定エンジン18の動作の一例を示すフローチャートである。
以下、本発明の一実施形態について図面を参照して説明する。図1は、本発明の一実施形態による広告効果測定装置3の設置環境の一例を説明するための説明図である。図1において、1aは混雑度計測カメラ、1bは顔方向推定カメラ、2はテレビ、デジタルサイネージ、看板、ポスター、張り紙などの広告媒体(ディスプレイ)、3は広告効果推定装置である。混雑度計測カメラ1aおよび顔方向推定カメラ1bは、データ送受信用ケーブルを介して、測定効果推定装置3と接続している。
広告効果測定装置3は、画素単位の信号処理をベースとした人数計測を行う画像処理装置(後述する、混雑度計測エンジン14)と、人間の顔検出をベースとした人数計測を行う画像処理装置(後述する、顔方向推定エンジン18)を兼ね備える。換言すれば、広告効果測定装置3は、混雑度計測エンジン14および顔方向推定エンジン18を含んで構成される。広告効果測定装置3は、例えば、パーソナルコンピュータである。
混雑度計測カメラ1aは、広告媒体2の近傍を撮像するカメラである。広告媒体2の近傍とは、広告媒体2の広告視聴可能エリアの少なくとも一部のエリアを含むエリアである。広告視聴可能エリアとは、広告媒体2の種類、大きさ、設置場所の特性などに応じて異なるが、当該広告媒体によって広告しようとする広告内容が視聴者に伝わる範囲である。例えば、広場に面したビルの壁面に設置した大型の看板の場合、該広場の全域で該看板の広告内容がわかるのであれば、どんなに該ビルからの水平距離が離れていても、該広場全体が当該看板の近傍に該当する。また、例えば、屋内の矩形の支柱の一の面に設置した看板の場合、どんなに該支柱に近い位置であっても、該看板が見えない該一の面の反対側の面側は、該看板の近傍に該当しない。
顔方向推定カメラ1bもまた、広告媒体2の近傍を撮像するカメラである。但し、混雑度計測カメラ1aの撮影範囲(「第1のエリア」に相当、以下、混雑度計測カメラ撮影範囲という)と、顔方向推定カメラ1bの撮影範囲(「第2のエリア」に相当。以下、顔方向推定カメラ撮影範囲という)は、互いに異なる。
混雑度計測カメラ撮影範囲は、広告視聴可能エリアの全体又は広告視聴可能エリアの一部である。顔方向推定カメラ撮影範囲は、混雑度計測カメラ撮影範囲の一部である。なお、広告媒体2と混雑度計測カメラ1aとの位置関係などによっては、図1に示すように、混雑度計測カメラ撮影範囲が、広告視聴可能エリア外のエリアを含む場合があるが、混雑度計測カメラ撮影範囲における広告視聴可能エリア外の占める割合は、広告視聴可能エリア内の占める割合に比べ非常に小さく、無視できる程度である。仮に、広告視聴可能エリア外の占める割合が非常に小さいとまでは言えない程度であっても、後述するように、混雑度計測チューニング部13において、フレーム画像における混雑度計測の対象範囲(即ち、フレーム画像の全領域のうち混雑度計測の計測対象範囲)の指定が可能であるため、広告視聴可能エリア外が撮像されることについて無視することできる。顔方向推定カメラ撮影範囲についても同様である。
従って、顔方向推定カメラ撮影範囲も混雑度計測カメラ撮影範囲も、広告視聴可能エリア内について考えればよく、顔方向推定カメラ撮影範囲は、混雑度計測カメラ撮影範囲よりも狭いということになる。
混雑度計測カメラ1aは、撮像画像(後述する、フレーム画像)を広告効果測定装置3に提供する。同様に、顔方向推定カメラ1bは、フレーム画像を広告効果測定装置3に提供する。
なお、図1には、混雑度カメラ1aを1台示したが、混雑度カメラ1aは複数台のカメラから構成されるものであってもよい。顔方向推定カメラ1bについても同様である。また、混雑度計測カメラ1aと顔方向推定カメラ1bとは、機器としては同一のものであってもよい。
図2は、広告効果測定装置3の構成例を示す構成図である。広告効果測定装置3は、図2に示すように、カメラ制御部12、混雑度計測チューニング部13、混雑度計測エンジン14、顔方向推定チューニング部17、顔方向推定エンジン18、クライアント部19、混雑度計測エンジン制御部20、顔方向推定エンジン制御部21および統計解析情報生成部23を備える。
カメラ制御部12は、混雑度計測カメラ1aからフレーム画像を取得する。カメラ制御部12は、混雑度計測カメラ1aから取得したフレーム画像を混雑度計測チューニング13および混雑度計測エンジン制御部20に出力する。また、カメラ制御部12は、顔方向推定カメラ1bからフレーム画像を取得する。カメラ制御部12は、顔方向推定カメラ1bから取得したフレーム画像を顔方向推定チューニング部17および顔方向推定エンジン制御部21に出力する。
混雑度計測エンジン14は、上述の如く、画素単位の信号処理をベースとした人数計測を行う画像処理機能を備える。混雑度計測エンジン14は、フレーム画像を取得した場合、上記画像処理機能によって混雑度を計測し、計測結果を出力する。より詳細には、混雑度計測エンジン14は、混雑度計測カメラ1aから出力されたフレーム画像を取得した場合、当該フレーム画像に撮像されたエリア、即ち、混雑度計測カメラ撮影範囲内の画素単位を信号処理し、混雑度計測カメラ撮影範囲内の滞在者数を混雑度として計測し、計測結果として出力する。
例えば、混雑度計測エンジン14は、混雑度計測カメラ1aから出力されたフレーム画像を混雑度計測チューニング部13から取得した場合、混雑度計測カメラ撮影範囲内の滞在者数を混雑度計測チューニング部13に出力する。また、例えば、混雑度計測エンジン14は、混雑度計測カメラ1aから出力されたフレーム画像を混雑度エンジン制御部20から取得した場合、混雑度計測カメラ撮影範囲内の滞在者数を混雑度エンジン制御部20に出力する。
顔方向推定エンジン18は、上述の如く、人間の顔検出をベースとした人数計測を行う画像処理機能を有する。顔方向推定エンジン18は、フレーム画像を取得した場合、上記画像処理機能によって広告媒体2の視聴者数を計測し、計測結果を出力する。より詳細には、顔方向推定エンジン18は、顔方向推定カメラ1bから出力されたフレーム画像を取得した場合、当該フレーム画像に撮像されたエリア、即ち、顔方向推定カメラ撮影範囲内の顔領域の検出処理と、検出された顔領域内の顔方向の推定処理とにより、顔方向推定カメラ撮影範囲内における広告媒体2の視聴者数を計測し、計測結果として出力する。
例えば、顔方向推定エンジン18は、顔方向推定カメラ1bから出力されたフレーム画像を顔方向推定チューニング部17から取得した場合、顔方向推定カメラ撮影範囲内における広告媒体2の視聴者数を顔方向推定チューニング部17に出力する。また、例えば、顔方向推定エンジン18は、顔方向推定カメラ1bから出力されたフレーム画像を顔方向推定エンジン制御部21から取得した場合、顔方向推定カメラ撮影範囲内における広告媒体2の視聴者数を顔方向推定エンジン制御部21に出力する。
なお、顔方向推定エンジン18は、人物属性別の視聴者数を計測し、計測結果として出力することもできる。
混雑度計測チューニング部13は、混雑度計測エンジン14のパラメータのチューニング機能を備える。即ち、混雑度計測チューニング部13は、カメラ制御部12を介して取得した混雑度計測カメラ1aからのフレーム画像を混雑度計測エンジン14に出力し、混雑度計測エンジン14から応答として計測結果を取得する。混雑度計測チューニング部13は、混雑度計測エンジン14から取得した計測結果を非図示のモニタ部を介して、又はネットワークを介して設定者に出力し、設定者に計測結果を確認させて、設定者から混雑度計測エンジン14の適切なパラメータ値の設定を受け付ける。
顔方向推定チューニング部17は、顔方向推定エンジン18のパラメータのチューニング機能を有する。即ち、顔方向推定チューニング部17は、カメラ制御部12を介して取得した顔方向推定カメラ1bからのフレーム画像を顔方向推定エンジン18に出力し、顔方向推定エンジン18から応答として計測結果を取得する。顔方向推定チューニング部17は、顔方向推定エンジン18から取得した計測結果を非図示のモニタ部を介して、又はネットワークを介して設定者に出力し、設定者に計測結果を確認させて、設定者から顔方向推定エンジン18の適切なパラメータ値の設定を受け付ける。
混雑度計測エンジン制御部20は、クライアント部19によって起動され、カメラ制御部12を介して取得した混雑度計測カメラ1aからのフレーム画像を混雑度計測エンジン14に出力し、混雑度計測エンジン14から応答として計測結果を取得する。混雑度計測エンジン制御部20は、混雑度計測エンジン14から取得した計測結果をクライアント部19に出力する。
顔方向推定エンジン制御部21は、クライアント部19によって起動され、カメラ制御部12を介して取得した顔方向推定カメラ1bからのフレーム画像を顔方向推定エンジン18に出力し、顔方向推定エンジン18から応答として計測結果を取得する。顔方向推定エンジン制御部21は、顔方向推定エンジン18から取得した計測結果をクライアント部19に出力する。
クライアント部19は、混雑度計測エンジン14から出力された計測結果を混雑度計測エンジン制御部20から取得する。また、クライアント部19は、顔方向推定エンジン18から出力された計測結果を顔方向推定エンジン制御部21から取得する。クライアント部19は、混雑度計測エンジン制御部20から取得した計測結果と、顔方向推定エンジン制御部21から取得した計測結果とを時系列に対応付けて効果測定データ22として出力する。つまり、クライアント部19によって出力される効果測定データ22は、混雑度計測エンジン14と顔方向推定エンジン18の各計測結果が時系列に記載されているデータである。
統計解析情報生成部23は、クライアント部19から出力される効果測定データ22を取得する。統計解析情報生成部23は、効果測定データ22に基づいて広告効果情報として統計解析情報24を生成し、出力する。統計解析情報24は、広告媒体2の効果を示す情報であって、広告効果指標又は場所属性情報を所定の集計期間(時間)、集計方法に従って集計し、若しくは、広告効果指標又は場所属性情報を集計することなく、人間に分りやすい表示形式によって表したものである。
広告効果指標は、効果測定データ22から得られる広告効果を示す指標である。広告効果指標には、例えば、注目率、述べ滞在人秒(GST:GrossStayingTime)、延べ視聴人秒(GVT::GrossViewingTime)などがある。上記注目率には、後述の下記式(1)に従って算出される注目率、後述の下記式(2)に従って算出される注目率(人秒ベースの注目率とも称する)などがある。なお、上記注目率などと人物属性とを組み合わせたものも広告効果指標である。即ち、例えば、人物属性別の注目率なども広告効果指標である。人物属性の一例は、性別、年代、男女と年代とを組み合わせた属性区分比率である。
場所属性情報は、効果測定データ22から得られる場所の属性を示す情報である。具体的には、広告効果指標は、混雑度計測エンジン制御部20から出力される滞在者に関する情報であるが、顔方向に関係なく、顔領域の検出数、即ち滞在者数を顔方向推定エンジン制御部21に出力させるようにした場合には、当該滞在者に関する情報も用いることができる。場所属性情報には、例えば、混雑度、顔数、男女比率、年代比率、上記属性区分比率などがある。
所定の集計期間の一例は、1時間単位、又は、1日単位である。所定の集計方法の一例は、曜日別の集計、平日/週末別の集計、又は、曜日を考慮しない集計である。
図3は、カメラ制御に関連する処理の一例を示すフローチャートである。なお、図3に示すカメラ設定ファイル31は、カメラに関するパラメータを記述した設定ファイルであって、混雑度計測カメラ1aのパラメータと顔方向推定カメラ1bのパラメータを個別に設定可能である。カメラ設定ファイル31には、例えば、「カメラタイプ」「IPカメラ設定項目」「USBカメラの設定項目」「解像度」「画像品質」「フレームレート」「色空間、圧縮形式」などの設定項目がある。カメラタイプには、使用するカメラのタイプ(USBカメラ/IPカメラ)の別を設定する。IPカメラを設定した場合、IPカメラ設定項目には、当該カメラのIPアドレス、ポート番号、アクセスのためのユーザ名、パスワード、当該カメラのデバイス名等を設定する。USBカメラを設定した場合、USBカメラの設定項目には、当該カメラのデバイス名等を設定する。また、解像度、画像品質、フレームレート、色空間、圧縮形式には、それぞれ、取得するフレーム画像の解像度、画像品質、フレームレート、色空間、圧縮形式を設定する。なお、上記設定項目は実施のための一例であって、これに限定されるものではない。
図3において、カメラ制御部12は、カメラタイプ選択処理として、カメラ設定ファイル31に従い、混雑度計測カメラ1aおよび顔方向推定カメラとして利用するカメラタイプをそれぞれ選択する(ステップS32)。次いで、カメラ制御部12は、カメラ設定処理として、カメラ設定ファイル31に従い、混雑度計測カメラ1aおよび顔方向推定カメラ1bに対し、解像度や画像品質などカメラに関するパラメータをそれぞれ設定(書き込む。以下、同様)する(ステップS33)。
次いで、カメラ制御部12は、フレーム画像取得要求受領処理として、外部からのフレーム画像取得要求34を受領する(ステップS35)。次いで、カメラ制御部12は、フレーム画像取得処理として、カメラタイプ選択処理32およびカメラ設定処理33で設定した項目に従って、混雑度計測カメラ1aまたは顔方向推定カメラ1bにアクセスし、フレーム画像を取得する(ステップS36)。次いで、カメラ制御部12は、フレーム画像送信処理として、フレーム画像取得要求34の送信元に対し、フレーム画像を送信する(ステップS37)。そして、本フローチャートは終了する。
なお、混雑度計測カメラ1a、顔方向推定1aが複数台のカメラから構成される場合、カメラ制御部12は、カメラ設定処理をカメラ毎に実施する(ステップS33)。また、混雑度計測カメラ1a、顔方向推定1aが複数台のカメラから構成される場合、カメラ制御部12は、フレーム画像取得処理(ステップS36)において、複数台のカメラから取得した画像を1枚の画像に合成する。画像の合成処理方法としては、単純に複数のフレームを並べて繋ぎ合せる方法、画像から特徴点を抽出してそれらの対応問題を解き、画像間の変形を射影変換で近似して重ね合わせる方法などが挙げられる(参考文献1参照)。
(参考文献1)
“局所的な輝度変動にロバストなパノラマ画像生成法”星野准一、電子情報通信学会論文誌.D−II,情報・システム,II−情報処理 J82−D−II(2)pp.222−229 19990225
図4は、混雑度計測エンジン14のチューニングに関連する処理の一例を示すフローチャートである。なお、図4に示すカメラキャリブレーションデータファイル16は、混雑度計測カメラ1aの校正作業で得られる当該カメラの焦点距離、画像中心、レンズ歪み、カメラ姿勢、カメラ位置などのカメラパラメータ、カメラパラメータにもとづき算出された荷重値(それぞれの画素が何人分に該当するのかを表す値)を記憶したファイルである。カメラキャリブレーションデータファイル16は、例えば、外部から取得する。なお、荷重値算出などの詳細は、上記特許文献1に記載されている。
図4において、混雑度計測チューニング部13は、混雑度計測エンジンパラメータ設定処理として、混雑度計測エンジン14に関するパラメータを設定する(ステップS40)。具体的には、例えば、混雑度計測チューニング部13は、背景領域作成時に使用するフレーム画像数、サンプリング間隔などの混雑度計測エンジン14で使用する種々のパラメータを設定し、また、フレーム画像における混雑度計測の対象範囲(即ち、フレーム画像の全領域のうち混雑度計測の計測対象範囲)を設定する。なお、上記設定項目は実施のための一例であって、これに限定されるものではない。混雑度計測チューニング部13は、設定した値を混雑度計測エンジンパラメータファイル41に記憶する。
次いで、混雑度計測チューニング部13は、混雑度計測エンジン14に混雑度計測処理を要求する。具体的には、混雑度計測チューニング部13は、フレーム画像、カメラキャリブレーションデータファイル16、混雑度計測エンジンパラメータファイル41を混雑度計測エンジン14に出力する。混雑度計測チューニング部13からフレーム画像等を取得した混雑度計測エンジン14は、混雑度計測処理として、画素単位の信号処理をベースとして人数計測する(ステップS42)。具体的には、混雑度計測エンジン14は、フレーム間処理に基づいて、フレーム画像から前景領域を取得し、当該領域が何人分の人物に相当するのかを、カメラキャリブレーションデータファイル16に記載された、予め各画素に与えられている荷重値に基づいて算出する。なお、混雑度計測処理の詳細は、上記特許文献1(例えば、明細書の0053〜0056)に記載されている。混雑度計測結果43には、処理時刻、混雑度(人数)、滞留人数などが含まれる。混雑度計測エンジン14は、混雑度計測結果43を混雑度計測チューニング部13に出力する。
次いで、混雑度計測チューニング部13は、混雑度計測結果確認処理として、前景領域検出結果、滞留領域検出結果、混雑度、滞留人数を画像、グラフ、表によってリアルタイム表示し、目視によって人間に確認させることによって、混雑度計測エンジン14の適切なパラメータ値の設定を受け付ける(ステップS44)。混雑度計測結果確認処理では、目視可能な態様によって、混雑度計測対象範囲をフレーム画像に重畳表示する。即ち、混雑度計測結果確認処理は、前景領域、滞留領域はそれぞれ異なる色でフレーム画像に重畳して表示し、混雑度計測エンジンパラメータ設定処理(上述のステップS40)で設定した前景領域又は滞留領域検出用パラメータの妥当性を確認する処理である。
次いで、混雑度計測チューニング部13は、チューニングを完了するか否かを判断する(ステップS45)。例えば、混雑度計測チューニング部13は、設定されたパラメータが妥当であるか否かの妥当性を確認し、妥当であると確認した場合に、チューニングを完了すると判断する。混雑度計測チューニング部13は、チューニングを完了しないと判断した場合(ステップS45:No)、ステップS40に戻る。一方、混雑度計測チューニング部13は、チューニングを完了すると判断した場合(ステップS45:Yes)、最終的なパラメータを混雑度計測エンジンパラメータファイル46として記載し、本フローチャートは終了する。
図5は、顔方向推定エンジン18のチューニングに関連する処理の一例を示すフローチャートである。図6は、性別と年代とを組み合わせた区分け方法の一例である。図5において、顔方向推定チューニング部17は、顔方向推定エンジンパラメータ設定処理として、顔方向推定エンジン18に関するパラメータを設定する(ステップS60)。具体的には、例えば、顔方向推定チューニング部17は、検出する顔の大きさの最大サイズ、最小サイズ、検出する顔の角度範囲、広告方向を向いているか否かの判定基準パラメータなどの顔方向推定エンジン18で使用する種々のパラメータを設定し、また、フレーム画像における顔方向推定の対象範囲(即ち、フレーム画像の全領域のうち顔方向推定の推定対象範囲)を設定する。なお、上記設定項目は実施のための一例であって、これに限定されるものではない。顔方向推定チューニング部17は、設定した値を顔方向推定エンジンパラメータファイル61に記載する。
次いで、顔方向推定チューニング部17は、顔方向推定エンジン18に顔方向推定処理を要求する。具体的には、顔方向推定チューニング部17は、フレーム画像、顔方向推定エンジンパラメータファイル61を顔方向推定エンジン18に出力する。顔方向推定チューニング部17からフレーム画像等を取得した顔方向推定エンジン18は、顔方向推定処理として、顔方向推定エンジンパラメータファイル61に従って、フレーム画像から人物の顔領域の検出し、人数を計測する(ステップS62)。なお、顔方向推定エンジン18は、顔の数だけでなく、顔の角度、広告方向を向いているか否かの判定基準パラメータに従って、広告の方向を向いている顔の数(以降、正面顔の数という)の計測、性別、年代などの推定も可能である。当該処理は、下記参考文献2−4等に記載されている方法に基づいて実現可能である。
(参考文献2)
“サポートベクトル回帰を用いた三次元物体の姿勢推定法”安藤慎吾、草地良規、鈴木章、荒川賢一、電子情報通信学会論文誌D−II、Vol.J89−D No.8、pp.1840−1847、2006.
(参考文献3)
“同時確率増分符号相関による高速物体検出・識別”安藤慎吾、鈴木章、高橋裕子、安野貴之、MIRU2007.
(参考文献4)
“顔画像による自動性別・年代推定”瀧川えりな、細井聖、OMRON TECHNICS Vol.43 No.1(通巻145号)2003.
なお、顔方向推定結果63には、処理時刻、検出された顔の数、正面顔の数、性別毎の顔の数、性別毎の正面顔の数、年代毎の顔の数、年代毎の正面顔の数、検出された顔の性別年代、各顔の正面向きとして検出された時間の累積(注視時間)、各顔の注視開始時刻、注視終了時刻などが含まれる。顔方向推定エンジン18は、顔方向推定結果63を顔方向推定チューニング部17に出力する。
次いで、顔方向推定チューニング部17は、顔方向推定結果確認処理として、顔検出結果、顔方向推定結果63、性別推定結果、年代推定結果、顔の数、正面顔の数、性別毎の顔の数、性別毎の正面顔の数、年代毎の顔の数、年代毎の正面顔の数、注視時間、性別年代毎の注視時間などを画像、グラフ、表によってリアルタイム表示し、目視によって人間に確認させることによって、顔方向推定エンジン18の適切なパラメータ値の設定を受け付ける(ステップS64)。顔方向推定結果確認処理は、目視可能な態様によって、顔方向推定処理の対象範囲をフレーム画像に重畳表示する。即ち、顔方向推定結果確認処理は、顔検出結果、顔方向推定結果63、性別推定結果、年代推定結果、注視時間はフレーム画像に重畳して表示し、顔方向推定エンジンパラメータ設定処理(上述のステップS60)で設定したパラメータの妥当性を確認する処理である。
なお、年代の区分け方法としては、10歳代、20歳代、など10歳刻みに年代を区分けする方法、若年層、壮年層、老年層などおおまかに年代を区分けする方法、図6に示すような広告業界で広く用いられている性別と年代を組み合わせた区分け方法などがある。
次いで、顔方向推定チューニング部17は、チューニングを完了するか否かを判断する(ステップS65)。例えば、顔方向推定チューニング部17は、設定されたパラメータが妥当であるか否かの妥当性を確認し、妥当であると確認した場合に、チューニングを完了すると判断する。顔方向推定チューニング部17は、チューニングを完了しないと判断した場合(ステップS65:No)、ステップS60に戻る。一方、顔方向推定チューニング部17は、チューニングを完了すると判断した場合(ステップS65:Yes)、最終的な顔方向推定エンジンパラメータファイル66として記載し、本フローチャートは終了する。
図7は、効果の測定に関連する処理の一例を示すフローチャートである。なお、図7に示す混雑度計測エンジンパラメータファイル46は、図4に示すように、混雑度計測チューニング部13によって記憶されたパラメータファイルである。また、顔方向推定エンジンパラメータファイル66は、図5に示すように、顔方向推定チューニング部17によって記憶されたパラメータファイルである。
図7において、クライアント部19は、効果測定クライアントパラメータ設定処理として、効果測定クライアントに関するパラメータを設定する(ステップS70)。具体的には、例えば、クライアント部19は、カメラ設置場所、識別番号を設定する。なお、上記設定項目は実施のための一例であって、これに限定されるものではない。
次いで、顔方向推定エンジン制御部21は、顔方向推定エンジン制御処理として、クライアント部19からの指示に基づいて、顔方向推定エンジン18を起動する(ステップS71)。顔方向推定エンジン18を起動した顔方向推定エンジン制御部21は、顔方向推定チューニング部17と同様に、顔方向推定エンジン18に顔方向推定処理を要求する。
次いで、顔方向推定エンジン18は、顔方向推定エンジンパラメータファイル66に従って、図5に示す顔方向推定処理と同様、フレーム画像から人物の顔領域の検出し、人数を計測する(ステップS62)。顔方向推定エンジン18は、顔方向推定結果63を顔方向推定エンジン制御部21に出力する。
次いで、混雑度計測エンジン制御部20は、混雑度計測エンジン制御処理として、クライアント部19からの指示に基づいて、混雑度計測エンジン14を起動する(ステップS72)。混雑度計測エンジン14を起動した混雑度計測エンジン制御部20は、混雑度計測チューニング部13と同様に、混雑度計測エンジン14に混雑度計測処理を要求する。
次いで、混雑度計測エンジン14は、混雑度計測エンジンパラメータファイル46等に従って、図4に示す顔方向推定処理と同様、画素単位の信号処理をベースとして人数計測する(ステップS42)。混雑度計測エンジン14は、混雑度計測結果43を混雑度計測エンジン制御部20に出力する。
次いで、クライアント部19は、混雑度計測/顔方向推定結果取得処理として、顔方向推定エンジン制御部21から顔方向推定結果63を取得し、混雑度計測エンジン制御部20から混雑度計測結果43を取得する(ステップS73)。なお、クライアント部19は、顔方向推定結果63と混雑度計測結果43とを同じタイミングで取得してもよいし、異なるタイミングで取得してもよい。つまり、顔方向推定結果63および混雑度計測結果43の各取得タイミングを同期させてもよいし、非同期とさせてもよい。
次いで、クライアント部19は、効果測定データ作成処理として、顔方向推定結果63と混雑度計測結果43とから、効果測定データ22を作成する(ステップS74)。そして、本フローチャートは終了する。なお、効果測定データ22は、カメラ設置場所を示すデータを含むデータであって、顔方向推定結果63と混雑度計測結果43とが時系列に記載されているデータである。
図8は、統計解析情報の生成に関連する処理の一例を示すフローチャートである。図8に示すように、統計解析情報生成部23は、統計解析情報生成処理として、効果測定データ22、混雑度計測カメラエリアカバー率81、顔方向推定カメラエリアカバー率82に基づいて、統計解析情報24を算出する。
混雑度計測カメラエリアカバー率81は、混雑度計測を実施したいエリアのうち、どの程度の割合のエリアを混雑度計測カメラ1aで撮影しているかを示す値(パーセンテージ)である。つまり、図1の例において、混雑度計測カメラエリアカバー率81は、広告視聴可能エリアのうち混雑度計測カメラ撮影範囲の占める割合に相当する。
顔方向推定カメラエリアカバー率82は、顔方向推定を実施したいエリアのうち、どの程度の割合のエリアを顔方向推定カメラ1bで撮影しているかを示す値(パーセンテージ)である。具体的には、図1の例において、顔方向推定カメラエリアカバー率82は、広告視聴可能エリアのうち顔方向推定カメラ撮影範囲の占める割合に相当する。
統計解析情報生成処理には、種々の方法が考えられる。統計解析情報生成処理の最も単純な方法は、滞在者数および視聴者数を集計し、滞在者数および視聴者数を用いた統計解析情報24を生成する方法もある。即ち、上記方法は、効果測定データ22をそのまま利用し、統計解析情報24を生成する方法である。
統計解析情報生成処理の他の方法として、広告効果指標である注目率を算出し、統計解析情報24とする方法、若しくは、注目率を集計し、注目率を用いた統計解析情報24を生成する方法もある。以下、注目率の算出方法を説明する。図9は、注目率について説明するための説明図である。
図9(a)は、混雑度計測カメラ1aおよび顔方向推定カメラ1bの撮影範囲を表している。図9(a)に示すように、混雑度計測カメラ撮影範囲は、広告視聴可能エリアの100[%]であるものとし、顔方向推定カメラ撮影範囲は、広告視聴可能エリアの50[%]であって、かつ、混雑度計測カメラ撮影範囲に包含されているものとする。また、混雑度計測処理と顔方向推定処理は1秒間隔で同期して実行されているとする。
図9(b)は、広告を視聴している人数等の推移を表している。図9(b)において、横軸は時間[秒]である。外側の矩形内の黒丸は、各時刻における混雑度計測カメラ撮影範囲内に存在する人物を表し、内側の矩形内の黒丸は、各時刻における顔方向推定カメラ撮影範囲内に存在する人物を表している。黒丸と黒丸とを結ぶ線、即ち、同一人物の異なる時刻を結ぶ線のうち、一重線は当該人物が広告の方向を向いていないことを表し、二重線は当該人物が広告の方向を向いていることを表している。なお、図9(b)のGSTおよびGVTについては後述する。
図9(b)に示すように、時刻t1では、A〜Jの10名が混雑度計測カメラ撮影範囲内に存在し、うちG〜Jの4名が顔方向推定カメラ撮影範囲に存在しているものとする。F、Jは時刻t1で広告の方向を向いているものとする。他の8名(A〜E、G〜I)は広告の方向を向いていないものとする。時刻t2〜時刻t10では、A〜Iの9名が混雑度計測カメラ撮影範囲から立ち去り、J1名のみが顔方向推定カメラ撮影範囲に存在し、継続して広告の方向を向いているものとする。
図9(c)は、上記の図9(a)(b)の前提における、各時刻の混雑度計測結果、顔方向推定結果(検出された顔の数)および注目率を表している。例えば、時刻t1における、混雑度計測結果は混雑度計測カメラ1aにて把握される混雑度計測カメラ撮影範囲内に存在しているA−Jの10名、顔方向推定結果は混雑度計測カメラ1aにて把握される顔方向推定カメラ撮影範囲内に存在しかつ広告の方向を向いているJの1名である。なお、ここでは、検出された顔の数を広告の方向を向いている人数としているが、顔の角度と広告方向を向いているか否かの判定基準パラメータに基づいて、検出された顔の中から正面向きの顔だけを絞り込み、その数を広告の方向を向いている人数としてもよい。
統計解析情報生成部23は、混雑度計測結果と検出された顔の数から、下記式(1)に従って、各時刻における注目率[%]を算出する。
注目率[%]={(検出された顔の数/(顔方向推定カメラエリアカバー率/100))/(混雑度計測結果/(混雑度計測カメラエリアカバー率/100))}×100…(1)
但し、注目率は100%を上限とし、それを超えた場合は100%とする。
例えば、図9(a)によれば、混雑度計測カメラエリアカバー率81は100、顔方向推定カメラエリアカバー率82は50、図9(b)によれば、時刻t1における、検出された顔の数は1、混雑度計測結果は10であるから、統計解析情報生成部23は、上記式(1)に従って、時刻t1における注目率[%]を下記の如く算出する。
注目率[%]={(1/(50/100))/(10/(100/100))}×100={(1/0.5)/(10/1)}×100=20[%]
また、例えば、図9(b)によれば、時刻t2における、検出された顔の数は1、混雑度計測結果は1であるから、統計解析情報生成部23は、上記式(1)に従って、時刻t1における注目率[%]を下記の如く算出する。
注目率[%]={(1/(50/100))/(1/(100/100))}×100={(1/0.5)/(1/1)}×100=200[%]
計算結果が上限である100[%]を越えたため、注目率は100[%]となる。
以上のように、上記式(1)の注目率は、混雑度計測カメラエリアカバー率81と顔方向推定カメラエリアカバー率82とを用いて算出するが、これは、当該注目率が、混雑度計測エンジン14および顔方向推定エンジン18の双方を考慮した指標であることを意味している。換言すれば、上記注目率は、混雑度計測カメラエリアカバー率81と顔方向推定カメラエリアカバー率82とを用いているため、比較的広い範囲で人数カウント可能であるという混雑度計測エンジン14の利点と、比較的狭い範囲が対象だが、広告方向を向いている人数(広告を視聴した人数に該当)を取得可能という顔方向推定エンジン18の利点とを組み合わせた指標であることを表している。従って、顔方向推定カメラ撮影範囲を超える比較的広く範囲、例えば広告視聴可能エリア全体などを対象として、何人中、何人が広告を見ていたかの割合を推計することができるようになる。
統計解析情報生成処理の他の方法として、広告効果指標である延べ滞在人秒(GST)を算出し、統計解析情報24とする方法、若しくは、延べ滞在人秒を集計し、延べ滞在人秒を用いた統計解析情報24を生成する方法もある。以下、図10を用いて、延べ滞在人秒の算出方法を説明する。図10は、GSTについて説明するための説明図である。
図10(a)は、GSTの概念を説明した図である。図10(a)のグラフの横軸は時間[秒]、縦軸は混雑度[人数]である。黒丸は、一定又は任意の処理間隔で得られる混雑度計測結果43である。GSTは、図10(a)のグラフにおける斜線部分の面積によって表される量である。即ち、GSTは、当該処理時刻における混雑度計測結果43と次の処理時刻迄の時間間隔とを掛け合わし、算出された値を単位時間内で積算することによって算出される値である。
図10(b)は、1時間単位のGSTを算出する場合の説明図である。図10(b)において、11Aは、処理時刻(時:分:秒)である。図10(b)の例では、08:00:00から09:00:00迄、10分間隔で処理が実行されている。11Bは、混雑度計測結果43である。
11Cは、11Bに対し、エリアカバー率の修正を加えた値である。エリアカバー率の修正は、混雑度計測結果43を混雑度計測カメラエリアカバー率81で除算することによって行われる。図10(b)の例では、混雑度計測カメラカバー率81は100%であるため、11Bを1(=100%)で除算した値が11Cとなる。なお、仮に、混雑度計測カメラカバー率81が50%である場合は0.5で除算し、200%の場合は2で除算する。
11Dは、当該処理時刻から次の処理時刻迄の時間間隔である。図10(b)の例では、600秒となる。11Eは、11Cと11Dを掛け算した値である。11Fは、1時間単位で算出されたGST[人秒]である。例えば、08時台のGSTは、08:00:00における11Eから、09:00:00直前の処理時刻の11E(図10(b)の例では08:50:00における11E)を積算して求められる。具体的には、図10(b)の例では、08時台のGSTは、6000+12300+18000+5100+12000+18000=71400[人秒]となる。なお、GST算出の時間幅は、1時間に限られず、任意の時間、早朝、昼間、夕方、夜間、深夜、午前、午後、1日、1週間など種々の時間幅が考えられる。
以上、図10に示す例によれば、混雑度計測カメラエリアカバー率81が100%ではない場合、即ち広告効果測定を実施したいエリアと実際に混雑度計測カメラ1aが撮影するエリアとが異なる場合でも、混雑度計測カメラエリアカバー率81を用いることにより、広告効果測定を実施したいエリア全体でのGSTを推計することが可能になる。
また、GSTは、人数と時間の両方の概念を包含した指標であって、滞在時間で重みを付けて人数を計測した値である。従って、GSTを広告効果指標として用いることにより、個々人の滞在時間と全体的な人数といった複数の指標を、統合的な一つの指標として取り扱うことが可能となるため、効果的に、広告効果を定量化および可視化することができるようになる。
統計解析情報生成処理の他の方法として、広告効果指標である延べ視聴人秒(GVT)を算出し、統計解析情報24とする方法、若しくは、延べ視聴人秒を集計し、延べ視聴人秒を用いた統計解析情報24を生成する方法もある。以下、図11を用いて、延べ視聴人秒の算出方法を説明する。図11は、GVTについて説明するための説明図である。
図11(a)は、GVTの概念を説明した図である。図11(a)のグラフの横軸は時間[秒]、縦軸は顔方向推定結果の中の検出された顔の数である。黒丸は、一定又は任意の処理間隔で得られる顔方向推定結果63である。GVTは、図11(a)のグラフにおける斜線部分の面積によって表される量である。即ち、GVTは、当該処理時刻における検出された顔の数、即ち顔方向推定結果63と次の処理時刻迄の時間間隔とを掛け合わし、算出された値を単位時間内で積算することによって算出される値である。なお、GVTは、検出された顔の数に代えて、正面顔の数を使って算出してもよいが、ここでは検出された顔の数によって算出する例を説明する。
図11(b)は、1時間単位のGVTを算出する場合の説明図である。図11(b)において、12Aは処理時刻(時:分:秒)である。図11(b)の例では、08:00:00から09:00:00迄、10分間隔で処理が実行されている。12Bは、検出された顔の数である。
12Cは12Bに対し、エリアカバー率の修正を加えた値である。エリアカバー率の修正は、検出された顔の数を顔方向推定カメラエリアカバー率82で除算することによって行われる。図11(a)の例では、顔方向推定カメラカバー率82は50%であるため、11Bを0.5(=50%)で除算した値が12Cとなる。なお、仮に、顔方向推定カメラカバー率82が100%である場合は1で除算し、200%の場合は2で除算する。
12Dは、当該処理時刻から次の処理時刻迄の時間間隔である。図11(b)の例では、600秒となる。12Eは、12Cと12Dを掛け算した値である。12Fは、1時間単位で算出されたGVT[人秒]である。例えば、08時台のGVTは、08:00:00における12Eから、09:00:00直前の処理時刻の12E(図11(b)の例では08:50:00における12E)を積算して求められる。具体的には、図11(b)の例では、08時台のGVTは、6000+6000+3600+2400+9600+18000=45600[人秒]となる。なお、GVT算出の時間幅は、1時間に限られず、任意の時間、早朝、昼間、夕方、夜間、深夜、午前、午後、1日、1週間など種々の時間幅が考えられる。
また、顔方向推定結果63には検出された顔の数に加え、その内訳である性別毎の顔の数、年代毎の顔の数、図6に示した性別と年代を組み合わせた区分け毎の顔の数が記載されているため、人物属性別にGVTを算出することも容易に可能である。なお、人物属性別に情報を出力するためには、人物属性別の視聴者数が必要となるが、これについては後述する。
以上、図11に示す例によれば、顔方向推定カメラエリアカバー率82が100%ではない場合、即ち広告効果測定を実施したいエリアと実際に顔方向推定カメラ1bが撮影するエリアとが異なる場合でも、顔方向推定カメラエリアカバー率82を用いることにより、広告効果測定を実施したいエリア全体でのGVTを推計することが可能になる。
また、GVTもGSTと同様、人数と時間の両方の概念を包含した指標であって、注視時間で重みを付けて人数を計測した値である。従って、GVTを広告効果指標として用いることにより、個々人の注視時間と、顔の数、即ち全体的な人数といった複数の指標を、統合的な一つの指標として取り扱うことが可能となるため、効果的に、広告効果を定量化および可視化することができるようになる。
統計解析情報生成処理の他の方法として、広告効果指標である人秒ベースの注目率を算出し、統計解析情報24とする方法、若しくは、人秒ベースの注目率を集計し、人秒ベースの注目率を用いた統計解析情報24を生成する方法もある。以下、人秒ベースの注目率の算出方法を説明する。
統計解析情報24は、上記式(1)による注目率に代えて、下記式(2)従って、人秒ベースの注目率[%]を算出する。
人秒ベースの注目率[%]=(GVT/GST)×100…(2)
但し、人秒ベースの注目率は100%を上限とし、それを超えた場合は100%とする。
人秒ベースの注目率は、上記式(2)に示すように、GVTをGSTで除算して算出される。人秒ベースの注目率も、何人中、何人が広告を見ていたかを表す割合であって、GSTおよびGVTを算出した際の時間単位毎に算出される。
例えば、図9の例において、時刻t1〜時刻t10迄の10秒間を時間単位とした場合、該10秒間のGSTは19[人秒]、GVTは10[人秒]であるため、上記式(2)に従って、人秒ベースの注目率=(10/19)×100=52.6%(小数点第2位四捨五入)となる。
また、図10および図11の例において、人秒ベースの注目率=(08時台のGVT/08時台のGST)×100=(45600/71400)×100=63.9%(小数点第2位四捨五入)となる。
以上、人秒ベースの注目率は、1時間単位又は1日単位などの時間単位における代表値を算出する際に、容易に算出することができる。また、人秒ベースの注目率は、使用目途にも依るが、より人間の直観に合致するため有用である。例えば、図9の例において、代表値に平均値を用いる方法を例とすると、時刻t1〜時刻t10迄の10秒間の注目率の代表値(平均値)は、注目率=(20+100+100+100+100+100+100+100+100+100)/10=92%と算出され、1名の長時間視聴者(具体的にはJ)の存在によって算出される注目率100%の事例数に重み付けされ、比較的高い値となる。換言すれば、1名の長時間視聴者による注目率に代表値が引っ張られ、比較的高い値となる。しかし、当該10秒間における人秒ベースの注目率は、上述の如く52.6%となるため、当該場合、人秒ベースの注目率の方が人間の直観により合致する。
以下、図12および図13を用いて、具体的な統計解析情報24について更に説明する。図12および図13は、統計解析情報生成処理における統計解析情報の出力例を説明するための説明図である。
図12(a)は、曜日別に、1時間単位でGSTおよびGVTを集計した集計結果の一例である。具体的には、図12(a)に示す例は、月曜日の時間推移の一例である。統計解析情報生成部23は、効果測定データ22から曜日別にデータ(広告効果指標)を抽出し、曜日別に、1時間単位でGSTおよびGVTを集計し、図12(a)に示すような集計結果を出力する。
なお、統計解析情報生成部23は、曜日別の集計に代えて、同様に、曜日を考慮しない全日(月曜〜日曜)、平日(月曜〜金曜)/週末(土曜、日曜)別に集計してもよい。また、統計解析情報生成部23は、1時間単位の集計に代えて、同様に、1日単位に集計してもよい。なお、図12(b)は、全日、平日、週末、曜日別に、1日単位でGSTおよびGVTを集計した集計結果である。また、上述の平日、週末以外にも、祝日別に集計する方法、週別に集計する方法、月別に集計する方法、季節別に集計する方法など種々の集計方法が考えられる。
また、統計解析情報生成部23は、GSTおよびGVTに代えて、上記式(1)によって示される注目率について集計してもよい。具体的には、例えば、統計解析情報生成部23は、上記式(1)によって示される注目率について集計時間単位(例えば、1時間又は1日)の代表値(例えば平均値)を算出し、算出した代表値を集計値としてもよい。
また、統計解析情報生成部23は、更に、人物属性別に集計してもよい。例えば、図12(a)に示す集計を性別毎に行って、性別、曜日別に、1時間単位のGSTおよびGVTを集計してもよい。なお、人物属性別に情報を出力するためには、人物属性別の視聴者数が必要となるが、これについては後述する。
図12(b)に示すような広告効果指標を統計解析情報24として出力することによって、当該広告の当該設置場所における効果が得られるため、当該広告または当該設置場所の今後のマーケティング、販売促進、広告コンテンツのプランニング等に利用することができる。
また、統計解析情報生成部23は、GSTおよびGVTに代えて、人秒ベースの注目率について集計してもよい。また、統計解析情報生成部23は、人物属性別のGVTである人物属性別GVTについて集計してもよい。なお、人物属性別に情報を出力するためには、人物属性別の視聴者数が必要となるが、これについては後述する。
図13(a)は、曜日別に、1時間単位で性別比率を集計した集計結果の一例である。具体的には、図13(a)に示す例は、月曜日の時間推移の一例である。統計解析情報生成部23は、効果測定データ22から曜日別にデータ(場所属性情報)を抽出し、曜日別に、1時間単位で性別比率を集計し、図13(a)に示すような集計結果を出力する。
なお、統計解析情報生成部23は、曜日別の集計に代えて、同様に、全日、平日/週末別に集計してもよい。また、統計解析情報生成部23は、1時間単位の集計に代えて、同様に、1日単位に集計してもよい。なお、図13(b)は、全日、平日、週末、曜日別に、1日単位で性別比率を集計した集計結果である。また、統計解析情報生成部23は、性別比率に代えて、年代比率、図6に示した性別と年代とを組み合わせた属性区分比率についても集計してよい。
図13(b)に示すような場所属性情報を統計解析情報24として出力することによって、当該場所に、どのような属性の人がどのような時間に多いのか、または少ないのか、といった当該場所固有の特性が得られるため、マーケティング、販売促進、広告コンテンツのプランニング等に利用することができる。
以下、図14から図18を用いて、顔方向を推定方法および人物属性別の視聴者数の算出方法について詳細に説明する。図14は、顔方向推定エンジン18の構成の一例を示す機能ブロック図である。図15は、認識用顔領域再検出部124の処理を説明するための説明図である。
顔方向推定エンジン18は、図14に示すように、学習処理部110および認識処理部120を備える。学習処理部110は、学習用データ取得部111、学習用顔領域検出部112、顔方向別属性識別器生成部113および顔方向別属性識別器記憶部114を備える。認識処理部120は、計測用画像データ取得部121、認識用顔領域検出部122、顔方向推定部123、認識用顔領域再検出部124、属性識別部125および結果出力部126を備える。
学習用データ取得部111は、学習用データとして、顔方向推定カメラ1bによって種々の方向から撮像された顔画像データ、上記顔画像データの被写体の顔方向を示す学習用顔方向パラメータ、被写体の属性データを取得する。学習用データ取得部111は、顔画像データを学習用顔領域検出部112に出力する。
また、学習用データ取得部111は、学習用顔方向パラメータ(例えば、yaw角の値、pitch角の値など)を学習用データとして取得する。学習用データ取得部111は、学習用顔方向パラメータを、何れの顔画像データに係る学習用顔方向パラメータであるかわかる態様(顔画像データと学習用顔方向パラメータとの対応関係がわかる態様)により、顔方向別属性識別器生成部113に出力する。例えば、学習用データ取得部111は、学習用顔方向パラメータを、顔画像データを識別する識別情報に対応付けて顔方向別属性識別器生成部113に出力する。なお、学習用顔方向パラメータは、各顔画像データの撮像時に設定した顔方向を手作業で入力したものである。
また、学習用データ取得部111は、各顔画像データの被写体の属性データを学習用データとして取得する。学習用データ取得部111は、属性データを、何れの顔画像データに係る属性データであるかわかる態様(顔画像データと属性データとの対応関係がわかる態様)により、顔方向別属性識別器生成部113に出力する。例えば、学習用データ取得部111は、属性データを、顔画像データを識別する識別情報に対応付けて顔方向別属性識別器生成部113に出力する。
また、学習処理部110において、主観年齢層を識別する属性識別器を生成する場合、学習用データ取得部111は、主観年齢に係る集計データ(顔画像データを多数の人物に予め提示して得られた当該顔画像データの被写体の主観年齢の割合を集計した集計データ)を学習用データとして取得する。学習用データ取得部111は、集計データを、何れの顔画像データに係る集計データであるかわかる態様(顔画像データと集計データとの対応関係がわかる態様)により、顔方向別属性識別器生成部113に出力する。例えば、学習用データ取得部111は、集計データを、顔画像データを識別する識別情報に対応付けて顔方向別属性識別器生成部113に出力する。なお、主観年齢層を識別する識別器を生成する場合の具体例などについては後述する
学習用顔領域検出部112は、学習用データ取得部111から顔画像データを取得し、顔画像データから顔領域を検出する。例えば、学習用顔領域検出部112は、確率的増分符号相関などの統計的手法(例えば、参考文献5参照)を利用し、顔領域を高速に検出してもよい。
(参考文献5)
「個体差のある対象の画像照合に適した確率的増分符号相関」三田雄志、金子敏充、堀修 電子情報通信学会論文誌D−II,Vol.J88−D−II,No.8,pp.1614−1623,2005.
顔領域を検出した学習用顔領域検出部112は、顔画像データから顔領域を切り出した画像(以下、「顔切出画像データ」という)を、何れの顔画像データに係る顔切出画像データであるかわかる態様(顔画像データと顔切出画像データとの対応関係がわかる態様)により、顔方向別属性識別器生成部113に出力する。例えば、学習用顔領域検出部112は、顔切出画像データを、切り出し元の顔画像データを識別する識別情報に対応付けて顔方向別属性識別器生成部113に出力する。なお、学習処理部110の学習用顔領域検出部112は、認識処理部120の認識用顔領域検出部122に比べ、処理時間における制約は厳しくない。認識用顔領域検出部122は認識時に顔領域を検出するが、学習用顔領域検出部112は属性識別器の学習時に顔領域を検出するからである。
顔方向別属性識別器生成部113は、学習用データ取得部111から学習用データ(学習用顔方向パラメータ、属性データ)を取得する。また、顔方向別属性識別器生成部113は、学習用顔領域検出部112から顔切出画像データを取得する。なお、学習用顔方向パラメータ、属性データおよび顔切出画像データは、何れも、それぞれが何れの顔画像データに係る情報であるか識別可能である。換言すれば、学習用顔方向パラメータ、属性データおよび顔切出画像データのぞれぞれは互いに対応付けられている。
また、学習処理部110において、主観年齢層を識別する属性識別器を生成する場合、顔方向別属性識別器生成部113は、学習用データ取得部111から学習用データ(集計データ)を取得する。なお、集計データは、何れも、それぞれが何れの顔画像データに係る情報であるか識別可能である。換言すれば、学習用顔方向パラメータ、属性データ、集計データおよび顔切出画像データのぞれぞれは互いに対応付けられている。
学習用データおよび顔切出画像データを取得した顔方向別属性識別器生成部113は、顔方向別に、属性識別器を生成する。例えば、顔方向別属性識別器生成部113は、男性か女性かを識別できる性別識別器などの属性識別器を顔方向別に生成する。
具体的には、顔方向別属性識別器生成部113は、学習用顔領域検出部112によって出力された顔切出画像データであって学習用顔方向パラメータが同一である複数の顔切出画像データと、当該複数の顔切出画像データそれぞれの属性データとに基づいて、被写体の顔方向別に、被写体の属性を識別する属性識別器を生成する。より詳細には、顔方向別属性識別器生成部113は、学習用顔方向パラメータの値が一致する顔切出画像データ(顔方向の一致する顔切出画像データ)を1つのグループとし、各グループ内の属性(各グループ内の顔切出画像データに対応する属性データに基づく属性)を教師信号として属性識別器に学習させる。顔方向別属性識別器生成部113は、全ての顔方向に対して当該処理を行うことによって、顔方向別の属性識別器を生成する。なお、顔方向別属性識別器生成部113は、学習用顔方向パラメータに基づいて、各属性識別器に顔方向に係る情報(例えば、yaw角およびpitch角の組合せ)を示すタグを付加する。
顔方向別属性識別器生成部113は、生成した全ての属性識別器を顔方向別属性識別器記憶部114に記憶する。なお、顔方向別属性識別器生成部113は、属性識別器の生成結果を管理し、全ての顔方向の属性識別器を生成したか否かを判断する。なお、顔方向別属性識別器生成部113が生成する属性識別器の種類は、2クラスを判別できるものであれば何でもよい。例えば、サポートベクトルマシンやフィードフォワード型ニューラルネットワークなどが代表的なところである。
また、主観年齢層を識別する識別器を生成する場合、顔方向別属性識別器生成部113は、所定の閾値に基づいて、集計データによって示される各主観年齢層(各クラス)の正解/不正解を判定し、複数の主観年齢層を正解と判定した場合に、正解と判定した主観年齢層における評価の頻度(正解と判定した各クラスに属すると評価した他者の割合)に応じて重み付けした内分値、又は、上記評価の割合を等価とした内分値を教師信号として属性識別器に渡して、属性識別器を生成する。
顔方向別属性識別器記憶部114は、メモリまたはHDDであって、顔方向別属性識別器生成部113によって生成された全ての属性識別器を記録する。顔方向別属性識別器記憶部114に記憶された属性識別器は、属性識別部125からの要求に応じて属性識別部125に出力される。
計測用画像データ取得部121は、顔方向推定カメラ1bから出力された撮像画像を計測用画像データとして取得する。なお、計測用画像データ取得部121が取得する計測用画像データは、視聴人数の計測用、又は、人物属性別の視聴人数の計測用の画像データである。計測用画像データ取得部121は、計測用画像データを認識用顔領域検出部122および認識用顔領域再検出部124に出力する。
認識用顔領域検出部122は、計測用画像データ取得部121から計測用画像データを取得し、計測用画像データから顔領域を検出する。例えば、認識用顔領域検出部122は、学習用顔領域検出部112と同様の手法を利用し、計測用画像データから顔領域を検出する。顔領域を検出した認識用顔領域検出部122は、計測用画像データから顔領域を切り出した顔切出画像データを顔方向推定部123に出力する。なお、認識処理部120の認識用顔領域検出部122は、学習処理部110の学習用顔領域検出部112に比べ、処理時間における制約は厳しい。学習用顔領域検出部112は属性識別器の学習時に顔領域を検出するが、認識用顔領域検出部122は認識時に顔領域を検出するからである。従って、確率的増分符号相関などの統計的手法を利用し、顔領域を高速に検出することが好ましい。
顔方向推定部123は、認識用顔領域検出部122から顔切出画像データを取得する。顔切出画像データを取得した顔方向推定部123は、認識用顔領域検出部122によって出力された顔切出画像データに基づいて、計測用画像の被写体の顔方向を推定し、被写体の顔方向を示す属性識別用顔方向パラメータを出力する。属性識別用顔方向パラメータは、例えば、yaw角、pitch角、roll角およびスケール値に係るものである。スケール値とは、顔領域として検出される方形枠に対する顔の占める大きさ(例えば、ドット数)を定量的に算出したものである(例えば、ある基準値に対する相対値として表現してもよい)。
より詳細には、顔方向推定部123は、顔切出画像データから顔領域の明度パターンを検出し、検出した顔領域の明度パターンに基づいて、属性識別用顔方向パラメータを推定する。例えば、顔方向推定部123は、主成分分析とサポートベクトル回帰を組み合わせたパラメータ推定法(例えば、参考文献6参照)を利用し、高精度に、属性識別用顔方向パラメータを推定する。参考文献6参照の手法を利用することによって、学習していない顔方向を含む連続的な顔方向推定が可能となる。
(参考文献6)
「サポートベクトル回帰を用いた三次元物体の姿勢推定法」安藤慎吾,草地良規,鈴木章, 荒川賢一 電子情報通信学会論文誌D−II,Vol.J89−D No.8,pp.1840−1847,2006.
顔方向を推定した顔方向推定部123は、roll角およびスケール値に係る属性識別用顔方向パラメータを認識用顔領域再検出部124に出力し、yaw角およびpitch角に係る属性識別用顔方向パラメータを属性識別部125に出力する。
また、顔方向推定部123は、顔切出画像データ毎に推定した顔方向と、予め設定した広告方向とを比較し、顔方向が広告方向である顔切出画像データの数、即ち、視聴人数を計数する。視聴人数を計数した顔方向推定部123は、計数した視聴人数を結果出力部126に出力する。
また、顔方向推定部123は、上記比較の結果、顔方向が広告方向であるか否かを示す情報を、yaw角およびpitch角に係る属性識別用顔方向パラメータに対応付けて、属性識別部125に出力してもよい。つまり、顔方向推定部123は、視聴者に係る属性識別用顔方向パラメータであるか、非視聴者に係る属性識別用顔方向パラメータであるかがわかる態様により、属性識別用顔方向パラメータを属性識別部125に出力してもよい。
認識用顔領域再検出部124は、計測用画像データ取得部121から計測用画像データを取得する。また、認識用顔領域再検出部124は、顔方向推定部123からroll角およびスケール値に係る属性識別用顔方向パラメータを取得する。計測用画像データ、roll角およびスケール値に係る属性識別用顔方向パラメータを取得した認識用顔領域再検出部124は、顔方向推定部123によって出力された属性識別用顔方向パラメータ(roll角およびスケール値)に基づいて、計測用画像データから、被写体の顔領域を再度検出して切り出した顔切出画像データを出力する。具体的には、認識用顔領域再検出部124は、図15に示すように、roll角が0°かつスケール値が1になるように正規化されるように、計測用画像データから顔領域を切り出した顔切出画像データを出力する。つまり、認識用顔領域再検出部124は、回転や大きさの微妙なぶれを補正するために、再度、計測用画像データから顔領域を切り出した顔切出画像データを出力している。認識用顔領域再検出部124は、顔切出画像データを属性識別部125に出力する。
属性識別部125は、顔方向推定部123からyaw角およびpitch角に係る属性識別用顔方向パラメータを取得する。また、属性識別部125は、認識用顔領域再検出部124から顔切出画像データを取得する。yaw角およびpitch角に係る属性識別用顔方向パラメータ、顔切出画像データを取得した属性識別部125は、顔方向推定部123によって出力された属性識別用顔方向パラメータ(yaw角およびpitch角)に基づいて、顔方向別属性識別器記憶部114に記憶されている複数の属性識別器のなかから1または2以上の属性識別器を選択する。
属性識別部125による属性識別器の選択基準は種々の方法が考えられるが、例えば、属性識別部125は、基準基準1または選択基準2の何れかに従って属性識別器を選択する。
(選択基準1)
顔方向別属性識別器記憶部114に記憶されている複数の属性識別器がyaw角とpitch角に関する2次元空間上に格子状に並べられていると想定し、ユークリッド距離による最近傍の属性識別器を1つ選択する。換言すれば、顔方向別属性識別器記憶部114に記憶されている複数の属性識別器のそれぞれを、顔方向推定部123から出力されたyaw角およびpitch角から構成される2次元空間に配置したときの、ユークリッド距離に基づいて最近傍の属性識別器を1つ選択する。
(選択基準2)
顔方向別属性識別器記憶部114に記憶されている複数の属性識別器がyaw角とpitch角に関する2次元空間上に格子状に並べられていると想定し、ユークリッド距離による4近傍の識別器を選択する。換言すれば、顔方向別属性識別器記憶部114に記憶されている複数の属性識別器のそれぞれを、顔方向推定部123から出力されたyaw角およびpitch角から構成される2次元空間に配置したときの、ユークリッド距離に基づいて近傍の属性識別器を2つ以上選択する。
基準基準1に従って1つの属性識別器を選択した場合、属性識別部125は、当該選択した1つの属性識別器に、認識用顔領域再検出部124から取得した顔切出画像データを入力し、識別結果を得る。そして、属性識別部125は、当該識別結果を結果出力部126に出力する。
また、属性識別部125は、顔方向が広告方向であるか否かを示す情報を顔方向推定部123から取得した場合には、識別結果別の視聴者数、即ち、人物属性別の視聴人数を計数する。人物属性別の視聴人数を計数した属性識別部125は、計数した人物属性別の視聴人数を結果出力部126に出力する。
基準基準2に従って4つの属性識別器を選択した場合、属性識別部125は、当該選択した4つの属性識別器のそれぞれに、認識用顔領域再検出部124から取得した顔切出画像データを入力し、それぞれから識別結果を得る。そして、属性識別部125は、それぞれから取得した識別結果から最終的な識別結果を算出し(例えば、距離による重み付き平均を用いて計測用画像の被写体に係る最終的な識別結果を算出する)、最終的な識別結果を結果出力部126に出力する。
例えば、サポートベクトルマシン等では最後にsign関数を乗じて1か−1の何れかを出力するが、ここでは、それぞれから取得した識別結果について、sign関数を乗じる前の数値を(一時的な)識別結果とし、デジタル画像の拡大などで用いられるバイリニア補間と同様の手法を用いて、それぞれの識別結果を重み付き平均する。次いで、sign関数をかけ、(最終的な)識別結果として結果出力部126に出力する。なお、バイキュービック補間のように5近傍以上の重み付き平均を利用した手法、スプライン補間などの、より高度な手法を利用可能であり、バリエーションは多彩である。
結果出力部126は、顔方向推定部123および属性識別部125から取得した情報を出力する。例えば、結果出力部126は、属性識別部125から識別結果である各人の属性情報を取得した場合には、当該属性情報を出力する。また、結果出力部126は、顔方向推定部123から視聴人数を取得した場合には、当該視聴人数を出力する。また、結果出力部126は、属性識別部125から人物属性別の視聴人数を取得した場合には、当該人物属性別の視聴人数を出力する。
続いて、図16および図17を用いて、年齢層識別において、主観年齢層を識別する属性識別器を生成する場合の具体例などについて説明する。図16および図17は、主観年齢層の概念を説明するための説明図である。図16(a)に示すように、一人の顔画像に対し、多数の人物の主観年齢層を集計すると、複数のクラス(層)にばらつく可能性が高い。そのため、まず、主観年齢層で全体のa%(aはあらかじめ決定するパラメータ値)を超えるもクラスのみを正解とする。例えば、図16(b)に示す例では、20歳〜34歳のクラスおよび35歳〜49歳のクラスは正解とするが、19歳以下のクラスおよび50歳以上のクラスは不正解とする。
ところで、主観年齢層を分けるときのクラスの分け方も種々の分け方が考えられるが(例えば、図16に示す方法やn十代毎に分ける方法)、通常、主観年齢層が3クラス以上となるような分け方を設定する。4クラスの主観年齢層(19歳以下のクラス、20歳〜34歳のクラス、35歳〜49歳のクラス、50歳以上のクラス)を設定する場合、例えば、図17(a)のように、19歳以下と20歳以上を識別する属性識別器1、34歳以下と35歳以上を識別する属性識別器2、49歳以下と50歳以上を識別する属性識別器2をそれぞれ学習する。つまり、属性識別器1、2、3の識別結果を分析すれば、上記4クラスの主観年齢層に対応できる。各属性識別器は2クラスの年齢層(例えば、図17(a)に示す属性識別器2の場合、34歳以下のクラスと35歳以上のクラス)を判別し、1か−1として出力する最も単純な識別器の組合せで構成可能である。
問題は、正解が2クラス以上発生する場合(例えば、図16(b)のような結果が出る顔画像の場合)の対処であるが、当該問題の対処としては、例えば、属性識別器を学習するために渡す教師信号として、下記式(3)に従って算出される内分値を与えるようにしてもよい。
内分値=(O×P+O×P)÷(P+P)…(3)
但し、Oはある属性識別器Xにおいて小さい方の年齢層Sであると判別された場合の出力値、Oは当該属性識別器Xにおいて大きい方の年齢層Bであると判別された場合の出力値、Pは年齢層Sに含まれる最大の主観年齢層に属すると評価した他者の割合(頻度)、Pは年齢層Bに含まれる最小の主観年齢層に属すると評価した他者の割合(頻度である。
具体的には、属性識別器2の場合、図17(a)に示すように、小さい方の年齢層S(34歳以下のクラス)であると判別された場合の出力値O=−1、大きい方の年齢層B(35歳以上のクラス)であると判別された場合の出力値O=1、図16(a)に示すように、年齢層S(34歳以下のクラス)に含まれる最大の主観年齢層(20〜34歳のクラス)に属すると評価した他者の頻度P=0.6、年齢層B(35歳以上のクラス)に含まれる最小の主観年齢層(35〜49歳のクラス)に属すると評価した他者の頻度P=0.3である。従って、属性識別器2に係る内分値(教師信号)は、上記式(3)に従って、図17(b)に示すように、(−1×0.6+1×0.3)÷(0.6+0.3)=−0.333と算出される。
同様に、属性識別器1の場合、図17(a)に示すように、小さい方の年齢層S(19歳以下のクラス)であると判別された場合の出力値O=−1、大きい方の年齢層B(20歳以上のクラス)であると判別された場合の出力値O=1、図16(a)に示すように、年齢層S(19歳以下のクラス)に含まれる最大の主観年齢層(19歳以下のクラス)に属すると評価した他者の頻度P=0.1、年齢層B(20歳以上のクラス)に含まれる最小の主観年齢層(20〜34歳のクラス)に属すると評価した他者の頻度P=0.6である。従って、属性識別器1に係る内分値(教師信号)は、上記式(3)に従って、図17(b)に示すように、(−1×0.1+1×0.6)÷(0.1+0.6)=0.714と算出される。
同様に、属性識別器3の場合、図17(a)に示すように、小さい方の年齢層S(49歳以下のクラス)であると判別された場合の出力値O=−1、大きい方の年齢層B(50歳以上のクラス)であると判別された場合の出力値O=1、図16(a)に示すように、年齢層S(49歳以下のクラス)に含まれる最大の主観年齢層(35〜49歳以下のクラス)に属すると評価した他者の頻度P=0.3、年齢層B(50歳以上のクラス)に含まれる最小の主観年齢層(50歳以上のクラス)に属すると評価した他者の頻度P=0である。従って、属性識別器3に係る内分値(教師信号)は、上記式(3)に従って、図17(b)に示すように、(−1×0.3+1×0)÷(0.3+0)=−1と算出される。
また、より単純に、それぞれの頻度(割合)を等価と考え、下記式(4)に従って内分値を算出してもよい。即ち、上記式(3)において、P=P=0.5としてもよい。
内分値=(O×0.5+O×0.5)÷(0.5+0.5)…(4)
なお、上記式(4)に従えば、例えば、属性識別器2に係る内分値(教師信号)は、(−1×0.5+1×0.5)÷(0.5+0.5)=0と算出される。
なお、基礎実験等により、パラメータaを適切に設定すれば、クラス間が隣接せずに正解が2クラス以上発生するケースは稀であることが分かっている。そのため、複数の正解クラスが隣接しないケースは無視する。仮に、複数の正解クラスが隣接しないようなデータが出現した場合には、当該データを学習データから除外する。また、属性識別器から矛盾する結果(例えば、19歳以下、かつ、35歳以上であるという結果)が出力される可能性を否定できないため、矛盾した結果の出力されたときのルール(例えば、「常に、年齢が少ない方のクラスを優先して出力する」というようなルール)を予め設定しておくことよい。
続いて、図18を用いて顔方向推定エンジン18の動作を説明する。図18は、顔方向推定エンジン18の動作の一例を示すフローチャートである。図18(a)に示すフローチャートは、学習処理部110の動作の流れである。図18(b)に示すフローチャートは、認識処理部120の動作の流れである。図18(c)に示すフローチャートは、顔方向別属性識別器生成部113が主観年代に係る教師信号を作成する場合の動作の流れである。
図18(a)において、学習用データ取得部111は、学習用データ(顔画像データ、学習用顔方向パラメータ、属性データ、集計データ)を取得する(ステップS111)。学習用データ取得部111は顔画像データを学習用顔領域検出部112に供給し、学習用顔方向パラメータおよび属性データを顔方向別属性識別器生成部113に供給する。
次いで、学習用顔領域検出部112は、顔画像データから顔領域を検出する(ステップS112)。学習用顔領域検出部112は、顔切出画像データを顔方向別属性識別器生成部113に供給する。
次いで、顔方向別属性識別器生成部113は、属性識別器を生成する(ステップS113)。具体的には、顔方向別属性識別器生成部113は、図18(c)のフローチャートを実行し、教師信号を用いて属性識別器を生成する。顔方向別属性識別器生成部113は、生成した属性識別器を顔方向別属性識別器記憶部114に記憶する(ステップS114)。
次いで、顔方向別属性識別器生成部113は、全ての顔方向の属性識別器を生成したか否かを判断する(ステップS115)。顔方向別属性識別器生成部113は、全ての顔方向の属性識別器を生成していないと判断した場合(ステップS115:No)、ステップS111に戻る。一方、顔方向別属性識別器生成部113は、全ての顔方向の属性識別器を生成したと判断した場合(ステップS115:Yes)、図18(a)に示すフローチャートは終了する。
図18(b)において、計測用画像データ取得部121は、計測用画像データを取得する(ステップS121)。計測用画像データ取得部121は、計測用画像データを認識用顔領域検出部122および認識用顔領域再検出部124に供給する。
次いで、認識用顔領域検出部122は、計測用画像データから顔領域を検出する(ステップS122)。認識用顔領域検出部122は、顔切出画像データを顔方向推定部123に供給する。
次いで、顔方向推定部123は、認識用顔領域検出部122によって出力された顔切出画像データに基づいて、計測用画像の顔方向を推定する(ステップS123)。顔方向推定部123は、計測用画像の被写体の顔方向を示す属性識別用顔方向パラメータ(roll角およびスケール値)を認識用顔領域再検出部124に供給し、計測用画像の被写体の顔方向を示す属性識別用顔方向パラメータ(yaw角およびpitch角)を属性識別部125に供給する。
次いで、認識用顔領域再検出部124は、顔方向推定部123によって出力された属性識別用顔方向パラメータ(roll角およびスケール値)に基づいて、計測用画像データから顔領域を再度切り出す(ステップS124)。認識用顔領域再検出部124は、顔切出画像データを属性識別部125に供給する。
次いで、属性識別部125は、顔方向推定部123によって出力された属性識別用顔方向パラメータ(yaw角およびpitch角)に基づいて、顔方向別属性識別器記憶部14に記憶されている複数の属性識別器のなかから1または2以上の属性識別器を選択する(ステップS125)。そして、属性識別部125は、選択した属性識別器に、認識用顔領域再検出部124から取得した顔切出画像データを入力し、識別結果を得る(ステップS126)。結果出力部126では、属性識別部125から識別結果を取得し出力する(ステップS127)。そして、図18(b)に示すフローチャートは終了する。
図18(c)において、顔方向別属性識別器生成部113は、学習用データ取得部111から学習用データ(集計データ)を取得する。具体的には、顔方向別属性識別器生成部113は、学習用データ取得部111から、例えば、図16(a)に示すように、主観年齢層頻度データを取得する(ステップS131)。
次いで、顔方向別属性識別器生成部113は、図16(b)に示すように、予め設定した閾値aに基づいて、各クラスについて正解/不正解を判別する(ステップS132)。顔方向別属性識別器生成部113は、正解になったクラスについて、主観年齢層頻度データにばらつきがある場合は、上述の如く、複数隣り合う正解クラス同士での頻度による重み付き内分値を算出し、教師信号を作成する(ステップS133)(例えば図17(b)を参照)。
なお、図16(b)は2クラスに正解がまたがる場合を示しているが、3クラス以上に正解がまたがる場合でも、教師信号”−1”に該当する正解クラスの頻度の割合の合計値と、教師信号”1”に該当する正解クラスの頻度の割合の合計値とで内分値を容易に算出することができる。また、前述したが、頻度の割合を全て等価とし内分値を計算してもよい。なお、正解になったクラスについて、主観年齢層頻度データにばらつきがない場合は、通常通り適切に、1または−1を教師信号として各属性識別器に出力する。また、不正解になったクラスは無視する。
顔方向別属性識別器生成部113は、全ての人物の教師信号を作成したか否かを判断する(ステップS134)。顔方向別属性識別器生成部113は、全ての人物の教師信号を作成していないと判断した場合(ステップS134:No)、ステップS131に戻る。一方、顔方向別属性識別器生成部113は、全ての顔方向の属性識別器を生成したと判断した場合(ステップS134:Yes)、図18(c)に示すフローチャートは終了する。
以上、顔方向推定エンジン18によれば、顔検出後に顔の姿勢を示すyaw角、pitch角、roll角およびスケール値を推定し、その結果をもとに入力画像から顔領域を再度切出すとともに、最も適切な識別器を1つ、あるいは複数個選択し、重み付き平均等を利用して結果を統合することにより、被写体の顔方向に対しロバストかつ処理速度の速い属性識別を実現できるようになる。
また、適切な教師信号を算出して設定するため、主観年齢層を精度良く識別できるようになる。具体的には、年齢層識別においては、予め集計した主観年齢層の頻度分布を基に、ある閾値を通して正解/不正解を決定し、さらに、正解クラスの頻度の割合を重みとした内分値(正解と判定した各クラスに属すると評価した他者の割合を重みとした内分値)、または、頻度の割合を全て等価とした内分値を教師信号として識別器に渡すことによって、主観年齢層を精度良く識別できるようになる。
以上、図14から図18において説明した顔方向推定エンジン18によれば、顔検出後に顔の姿勢を示すyaw角、pitch角、roll角およびスケール値を推定し、その結果をもとに入力画像から顔領域を再度切出すとともに、最も適切な識別器を1つ、あるいは複数個選択し、重み付き平均等を利用して結果を統合することにより、被写体の顔方向に対しロバストかつ処理速度の速い属性識別を実現できるようになる。
また、図14から図18において説明した顔方向推定エンジン18によれば、適切な教師信号を算出して設定するため、主観年齢層を精度良く識別できるようになる。具体的には、年齢層識別においては、予め集計した主観年齢層の頻度分布を基に、ある閾値を通して正解/不正解を決定し、さらに、正解クラスの頻度の割合を重みとした内分値(正解と判定した各クラスに属すると評価した他者の割合を重みとした内分値)、または、頻度の割合を全て等価とした内分値を教師信号として識別器に渡すことによって、主観年齢層を精度良く識別できるようになる。
なお、図14に示す顔方向推定エンジン18は、画像処理部110および認識処理部120の両方を備える構成であるが、広告効果測定装置3の外部の装置が画像処理部110の機能を備え、顔方向推定エンジン18は、認識処理部120のみを備えるようにしてもよい。
なお、本発明の一実施形態による広告効果測定装置3の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、本発明の一実施形態による広告効果測定装置3の各処理に係る上述した種々の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
1a…混雑度計測カメラ
1b…顔方向推定カメラ
2…広告媒体
3…広告効果測定装置
12…カメラ制御部
13…混雑度計測チューニング部
14…混雑度計測エンジン
17…顔方向推定チューニング部
18…顔方向推定エンジン
19…クライアント部
20…混雑度計測エンジン制御部
21…顔方向推定エンジン制御部
23…統計解析情報生成部
110…学習処理部
111…学習用データ取得部
112…学習用顔領域検出部
113…顔方向別属性識別器生成部
114…顔方向別属性識別器記憶部
120…認識処理部
121…計測用画像データ取得部
122…認識用顔領域検出部
123…顔方向推定部
124…認識用顔領域再検出部
125…属性識別部
126…結果出力部

Claims (7)

  1. 広告媒体の近傍の第1のエリアを撮像する第1のカメラによって撮像された撮像画像を画素単位に信号処理し、前記第1のエリア内の滞在者数を計測する第1の画像処理手段と、
    前記第1のエリア内の一部のエリアである第2のエリアを撮像する第2のカメラによって撮像された撮像画像内の顔領域を検出し、各顔領域の顔方向を推定し、前記第2のエリア内における前記広告媒体の視聴者数を計測する第2の画像処理手段と、
    前記第1のカメラのエリアカバー率と、前記第2のカメラのエリアカバー率と、前記第1の画像処理手段の計測値と、前記第2の画像処理手段の計測値とに基づいて、前記広告媒体の効果を示す広告効果情報を生成する広告効果情報生成手段と
    を備えることを特徴とする広告効果測定装置。
  2. 前記第2の画像処理手段は、
    前記第2のカメラの撮像画像を取得する撮像画像取得手段と、
    前記第2のカメラの撮像画像から顔領域を検出し顔切出画像データを出力する認識用顔領域検出手段と、
    前記認識用顔領域検出手段によって出力された前記顔切出画像データに基づいて、前記第2のカメラの撮像画像の被写体の顔方向を推定し、顔方向が前記広告媒体を方向と一致している者を視聴者として視聴者数を計数する顔方向推定手段と
    を有することを特徴とする請求項1に記載の広告効果測定装置。
  3. 前記第2の画像処理手段は、
    学習用データとして、種々の方向から撮像された顔画像データ、前記顔画像データの被写体の顔方向を示す学習用顔方向パラメータ、前記被写体の属性データを取得する学習用データ取得手段と、
    前記学習用データ取得手段によって取得された前記顔画像データから、被写体の顔領域を検出して切り出した顔切出画像データを出力する学習用顔領域検出手段と、
    前記学習用顔領域検出手段によって出力された前記顔切出画像データであって前記学習用顔方向パラメータが同一である複数の前記顔切出画像データと、当該複数の顔切出画像データそれぞれの前記属性データとに基づいて、前記被写体の顔方向別に、前記被写体の属性を識別する属性識別器を生成する顔方向別属性識別器生成手段と、
    前記顔方向別属性識別器生成手段によって生成された前記属性識別器を記憶する顔方向別属性識別器記憶手段と、
    前記第2のカメラの撮像画像を取得する撮像画像取得手段と、
    前記第2のカメラの撮像画像から顔領域を検出し顔切出画像データを出力する認識用顔領域検出手段と、
    前記認識用顔領域検出手段によって出力された前記顔切出画像データに基づいて、前記第2のカメラの撮像画像の被写体の顔方向を推定し、顔方向が前記広告媒体を方向と一致している者を視聴者として視聴者数を計数するとともに、前記被写体の顔方向を示す属性識別用顔方向パラメータを出力する顔方向推定手段と、
    前記顔方向推定手段によって出力された前記属性識別用顔方向パラメータに基づいて、前記前記第2のカメラの撮像画像から、被写体の顔領域を再度検出して切り出した顔切出画像データを出力する認識用顔領域再検出手段と、
    前記顔方向推定手段によって出力された前記属性識別用顔方向パラメータに基づいて、前記顔方向別属性識別器記憶手段に記憶されている複数の前記属性識別器のなかから1または2以上の前記属性識別器を選択し、当該選択した1または2以上の前記属性識別器に、前記認識用顔領域再検出手段が出力した前記顔切出画像データを入力し、前記前記第2のカメラの撮像画像の被写体に係る識別結果を取得する属性識別手段と
    を有し、
    人物属性別の視聴者数を算出することを特徴とする請求項1に記載の広告効果測定装置。
  4. 前記広告効果情報生成手段は、
    注目率、延べ滞在人秒、延べ視聴人秒、人物属性別の延べ視聴人秒、又は、人秒ベースの注目率を集計することによって前記広告効果情報を生成することを特徴とする請求項1から請求項3の何れか1項に記載の広告効果測定装置。
  5. 前記広告効果情報生成手段は、
    前記広告媒体の設置場所に係る場所属性情報として、前記滞在者数に係る性別比率、年代比率、又は性別と年代とを組み合わせた属性区分比率を算出することを特徴とする請求項1から請求項3の何れか1項に記載の広告効果測定装置。
  6. 広告媒体の効果を測定する広告効果測定装置における広告効果指標測定方法であって、
    前記広告効果測定装置の第1の画像処理手段が、広告媒体の近傍の第1のエリアを撮像する第1のカメラによって撮像された撮像画像を画素単位に信号処理し、前記第1のエリア内の滞在者数を計測し、
    前記広告効果測定装置の第2の画像処理手段が、前記第1のエリア内の一部のエリアである第2のエリアを撮像する第2のカメラによって撮像された撮像画像内の顔領域の検出し、各顔方向を推定し、前記第2のエリア内における前記広告媒体の視聴者数を計測し、
    前記広告効果測定装置の第2の広告効果情報生成手段が、前記第1のカメラのエリアカバー率と、前記第2のカメラのエリアカバー率と、前記第1の画像処理手段による計測値と、前記第2の画像処理手段による計測値とに基づいて、前記広告媒体の効果を示す広告効果情報を生成することを特徴とする広告効果測定方法。
  7. 請求項1から請求項5の何れか1項に記載の広告効果測定装置の処理をコンピュータに実行させるためのプログラム。
JP2010105791A 2010-04-30 2010-04-30 広告効果測定装置、広告効果測定方法およびプログラム Active JP5272213B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010105791A JP5272213B2 (ja) 2010-04-30 2010-04-30 広告効果測定装置、広告効果測定方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010105791A JP5272213B2 (ja) 2010-04-30 2010-04-30 広告効果測定装置、広告効果測定方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2011233119A true JP2011233119A (ja) 2011-11-17
JP5272213B2 JP5272213B2 (ja) 2013-08-28

Family

ID=45322340

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010105791A Active JP5272213B2 (ja) 2010-04-30 2010-04-30 広告効果測定装置、広告効果測定方法およびプログラム

Country Status (1)

Country Link
JP (1) JP5272213B2 (ja)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2639731A2 (en) 2012-03-15 2013-09-18 Omron Corporation Authentication apparatus, control method of authentication apparatus, control program, and recording medium
KR101411058B1 (ko) 2012-06-25 2014-06-27 인텔 코오퍼레이션 비디오 분석 테스트 시스템
JP2014182506A (ja) * 2013-03-18 2014-09-29 Toshiba Corp 情報処理方法、及び情報処理システム
JP2016535334A (ja) * 2013-10-18 2016-11-10 リアルアイズ・オーウー コンピュータユーザの行動データ収集プロセスのための品質分析の方法
JP2016537750A (ja) * 2013-09-20 2016-12-01 インターデイジタル パテント ホールディングス インコーポレイテッド ユーザ適応型マルチメディア配信フレームワークにおける広告インプレッションの検証
JP2018074299A (ja) * 2016-10-26 2018-05-10 日本電信電話株式会社 流動状況計測装置、方法、及びプログラム
JP2019121271A (ja) * 2018-01-10 2019-07-22 デジタル・アドバタイジング・コンソーシアム株式会社 プログラム、情報処理方法及び情報処理装置
WO2019155554A1 (ja) * 2018-02-07 2019-08-15 株式会社ウフル 空間価値出力システム、空間価値出力方法、及びプログラム
JP2020027488A (ja) * 2018-08-13 2020-02-20 Zホールディングス株式会社 情報処理装置、情報処理方法および情報処理プログラム
US10586115B2 (en) 2017-01-11 2020-03-10 Kabushiki Kaisha Toshiba Information processing device, information processing method, and computer program product
JPWO2018235198A1 (ja) * 2017-06-21 2020-04-09 日本電気株式会社 情報処理装置、制御方法、及びプログラム
JP2020071874A (ja) * 2018-10-31 2020-05-07 ニューラルポケット株式会社 情報処理システム、情報処理装置、サーバ装置、プログラム、又は方法
JP2020086741A (ja) * 2018-11-21 2020-06-04 日本電気株式会社 コンテンツ選択装置、コンテンツ選択方法、コンテンツ選択システム及びプログラム
CN111476600A (zh) * 2020-03-23 2020-07-31 浙江新再灵科技股份有限公司 直梯广告受众人数统计分析方法
WO2021038800A1 (ja) * 2019-08-29 2021-03-04 富士通株式会社 広告閲覧情報出力方法及び広告閲覧情報出力プログラム、並びに情報処理装置
JP2021518959A (ja) * 2018-04-24 2021-08-05 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co.,Ltd. 注目情報の処理方法および装置、記憶媒体ならびに電子機器
JP2021184644A (ja) * 2016-01-06 2021-12-02 テレビジョン・インサイツ、インコーポレイテッド 視聴者エンゲージメントを評価するためのシステム
JP7291445B1 (ja) 2021-12-09 2023-06-15 テレビジョン・インサイツ、インコーポレイテッド 視聴者関与度を評価するためのシステムおよび方法
WO2024018600A1 (ja) * 2022-07-21 2024-01-25 三菱電機株式会社 情報処理装置、制御方法、及び制御プログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006065447A (ja) * 2004-08-25 2006-03-09 Nippon Telegr & Teleph Corp <Ntt> 識別器設定装置、注目度計測装置、識別器設定方法、注目度計測方法、およびプログラム
US20090158309A1 (en) * 2007-12-12 2009-06-18 Hankyu Moon Method and system for media audience measurement and spatial extrapolation based on site, display, crowd, and viewership characterization

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006065447A (ja) * 2004-08-25 2006-03-09 Nippon Telegr & Teleph Corp <Ntt> 識別器設定装置、注目度計測装置、識別器設定方法、注目度計測方法、およびプログラム
US20090158309A1 (en) * 2007-12-12 2009-06-18 Hankyu Moon Method and system for media audience measurement and spatial extrapolation based on site, display, crowd, and viewership characterization

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CSNB201101346001; (財)デジタルコンテンツ協会: 「平成21年度 デジタルサイネージの訴求効果に関する調査研究報告書」 , 201003, (セクション 5.1.2,5.2.1)., (社)日本機械工業連合会ほか *
CSNH200900224003; 杵渕 哲也ほか: '「画像処理による広告効果測定技術」' NTT技術ジャーナル 第21巻,第7号, 200907, 16-19ページ. *
JPN6012040224; 杵渕 哲也ほか: '「画像処理による広告効果測定技術」' NTT技術ジャーナル 第21巻,第7号, 200907, 16-19ページ. *
JPN6012040225; (財)デジタルコンテンツ協会: 「平成21年度 デジタルサイネージの訴求効果に関する調査研究報告書」 , 201003, (セクション 5.1.2,5.2.1)., (社)日本機械工業連合会ほか *

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9135421B2 (en) 2012-03-15 2015-09-15 Omron Corporation Authentication apparatus, control method of authentication apparatus, control program and recording medium
EP2639731A2 (en) 2012-03-15 2013-09-18 Omron Corporation Authentication apparatus, control method of authentication apparatus, control program, and recording medium
KR101411058B1 (ko) 2012-06-25 2014-06-27 인텔 코오퍼레이션 비디오 분석 테스트 시스템
JP2014182506A (ja) * 2013-03-18 2014-09-29 Toshiba Corp 情報処理方法、及び情報処理システム
JP2016537750A (ja) * 2013-09-20 2016-12-01 インターデイジタル パテント ホールディングス インコーポレイテッド ユーザ適応型マルチメディア配信フレームワークにおける広告インプレッションの検証
JP2016535334A (ja) * 2013-10-18 2016-11-10 リアルアイズ・オーウー コンピュータユーザの行動データ収集プロセスのための品質分析の方法
US11259092B2 (en) 2013-10-18 2022-02-22 Realeyes Oü Method of quality analysis for computer user behavourial data collection processes
JP7207836B2 (ja) 2016-01-06 2023-01-18 テレビジョン・インサイツ、インコーポレイテッド 視聴者エンゲージメントを評価するためのシステム
JP2021184644A (ja) * 2016-01-06 2021-12-02 テレビジョン・インサイツ、インコーポレイテッド 視聴者エンゲージメントを評価するためのシステム
JP2018074299A (ja) * 2016-10-26 2018-05-10 日本電信電話株式会社 流動状況計測装置、方法、及びプログラム
US10586115B2 (en) 2017-01-11 2020-03-10 Kabushiki Kaisha Toshiba Information processing device, information processing method, and computer program product
JP2021177399A (ja) * 2017-06-21 2021-11-11 日本電気株式会社 情報処理装置、制御方法、及びプログラム
US11763463B2 (en) 2017-06-21 2023-09-19 Nec Corporation Information processing apparatus, control method, and program
JPWO2018235198A1 (ja) * 2017-06-21 2020-04-09 日本電気株式会社 情報処理装置、制御方法、及びプログラム
JP7332183B2 (ja) 2017-06-21 2023-08-23 日本電気株式会社 情報処理装置、制御方法、及びプログラム
JP7197171B2 (ja) 2017-06-21 2022-12-27 日本電気株式会社 情報処理装置、制御方法、及びプログラム
JP2019121271A (ja) * 2018-01-10 2019-07-22 デジタル・アドバタイジング・コンソーシアム株式会社 プログラム、情報処理方法及び情報処理装置
WO2019155554A1 (ja) * 2018-02-07 2019-08-15 株式会社ウフル 空間価値出力システム、空間価値出力方法、及びプログラム
JPWO2019155554A1 (ja) * 2018-02-07 2020-11-19 株式会社ウフル 空間価値出力システム、空間価値出力方法、及びプログラム
JP7130771B2 (ja) 2018-04-24 2022-09-05 北京市商▲湯▼科技▲開▼▲發▼有限公司 注目情報の処理方法および装置、記憶媒体ならびに電子機器
JP2021518959A (ja) * 2018-04-24 2021-08-05 北京市商▲湯▼科技▲開▼▲發▼有限公司Beijing Sensetime Technology Development Co.,Ltd. 注目情報の処理方法および装置、記憶媒体ならびに電子機器
JP2020027488A (ja) * 2018-08-13 2020-02-20 Zホールディングス株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP2020071874A (ja) * 2018-10-31 2020-05-07 ニューラルポケット株式会社 情報処理システム、情報処理装置、サーバ装置、プログラム、又は方法
JP7313052B2 (ja) 2018-10-31 2023-07-24 ニューラルポケット株式会社 情報処理システム、情報処理装置、サーバ装置、プログラム、又は方法
JP2020086741A (ja) * 2018-11-21 2020-06-04 日本電気株式会社 コンテンツ選択装置、コンテンツ選択方法、コンテンツ選択システム及びプログラム
JPWO2021038800A1 (ja) * 2019-08-29 2021-03-04
WO2021038800A1 (ja) * 2019-08-29 2021-03-04 富士通株式会社 広告閲覧情報出力方法及び広告閲覧情報出力プログラム、並びに情報処理装置
JP7421149B2 (ja) 2019-08-29 2024-01-24 富士通株式会社 広告閲覧情報出力方法及び広告閲覧情報出力プログラム、並びに情報処理装置
JP7265202B2 (ja) 2019-08-29 2023-04-26 富士通株式会社 広告閲覧情報出力方法及び広告閲覧情報出力プログラム、並びに情報処理装置
CN111476600B (zh) * 2020-03-23 2023-09-19 浙江新再灵科技股份有限公司 直梯广告受众人数统计分析方法
CN111476600A (zh) * 2020-03-23 2020-07-31 浙江新再灵科技股份有限公司 直梯广告受众人数统计分析方法
JP2023087655A (ja) * 2021-12-09 2023-06-23 テレビジョン・インサイツ、インコーポレイテッド 視聴者関与度を評価するためのシステムおよび方法
JP7291445B1 (ja) 2021-12-09 2023-06-15 テレビジョン・インサイツ、インコーポレイテッド 視聴者関与度を評価するためのシステムおよび方法
WO2024018600A1 (ja) * 2022-07-21 2024-01-25 三菱電機株式会社 情報処理装置、制御方法、及び制御プログラム

Also Published As

Publication number Publication date
JP5272213B2 (ja) 2013-08-28

Similar Documents

Publication Publication Date Title
JP5272213B2 (ja) 広告効果測定装置、広告効果測定方法およびプログラム
CN100578531C (zh) 一种实现视力保护的显示器、装置及方法
JP4876687B2 (ja) 注目度計測装置及び注目度計測システム
US20090158309A1 (en) Method and system for media audience measurement and spatial extrapolation based on site, display, crowd, and viewership characterization
JP5597781B1 (ja) 滞留状況分析装置、滞留状況分析システムおよび滞留状況分析方法
JP5224360B2 (ja) 電子広告装置、電子広告方法及びプログラム
WO2009096428A1 (ja) 表示システム、表示効果測定システム、表示方法、表示効果測定方法、及び、記録媒体
JP4159159B2 (ja) 広告メディア評価装置
JP2006197373A (ja) 視聴者情報測定装置
JP2008112401A (ja) 広告効果測定装置
JP5113721B2 (ja) メディア情報の注目度測定装置、メディア情報の注目度測定方法、メディア情報の注目度測定プログラムおよびそのプログラムを記録した記録媒体
JP2009116510A (ja) 注目度算出装置、注目度算出方法、注目度算出プログラム、情報提供システム、及び、情報提供装置
JP7421149B2 (ja) 広告閲覧情報出力方法及び広告閲覧情報出力プログラム、並びに情報処理装置
JPWO2012043291A1 (ja) 広告配信対象者特定装置、および、広告配信装置
US20210158024A1 (en) Customer Flow Statistical Method, Apparatus and Device
CN110199316A (zh) 相机和相机的图像处理方法
JP5272214B2 (ja) 広告効果指標測定装置、広告効果指標測定方法およびプログラム
US20200302155A1 (en) Face detection and recognition method using light field camera system
CN110264497B (zh) 跟踪时长的确定方法及装置、存储介质、电子装置
JP2007172378A (ja) 注視対象物体特定装置
US20160196576A1 (en) Systems, devices, and methods of measuring an advertising campaign
CN109492616B (zh) 一种基于自主学习的广告屏用人脸识别方法
US11909776B2 (en) Online video distribution support method, online video distribution support apparatus and online video distribution support system
US10699101B2 (en) System and method for detecting a person interested in a target
CN112529611B (zh) 户外广告投放方法、装置、电子装置和存储介质

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120807

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130423

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5272213

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350