JP2007181070A - コンテンツ注目評価装置及びコンテンツ注目評価方法 - Google Patents

コンテンツ注目評価装置及びコンテンツ注目評価方法 Download PDF

Info

Publication number
JP2007181070A
JP2007181070A JP2005379268A JP2005379268A JP2007181070A JP 2007181070 A JP2007181070 A JP 2007181070A JP 2005379268 A JP2005379268 A JP 2005379268A JP 2005379268 A JP2005379268 A JP 2005379268A JP 2007181070 A JP2007181070 A JP 2007181070A
Authority
JP
Japan
Prior art keywords
person
attention
content
face
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005379268A
Other languages
English (en)
Other versions
JP4603974B2 (ja
Inventor
Toshihiro Mochizuki
敏弘 望月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shunkosha KK
Original Assignee
Shunkosha KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shunkosha KK filed Critical Shunkosha KK
Priority to JP2005379268A priority Critical patent/JP4603974B2/ja
Publication of JP2007181070A publication Critical patent/JP2007181070A/ja
Application granted granted Critical
Publication of JP4603974B2 publication Critical patent/JP4603974B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】広告や番組の視聴者のプライバシーを保護しつつ広告メディアや広告番組の効果をより客観的に評価できるコンテンツ評価装置及びコンテンツ評価方法を提供する。
【解決手段】本発明のコンテンツ評価装置は、カメラ150a〜cが撮影した画像から動領域を検出する動領域検出部202aと、該動領域が人物であるか否かを検出する人物検出部202bとを有する通行人物検出部202と、該人物の顔を検出する顔検出処理部203aと、該顔の方向を検出する顔方向検出処理部203bとを有する注視人物検出部203とを備えたシステムサーバ200と、通行人物検出部202により検出された通行人数を算出する通行人数算出部302と、注視人物検出部203により検出されたコンテンツの注視人数を算出する注視人数算出部305と、通行人数と注視人数とから該コンテンツの注視率を算出する注視率算出部306とを備えた集計センタサーバ300とを有する。
【選択図】 図2

Description

本発明は、コンテンツ媒体の前面に存在する人物を撮像装置が撮像した画像に基づいて、該コンテンツ媒体の前面に存在する人物の該コンテンツに対する注目を評価するコンテンツ注目評価装置及びコンテンツ注目評価方法に関し、特に、コンテンツ媒体の前面に存在する人物全ての人数に対する該コンテンツに注目している人物の人数の比率を算出して、コンテンツの影響・効果を評価するコンテンツ注目評価装置及びコンテンツ注目評価方法に関する。
本来、広告やTV放送等のコンテンツは、人々の注目をより多く引き付けて初めてその意義を発揮するものである。ゆえに、広告の出稿主やTV放送のスポンサー等は、いかにして効率よく人々の注目を引き付けるように広告を企画し設置するか、若しくはいかに多くの人々に視聴されているTV放送のスポンサーとなってTVコマーシャルの効果を高めるかということに強い問題意識を持つ。このため、コンテンツがどれだけ人々に注目されているかの評価に対して、広告の出稿主やTV放送のスポンサーは高い関心を持っている。
このような背景の中で、コンテンツに対する人々の注目を評価する手法が種々考案されている。例えば特許文献1には、広告メディアの前方を撮影可能なカメラで撮影した画像から人間の顔を検出し、その検出された顔のうち該広告メディアを向いていると評価できる顔を検出して集計することによって、どれだけの人数が該広告メディアに注目したかを評価する広告メディア評価装置が開示されている。
また、特許文献2には、次の広告効果確認システムが開示されている。即ち広告番組に対する視聴者の反応を画像に撮影し、該画像が撮影された際の該広告番組の特徴を示すデータを付加して撮影された画像とともに分析装置へ送信する。該分析装置では、受信した画像自体を時系列に整理して出力するので、広告番組に対する視聴者の反応を目視により適時かつ容易に確認することを可能とするのみならず、受信した画像に含まれる視聴者の特徴的な反応を検出して計数することによって、どれだけの視聴者が広告番組に注目していたかを確認することができる。
特開2000−209578号公報 特開平11−153977号公報
しかしながら、上記特許文献1及び2に代表される従来技術では、広告メディアや広告番組に注目している絶対的な人数のみしか把握することができず、広告メディアや広告番組の前面を通過した人数のうちどれだけの人数が該広告メディアや広告番組に注目したかと言う比率を評価することができず、結果として評価自体の意義を十分に発揮できないという問題があった。
具体的には、上記特許文献1によれば、確かに広告メディアに注目した人数を把握することができるが、どれだけの人数が広告メディアの前面を通過した中でどれだけの人数が該広告メディアに注目したかという評価を下すことができず、広告メディアの効果を正当に評価することができなかった。例えば広告メディアに対して10人が注目したという統計データが得られたとしても、該広告メディアの前面を通過した20人中の10人が該広告メディアに注目したという場合と、該広告メディアの前面を通過した100人のうち10人が該広告メディアに注目したという場合では、自ずと広告メディアの効果に対する評価結果は異なるものとなるが、このような厳密な評価を下すことが不可能であった。
また、上記特許文献2では、広告番組の効果が依然として目視により評価されなければならないという工程を含み、評価の客観性が維持できない。また、この従来技術によってもどれだけの視聴者が広告番組に注目していたかという統計を取ることができるが、上記特許文献1の従来技術と同様に、どれだけの人数が広告番組の前面を通過した中でどれだけの人数が該広告番組に注目したかという評価を下すことができず、広告番組の効果を正当に評価することができなかった。
さらに、上記特許文献2の技術では、視聴者の反応を示す画像を分析装置へ送信するため、人物を特定することが可能となり、視聴者のプライバシーの保護が十分に図れないという問題点があった。
これらのことから、広告メディアや広告番組の視聴者のプライバシーを保護しつつ広告メディアや広告番組の効果をより客観的に評価できる方法の確立が極めて重要な課題となってきている。特に広告メディアや広告番組は、巨額の出稿費用を要することから、効果的でない方法によって視聴者に提供しても出稿費用の無駄となるため、出稿主は、いかに効果的に広告メディアや広告番組を提供するかについて極めて強い関心を持っている。そして効果的に広告メディアや広告番組を提供する指針として、広告メディアや広告番組の効果のより客観的な評価方法の確立が待ち望まれていた。
本発明は、上記問題点(課題)を解消するためになされたものであって、広告メディアや広告番組の視聴者のプライバシーを保護しつつ広告メディアや広告番組の効果をより客観的に評価できるコンテンツ評価装置及びコンテンツ評価方法を提供することを目的とする。
上述した問題を解決し、目的を達成するため、本発明は、コンテンツ媒体の前面に存在する人物を撮像装置が撮像した画像に基づいて、該コンテンツ媒体の前面に存在する人物の該コンテンツに対する注目を評価するコンテンツ注目評価装置であって、前記画像に撮像された人物を検出する人物検出手段と、前記人物検出手段により検出された人物の数を計数する人数計数手段と、前記人物検出手段により検出された人物の顔を検出する顔検出手段と、前記顔検出手段により顔が検出された人物の顔方向を検出する顔方向検出手段と、前記顔方向検出手段により検出された人物の顔方向のうち前記コンテンツを注目する顔方向である人物の数を計数するコンテンツ注目数計数手段と、前記コンテンツ注目数計数手段により計数された人物の数を前記人数計数手段により計数された人物の数で除したコンテンツ注目率を算出する注目率算出手段とを備えたことを特徴とする。
また、本発明は、上記発明において、前記人数計数手段により計数された人物の数及び前記コンテンツ注目数計数手段により計数された人物の数を記憶する記憶手段をさらに備え、前記注目率算出手段は、前記記憶手段に記憶される前記コンテンツ注目数計数手段により計数された人物の数を前記人数計数手段により計数された人物の数で除して前記コンテンツ注目率を算出することを特徴とする。
また、本発明は、上記発明において、前記顔方向検出手段により前記コンテンツ媒体を注目する顔方向であると検出された人物が該コンテンツ媒体を注目する時間を計時する注目時間計時手段をさらに備えたことを特徴とする。
また、本発明は、上記発明において、前記記憶手段は、前記注目時間計時手段により計時された前記時間を記憶することを特徴とする。
また、本発明は、上記発明において、前記注目時間計時手段は、前記顔方向検出手段により前記コンテンツ媒体を注目する顔方向であると検出された人物毎に、該人物が該コンテンツ媒体を注目する時間を計時し、前記記憶手段は、前記注目時間計時手段により計時された前記時間を、前記コンテンツ媒体を注目する顔方向であると検出された人物毎に記憶することを特徴とする。
また、本発明は、上記発明において、前記記憶手段により前記コンテンツ媒体を注目する顔方向であると検出された人物毎に記憶される前記時間の和を前記コンテンツ媒体を注目する顔方向であると検出された全人物の数で除して平均注目時間を算出する平均注目時間算出手段をさらに備えたことを特徴とする。
また、本発明は、上記発明において、前記顔検出手段により顔が検出された人物の顔の属性を判定する顔属性判定手段をさらに備えたことを特徴とする。
また、本発明は、上記発明において、前記記憶手段は、前記顔属性判定手段により判定された顔の属性を記憶することを特徴とする。
また、本発明は、上記発明において、前記顔検出手段により顔が検出された人物の顔以外の部分の色を判定する色判定手段をさらに備えたことを特徴とする。
また、本発明は、上記発明において、前記記憶手段は、前記色判定手段により判定された色の情報をさらに記憶することを特徴とする。
また、本発明は、上記発明において、前記人数計数手段により計数された人物の数と前記コンテンツ注目数計数手段により計数された人物の数とに基づいて数値化された注目レベルを判定する注目レベル判定手段をさらに備えたことを特徴とする。
また、本発明は、上記発明において、前記コンテンツ注目評価装置は、前記撮像装置が接続される画像分析装置と、少なくとも一つの前記画像分析装置と通信可能に接続されたコンテンツ注目評価分析装置とから構成され、前記画像分析装置は、前記画像に含まれる人物を特定不可能なデータを前記コンテンツ注目評価分析装置へ送信し、前記コンテンツ注目評価分析装置は、前記人物を特定不可能なデータを記憶する前記憶手段を有することを特徴とする。
また、本発明は、コンテンツ媒体の前面に存在する人物を撮像装置が撮像した画像に基づいて、該コンテンツ媒体の前面に存在する人物の該コンテンツに対する注目を評価するコンテンツ注目評価方法であって、前記画像に撮像された人物を検出する人物検出工程と、前記人物検出工程により検出された人物の数を計数する人数計数工程と、前記人物検出工程により検出された人物の顔を検出する顔検出工程と、前記顔検出工程により顔が検出された人物の顔方向を検出する顔方向検出工程と、前記顔方向検出工程により検出された人物の顔方向のうち前記コンテンツを注目する顔方向である人物の数を計数するコンテンツ注目数計数工程と、前記コンテンツ注目数計数工程により計数された人物の数を前記人数計数工程により計数された人物の数で除したコンテンツ注目率を算出する注目率算出工程とを含んだことを特徴とする。
本発明によれば、コンテンツ注目数計数手段により計数された人物の数を人数計数手段により計数された人物の数で除したコンテンツ注目率を算出する注目率算出手段を備えたので、該コンテンツに対する注目をより客観的に評価することができるという効果を奏する。
また、本発明によれば、人数計数手段により計数された人物の数及びコンテンツ注目数計数手段により計数された人物の数を記憶する記憶手段を備えたので、これらの数値を統計分析の用に供することができるという効果を奏する。
また、本発明によれば、顔方向検出手段によりコンテンツ媒体を注目する顔方向であると検出された人物が該コンテンツ媒体を注目する時間を計時する注目時間計時手段を備えたので、コンテンツを注目する時間を該コンテンツを注目する人数で平均する平均注目時間を算出することができ、より多様な方法でコンテンツ注目の評価を行うことができるという効果を奏する
また、本発明によれば、注目時間計時手段により計時された時間を統計分析の用に供することができるという効果を奏する。
また、本発明によれば、人物単位で注視時間を記憶するので、より精度の高い統計結果に基づき、より客観的な評価を行うことができるという効果を奏する。
また、本発明によれば、記憶手段によりコンテンツ媒体を注目する顔方向であると検出された人物毎に記憶される時間の和をコンテンツ媒体を注目する顔方向であると検出された全人物の数で除して平均注目時間を算出する平均注目時間算出手段を備えたので、より精度が高い平均注目時間を算出することができ、該平均注目時間に基づきより客観的な評価を行うことができるという効果を奏する。
また、本発明によれば、顔の属性を判定することにより、コンテンツ注目評価の指標をより多彩とし、より多面的な評価を行うことができるという効果を奏する。
また、本発明によれば、顔属性判定手段により判定された顔の属性を統計分析の用に供することができるという効果を奏する。
また、本発明によれば、色判定手段により判定された色の情報を統計分析の用に供することができるという効果を奏する。
また、本発明は、注目レベルによりコンテンツへの注目を客観的かつ直截的に分かりやすい数値に数値化して把握可能とすることができるという効果を奏する。
また、本発明は、コンテンツ注目評価装置に対して個人を特定可能な情報を送らず、該個人を特定可能な情報はあくまで撮像装置と画像分析装置との間でのみ授受されるのみであるので、個人情報を保護することができるコンテンツ注目評価装置を提供することができるという効果を奏する。
以下に添付図面を参照して、本発明に係るコンテンツ注目評価装置、コンテンツ注目評価システム及びコンテンツ注目評価方法の好適な実施例を詳細に説明する。本発明のコンテンツ注目評価装置及びコンテンツ注目評価システムは、コンテンツが多数の人間によって注目されうる場所、例えば駅構内施設に設置する場合に好適である。以下の実施例1〜4ではコンテンツを広告、コンテンツ媒体を広告看板とし、実施例5ではコンテンツをTV放送番組、コンテンツ媒体をTVとすることとなる。
図1は、本発明の実施例1に係るコンテンツ注目評価方法の概念を説明するための説明図である。実施例1は、屋外における広告効果評価方法であって、該広告看板に対する通行人の注視率を算出する実施例である。同図に示すように、本方法は、広告看板の前面の広告看板エリアに存在する人物の数を把握し、これらの人物のうち視線が広告看板に向いている人物の数を数え、広告看板エリアに存在する人物の数に対する視線が広告看板に向いている人物の数の比率を算出して、当該広告看板の広告(コンテンツ)の広告効果を評価するものである。
具体的には、図1によれば、広告看板の前面で広告看板の広告を見ることが可能な広告看板エリア内(図1中の破線による長方形)には、A〜Dの4人が存在している(広告看板エリアの通行)。そして、そのうちのA及びCが広告看板を注視している。よって広告看板エリアの通行人物数α=4人、広告看板の注視人数β=2人、注視率(β/α)=50%となる。
従来のコンテンツ注目評価(広告効果評価)方法では、広告を見ている人数を計数することは可能であった。しかし広告を見ている絶対的な人数だけであると、広告に注目している人数が少ない場合にはこれが単に広告の前面に存在する人数が少ないためであるのか、若しくは広告の前面に存在する人数が多いにもかかわらず広告に注目している人数が少ないためであるのかが判然としなかった。
本発明は、かかる従来技術の問題点を解消するために、コンテンツ注目評価(広告効果評価)の指標を広告に注目している絶対的な人数とせず、広告に注目している人数を広告の前面に存在する人数で除した注目率としたところに特徴がある。
図2は、実施例1のコンテンツ注目評価装置及びコンテンツ注目評価システムのネットワーク構成を説明するための説明図である。同図によれば、通路の横に広告看板100aが配設された通路を通過する通行人物を撮影するための3台の広角カメラが該通路の所定位置に配置されている。即ち、広告看板100a側から通路に存在する通行人物を撮影するカメラ150a、向かって左側に広告看板100aが位置する当該通路上の配設位置から通路に存在する通行人物を撮影するカメラ150b、向かって右側に広告看板100aが位置する当該通路上の配設位置から通路に存在する通行人物を撮影するカメラ150cがそれぞれの配設位置に存在する。
同図に示したカメラ領域r1は、カメラ150b及びカメラ150cにより通行人物の撮影が可能な領域である。この領域内に存在する通行人物は、カメラ150b又はカメラ150cにより撮影されることによって通行人物として検出され得る。また、カメラ領域r1で検出された通行人物の顔方向が広告看板100a方向を向くか否かが検出される。同様にカメラ領域r2は、カメラ150aにより通行人物の撮影が可能な領域である。カメラ領域r2に存在する通行人物は、カメラ150aによる撮影によってその存在が検出されることはもとより、通行人物の顔が広告看板100a方向を向くか否かが検出される。これは、カメラ150aが広告看板100aの同一面内又はその近傍に配設されていることにより、視線を向けるために広告看板へ顔方向を向けると、この広告看板方向を向く顔がカメラ150aにより撮影されることによる。
カメラ150a、150b、150c及びシステムサーバ200がケーブルCを介して接続されている。少なくとも一つのシステムサーバ200がネットワークNを介して集計センタサーバ300と接続されている。システムサーバ200と集計センタサーバ300は異なるフロアに設置されているものとするが、同一のフロアに設置されてもよく、また同一のコンピュータシステムに実装されていてもよいものである。システムサーバ200は、カメラ150a、150b又は150cにより撮影された画像を分析して該画像から通行人物及び該通行人物の顔方向を検出するための分析装置である。カメラ150a、150b及び150cは通行人物を含む画像を撮影して該画像をシステムサーバ200へ送信する。システムサーバ200では該画像を分析して該画像に含まれる通行人物の客観的な属性データを検出して該属性データを集計センタサーバ300へ送信する。集計センタサーバ300は、該属性データを集計し各種分析指標を算出する。即ち、個人を特定することができる画像情報は、システムサーバ200及びカメラ150a、150b、150c間で閉じており、これら以外に送信されることもなければ取得されることもない。よって本実施例1の広告注目評価システムは、システムサーバ200及びカメラ150a、150b、150cにおいて集中的に個人情報保護を図るだけで個人情報の漏洩・拡散を防止できるシステムとなっている。
なお、本発明において個人情報保護の対象となる「個人を特定することができる情報」とは、人物を特定することができる顔画像を含んだ個人を映した画像である。これに対して、本発明において「個人を特定することができない情報」とは、「個人を特定することができる情報」である“個人を映した画像”から抽出した客観データである。例えば、通行人数、広告看板注視数、顔下領域の色、顔情報からの年代及び性別などは、何れも個人を特定することができない客観データである。“個人を映した画像”に関する画像データは、カメラ150a、150b、150c及びシステムサーバ200で構成される閉じたコンピュータシステムの内部で処理されるだけであり、該閉じたコンピュータシステムの外へは一切送出・送信されない。該閉じたコンピュータシステムの外部、例えば集計センタサーバ300へ送出・送信されるデータは、“個人を映した画像”に関する画像データから抽出された通行人数、広告看板注視数、顔下領域の色、顔情報からの年代及び性別などの客観データである。これらの客観データから個人を特定することは不可能であるために、本発明のコンテンツ注視評価システムは、個人情報を強く保護することができるシステムであると言うことができる。
次に、図2に示したシステムサーバ200の構成について説明する。図3は、図2に示したシステムサーバ200の構成を示す機能ブロック図である。同図に示すように、このシステムサーバ200は、主制御部201と、通行人物検出部202と、注視人物検出部203と、記憶部204と、キーボードなどの操作部206が接続される操作制御部205と、ディスプレイ装置などの表示部208が接続される表示制御部207と、外部とのデータ授受を制御するI/F部209とを有する。主制御部201はシステムサーバ200全体の処理を制御する制御部である。具体的には、カメラ150からI/F部209を介して画像データを受け取って通行人物検出部202又は注視人物検出部203へ受け渡す処理を行い、通行人物検出部202又は注視人物検出部203から出力される情報を記憶部204へ受け渡したりI/F部209を介して集計センタサーバ300へ送信したりする処理を行い、若しくは操作部206が受け付け操作制御部205で所定入力信号に変換された所定操作信号の入力を契機として前述の各処理を実行し、前述の各処理の処理結果を表示制御部207を介して表示部208へ表示させる処理を実行する。
通行人物検出部202は、カメラ150により撮影された画像のフレーム差分から動領域を検出する動領域検出部202aと、該移動領域が人物を示す矩形であるか否かを判定して人物を検出する人物検出部202bとを有する。注視人物検出部203は、人物検出部202bにより検出された人物の矩形の動領域から顔に相当する矩形を取り出し、該矩形が顔であるか否かを判定して顔を検出する顔検出処理部203aと、顔検出処理部203bにより検出された顔が向いている顔方向を検出する顔方向検出処理部203bとを有する。人物検出部202b及び顔検出処理部203aは、同一人物を重複して検出することを防止するため、検出済みの人物の画像データにフラグを立て、フラグが立っている人物は検出を行わないフラグ制御を行う。このフラグ制御によれば、新たに検出された人物にはフラグが立っておらず、既に検出済みの人物にはフラグが立っているため、新たに検出された人物と既に検出済みの人物とを区別することができる。
記憶部204は、不揮発性の磁気的記録装置であり、前述の顔方向検出処理部203bにより広告看板を注視する顔方向であると判定する顔方向の判定基準を格納する注視判断基準204aを有する。具体的には、顔領域の縦横比率を判定し、当該画像を撮影したカメラ150と広告看板100aとの位置関係と撮影された画像に含まれる顔の縦横比率を判定して、顔方向が広告看板を注視するものであるか否かを判断する。例えばカメラ150aが撮影した顔の場合、該カメラ150aと広告看板100aとが同一方向を向く位置関係にあることから、縦横比率が人間の顔本来の比率に近ければ近いほど該顔が広告看板を注視している可能性が高い。他方でカメラ150b若しくはカメラ150cが撮影した顔の場合、該カメラ150b若しくはカメラ150cと広告看板100aとが垂直方向を向く位置関係にあることから、縦横比率が人間の顔本来の比率よりも縦長であればあるほど該顔が広告看板を注視している可能性が高い。
次に、図2に示した集計センタサーバ300の構成について説明する。図4は、図2に示した集計センタサーバ300の構成を示す機能ブロック図である。同図に示すように、この集計センタサーバ300は、主制御部301と、通行人数算出部302と、通行人数登録部303と、注視人数登録部304と、注視人数算出部305と、注視率算出部306と、記憶部307と、キーボードなどの操作部309が接続される操作制御部308と、ディスプレイ装置などの表示部311が接続される表示制御部310と、外部とのデータ授受を制御するI/F部312とを有する。主制御部301は集計センタサーバ300全体の処理を制御する制御部である。具体的には主制御部301は、システムサーバ200からI/F部312を介して属性データを受け取って通行人数算出部302又は注視人数算出部305へ受け渡す処理を行う。該属性データの授受を契機として通行人数算出部302は通行人数として画像に含まれていた人物の数を計数し、また注視人数算出部304は注視人数として画像に含まれていた広告看板を注視する顔角度の人物の数を計数し、注視率算出部306はこれら通行人数と注視人数とに基づいて注視率を算出する。また主制御部301は、通行人数登録部303又は注視人数登録部304から出力される情報を記憶部307へ受け渡す処理を行い、若しくは操作部309が受け付け操作制御部308で所定入力信号に変換された所定操作信号の入力を契機として前述の各処理を実行し、前述の各処理の処理結果を表示制御部310を介して表示部311へ表示させる処理を実行する。
通行人数算出部302は、システムサーバ200から送信されてくる属性データから通行人物とされる人数を計数する。この計数結果は通行人数登録部303及び注視率算出部306へ受け渡される。また注視人数算出部305は、システムサーバ200から送信されてくる属性データから注視人物とされる人数を計数する。この計数結果は注視人数登録部304及び注視率算出部306へ受け渡される。なお、通行人数算出部302及び注視人数算出部305は、100ミリ秒毎に人数の計数を行う。即ち、100ミリ秒間の画像フレームに含まれる通行人物又は注視人数を累計する。
通行人数登録部303は、通行人数算出部302により100ミリ秒単位で計数された通行人数を記憶部307が有するDB307aに登録する処理を行い、注視人数登録部304は、注視人数算出部305により100ミリ秒単位で計数された注視人数を記憶部307が有するDB307aに登録する処理を行う。注視率算出部306は、100ミリ秒単位でDB307aに登録された通行人数及び注視人数を、100ミリ秒単位で指定した連続する時間にわたってそれぞれ合計し、(注視人数の合計)÷(通行人数の合計)を計算して注視率を算出する。
記憶部307は、不揮発性の磁気的記録装置であり、100ミリ秒毎の通行人数及び注視人数を登録するDB307aを有する。100ミリ秒毎に1レコードが生成され、この1レコードに相当する100ミリ秒に含まれる画像のフレームに撮影されている通行人数の累計及び注視人数の累計が登録されている。
次に、図4に示したDB307aに格納されるデータベーステーブルについて説明する。図5は、図4に示したDB307aに格納されるデータベーステーブルのテーブルイメージ図である。同図に示すように、データベーステーブルは、「日時」、「通行人数」及び「注視人数」のカラムを持つ。そして100ミリ秒単位にレコードが生成されている。例えば「日時」が“2005/11/15 15:30:45:200”であるレコードには、2005年11月15日15時30分45秒200ミリ秒から2005年11月15日15時30分45秒300ミリ秒までの100ミリ秒間にカメラ150により撮影された画像のフレームに含まれる通行人及び広告看板の注視人それぞれの人数を計数した数値が格納される。通行人数の計数値“10”は「通行人数」のカラムに格納され、注視人数の計数値“2”は「注視人数」のカラムに格納される。100ミリ秒を単位として注視率を算出したい時刻帯を指定し、該時刻帯に含まれるレコードの「通行人数」及び「注視人数」を合計して注視率=(「注視人数」の合計値)÷(「通行人数」の合計値)を算出することができる。
このようにデータベーステーブルを構成し、「日時」、「通行人数」及び「注視人数」の情報を記憶し、この記憶されたデータを分析することによって、次の効果が期待できる。即ち、「日時」と共に変化する周辺照度や歩行環境などの周辺環境が広告看板への注視に与える影響を統計的に把握することができる。また、「日時」により特定可能な気温、天候、社会情勢(報道や争乱など)の外部的要因が広告看板への注視に与える影響を把握することができる。また、広告媒体としての広告看板自体の体裁やデザインや設置方法が該広告看板への注視に与える影響の把握が可能となる。このような注視の評価により、広告看板への注意喚起をより促すような広告看板の提示方法を確立し、効果の立証を行うことが可能となる。
次に、図2に示したコンテンツ注目評価装置及びコンテンツ注目評価システムにおける動領域検出方法について説明する。図6は、図2に示したコンテンツ注目評価装置及びコンテンツ注目評価システムにおける動領域検出方法の概略を説明する説明図である。同図に示すように、カメラ150によって撮影された画像は、連続するフレームを最小単位とする動画として構成されるため、nを自然数とするn番目のフレームnとフレームnの次フレームであるフレーム(n+1)に差分がある場合に、この差分によって動領域の存在を推定することができる。このようにして画像において動領域を検出することができる。
次に、図2に示したコンテンツ注目評価装置及びコンテンツ注目評価システムにおける人物識別方法について説明する。図7は、図2に示したコンテンツ注目評価装置及びコンテンツ注目評価システムにおける人物識別方法の概略を説明する説明図である。同図に示すように、人物の全身を頭部、胴体及び脚部の三つの部分に分け、それぞれの部分が顔領域f、顔下領域1uf1及び顔下領域2uf2の領域比率と概ね一致すると見なしうるか否かを判定することによって、検出された動領域が人物であるか否かを判定する。具体的には、検出された動領域が顔領域f、顔下領域1uf1及び顔下領域2uf2のそれぞれの矩形の組み合わせによって近似しうるか否かを判定し、近似しうると判定する場合に該動領域は人物であると見なす。このようにして動領域が領域比率に基づいて人物と識別される。
次に、図2に示したコンテンツ注目評価装置及びコンテンツ注目評価システムにおける通行人数及び注視人数の検知・計数手順について説明する。図8は、図2に示したコンテンツ注目評価装置及びコンテンツ注目評価システムにおける通行人数及び注視人数の検知・計数手順を示すフローチャートである。同図に示すように、システムサーバ200は、先ず動領域を検出する(ステップS101)。続いて、検出された動領域が人物であるか否かを判定し(ステップS102)、人物であると判定される場合に(ステップS102肯定)、該人物に立てられたフラグを参照して、新たに検出された人物か否かを判定する(ステップS103)。新たに検出された人物であると判定される場合(ステップS103肯定)、通行人を検知した旨を集計センタサーバ300へ送信する(ステップS104)。なお、ステップS102で動領域が人物であると判定されない場合(ステップS102否定)、ステップS110へ処理を移す。またステップS103で新たに検出された人物であると判定されない場合(ステップS103否定)も、ステップS110へ処理を移す。
一方集計センタサーバ300では、システムサーバ200からステップS104の処理により通行人を検知した旨が送信されてくる以前に、100ミリ秒の計時を開始する計時開始処理を実行する(ステップS201)。続いて、システムサーバ200から通行人を検知した旨を受信したならば、通行人数のカウンタをインクリメントして通行検知数カウント処理を実行する(ステップS202)。
ステップS104に続いてシステムサーバ200では、顔領域検出処理を実行する(ステップS105)。続いて顔領域検出か否かを判定し(ステップS106)、顔領域検出と判定されたならば(ステップS106肯定)、顔方向検出処理を実行する(ステップS107)。なお、顔領域が検出されなかったと判定されると(ステップS106否定)、ステップS110へ処理を移す。ステップS107の処理結果が顔方向が広告看板注視状態であるとされるか否かを判定し(ステップS108)、広告看板注視状態であると判定される場合(ステップS108肯定)、広告看板注視を検知した旨を集計センタサーバ300へ送信する(ステップS109)。
一方集計センタサーバ300では、システムサーバ200からステップS109の処理により広告看板注視を検知した旨が送信されてくると、注視人数のカウンタをインクリメントして注視検知数カウント処理を実行する(ステップS203)。続いてステップS201の処理以来計時されている時間が100ミリ秒に至ったか否かを判定する(ステップS204)。計時されている時間が100ミリ秒に至ったと判定される場合に(ステップS204肯定)、通行検知数及び注視検知数をDB307aに登録する(ステップS205)。計時されている時間が100ミリ秒に至ったと判定されない場合には(ステップS204否定)、ステップS202へ処理を移す。続いて通行検知数・注視検知数カウント終了か否かを判定する(ステップS206)。ここで通行検知数・注視検知数カウント終了と判定される場合には(ステップS206肯定)集計センタサーバ300における処理を終了し、通行検知数・注視検知数カウント終了と判定されない場合には(ステップS206否定)ステップS201へ処理を移す。
ステップS109に続いてシステムサーバ200では、画像のトラッキング終了か否かを判定し(ステップS110)、トラッキング終了と判定される場合には(ステップS110肯定)システムサーバ200における処理を終了し、トラッキング終了とされない場合には(ステップS110否定)ステップS101へ処理を移す。
図9は、本発明の実施例2に係るコンテンツ注目評価方法の概念を説明するための説明図である。実施例2は、屋外における広告効果評価方法であって、該広告看板に対する通行人の平均注視時間を算出する実施例である。同図に示すように、本方法は、広告看板の前面の広告看板エリアに存在する人物の数を把握し、これらの人物のうち視線が広告看板に向いている人物が該広告看板に注視する時間を計時し、該注視する時間を広告看板エリアに存在する人物の数で平均して、当該広告看板の広告(コンテンツ)の広告効果を評価するものである。
なお以下に実施例2の構成として説明する集計センタサーバ300、データベーステーブル及びコンテンツ注目評価装置及びコンテンツ注目評価システムにおける処理手順以外は、実施例1と同様である。
図9によれば、広告看板の前面で広告看板の広告を見ることが可能な広告看板エリア内(図9中の破線による長方形)に、1人の人物が、図9に向かって左方から右方へ移動しつつ広告看板を注視している。ある時刻から所定時間内に、同様に広告看板をβ人が注視したものとする。そしてそれぞれの人物が該広告看板を注視する注視時間γiを計時する。このγiから該広告看板を注視する全ての人物についての総和γを計算してγ/βを算出することによって、ある時刻から所定時間内に該広告看板を注視する平均注視時間に基づいて当該広告看板の広告(コンテンツ)の広告効果を評価することができる。
次に、実施例2の集計センタサーバ300の構成について説明する。図10は、実施例2の集計センタサーバ300の構成を示す機能ブロック図である。同図に示すように、実施例2の集計センタサーバ300は、主制御部301と、通過検出時刻登録部313と、注視検出時刻登録部314と、注視検出時間算出部315と、注視検出時間登録部316と、総注視時間算出部317と、注視人数算出部318と、平均注視時間算出部319と、記憶部307と、キーボードなどの操作部309が接続される操作制御部308と、ディスプレイ装置などの表示部311が接続される表示制御部310と、外部とのデータ授受を制御するI/F部312とを有する。主制御部301は集計センタサーバ300全体の処理を制御する制御部である。
具体的には主制御部301は、システムサーバ200からI/F部312を介してカメラ150が撮影した人物の属性データを受け取って通過検出時刻登録部313、注視検出時刻登録部314又は注視検出時間算出部315へ受け渡す処理を行う。該属性データの授受を契機として通過検出時刻登録部313は当該人物の通過検出時刻をDB307aに登録し、注視検出時刻登録部314は当該人物の注視検出時刻をDB307aへ登録する。注視検出時間算出部315は、当該人物の属性データから連続して広告看板を注視する注視検出時間を算出する。注視検出時間算出部315により算出された注視検出時間は注視検出時間登録部316へ受け渡され、該注視検出時間登録部316は注視時間をDB307aへ登録する。また総注視時間算出部317は指定された時刻帯に属する通過検知時刻或いは注視検出時刻を持つレコードの注視時間を算出し、注視人数算出部318は総注視時間算出対象のレコード数をカウントして注視人数の総和を算出する。平均注視時間算出部319は、総注視時間算出部317により算出された総注視時間を、注視人数算出部318により算出された注視人数で割って平均注視時間を算出する。
また主制御部301は、通過検出時刻登録部313、注視検出時刻登録部314、注視検出時間登録部316又は平均注視時間算出部319から出力される情報を記憶部307へ受け渡す処理を行い、若しくは操作部309が受け付け操作制御部308で所定入力信号に変換された所定操作信号の入力を契機として前述の各処理を実行し、前述の各処理の処理結果を表示制御部310を介して表示部311へ表示させる処理を実行する。
通過検出時刻登録部313は、システムサーバ200から送信されてくる属性データから人物が通過人として検知された時刻をDB307aに登録する。注視検出時刻登録部314は、システムサーバ200から送信されてくる属性データから人物が広告看板を注視する顔方向であると検知された時刻をDB307aに登録する。なお、通過検出時刻登録部313及び注視検出時刻登録部314は、人物単位で時刻の登録を行う。即ち、トラッキングにより追跡された複数の連続する画像フレームに含まれる通行人物又は注視人数のうち同一人物であると見なされる人物単位に通過検知時刻及び注視検出時刻がDB307aに登録される。
注視検出時間算出部315は、システムサーバ200から受信したカメラ150により撮影された人物の属性データが、当該人物が広告看板を注視しているとする注視検出情報である時間を計時する。この時間は、当該人物が連続して広告看板を注視している時間であることが望ましいが、微小な時間を挟んで断続的に広告看板を注視する場合も、連続して広告看板を注視していると見なすようにしてもよい。注視検出時間算出部315により算出された注視検出時間は注視検出時間登録部316に受け渡され、該注視検出時間登録部316によりDB307aに登録される。
総注視時間算出部317は、DB307aを検索して、指定された時刻帯に属するレコードの注視時間を総和する。また注視人数算出部318は、注視時間を総和されたレコード数をカウントして注視人数とする。平均注視時間算出部319は、総注視時間算出部317により総和された総注視時間と注視人数算出部318によりカウントされた注視人数とから総注視時間÷注視人数を計算して、平均注視時間を算出する。
記憶部307は、不揮発性の磁気的記録装置であり、人物単位の通行人ID、通過検出時刻、注視検出時刻及び注視検出時間を登録するDB307aを有する。このDB307aには人物単位に1レコードが生成される。
次に、図10に示したDB307aに格納されるデータベーステーブルについて説明する。図11は、図10に示したDB307aに格納されるデータベーステーブルのテーブルイメージ図である。同図に示すように、データベーステーブルは、「通行人ID」、「通過検出時刻」、「注視検出時刻」及び「注視検出時間」のカラムを持つ。カメラ150により撮影された人物で同一人物と見なされる人物単位にレコードが生成されている。例えば「通行人ID」が“2”であるレコードは、2005年7月11日15時32分51秒800ミリ秒に広告看板エリアの通過が検知され、2005年7月11日15時33分45秒900ミリ秒に広告看板の注視の開始が検知され、広告看板への100ミリ秒の注視時間が計時された人物のレコードである。100ミリ秒を単位として平均注視時間を算出したい時刻帯を指定し、該時刻帯に含まれるレコードの「注視検出時間」を合計し、該時刻帯に含まれるレコード数をカウントして平均注視時間=(「注視検出時間」の合計値)÷(レコード数)を算出することができる。なお、ある人物について広告看板への注視が検出されなかった場合には、「注視検出時刻」のカラムにはNull値が登録され、注視検出時間には“0”が登録される(例えば通行人ID“1”のレコード参照)。
このようにデータベーステーブルを構成し、「通行人ID」、「通過検出時刻」、「注視検出時刻」及び「注視検出時間」の情報を記憶し、この記憶されたデータを分析することによって、次の効果が期待できる。即ち、ある人物の広告看板への注視に連鎖して他の人が該広告看板へ注視したという注視の連鎖の把握が可能となる。これによって広告看板の体裁やデザインや設置方法、若しくは気温、天候、社会情勢(報道や争乱など)の外部的要因によりどのように変化するかを把握でき、広告看板注視のターゲット層からより多くの注視を獲得可能な広告方式を提案することができる。また、例えば駅のコンコースに広告看板が設置されている状況を想定するとして、特定時間帯に該コンコースの通行流動速度が著しく低下する状況が存在する場合に、「注視検出時刻」及び「注視検出時間」の統計を取ることにより、広告看板への注視がどのように通行流動速度に影響を与えているか(例えば注視の連鎖が発生したことにより通行流動速度の低下を招いたか否かなど)を把握することが可能となる。
次に、実施例2のコンテンツ注目評価装置及びコンテンツ注目評価システムにおける通行人検知、広告看板注視検知、広告看板注視時間算出及び平均注視時間算出手順について説明する。図12は、実施例2のコンテンツ注目評価装置及びコンテンツ注目評価システムにおける通行人検知、広告看板注視検知、広告看板注視時間算出及び平均注視時間算出手順を示すフローチャートである。同図に示すように、システムサーバ200は、先ず動領域を検出する(ステップS111)。続いて、検出された動領域が人物であるか否かを判定し(ステップS112)、人物であると判定される場合に(ステップS112肯定)、該人物に立てられたフラグを参照して、新たに検出された人物か否かを判定する(ステップS113)。新たに検出された人物であると判定される場合(ステップS113肯定)、該人物に通行人IDを付与し(ステップS114)、通行人を検知した旨を通行人IDと共に集計センタサーバ300へ送信する(ステップS115)。なお、ステップS112で動領域が人物であると判定されない場合(ステップS112否定)、ステップS122へ処理を移す。またステップS113で新たに検出された人物であると判定されない場合(ステップS113否定)、ステップS119へ処理を移す。
一方集計センタサーバ300では、システムサーバ200から通行人を検知した旨を受信したならば、DB307aに当該通行人IDを持つレコードを追加し、通行検知時刻登録処理を実行する(ステップS211)。
ステップS115に続いてシステムサーバ200では、顔領域検出処理を実行する(ステップS116)。続いて顔領域検出か否かを判定し(ステップS117)、顔領域検出と判定されたならば(ステップS117肯定)、顔方向検出処理を実行する(ステップS118)。なお、顔領域が検出されなかったと判定されると(ステップS117否定)、ステップS122へ処理を移す。ステップS118の処理結果が顔方向が広告看板注視状態であるとされるか否かを判定し(ステップS119)、広告看板注視状態であると判定される場合(ステップS119肯定)、広告看板注視を検知した旨を集計センタサーバ300へ送信し(ステップS120)、広告看板注視状態であると判定されない場合、(ステップS119否定)、ステップS121へ処理を移す。
一方集計センタサーバ300では、システムサーバ200からステップS120の処理により広告看板注視を検知した旨が送信されてくると、注視時刻は登録されているか否かの判定処理を実行する(ステップS212)。注視時刻が登録されていない場合(ステップS212否定)注視時刻登録処理を実行し(ステップS213)、注視時刻が登録されている場合(ステップS212肯定)ステップS214へ処理を移す。
システムサーバ200におけるステップS119の処理で広告看板注視状態と判定されなかった場合(ステップS119否定)、注視非検知の旨を集計センタサーバ300へ送信する(ステップS121)。集計センタサーバ300で注視非検知を受信したならば、注視時刻が登録されているか否かを判定し(ステップS214)、注視時刻が登録されていると判定するならば(ステップS214肯定)、現在システム時刻と注視時刻とから注視時間を算出し(ステップS215)、注視時間をDB307aに登録する(ステップS216)。なお、ステップS214で注視時刻が登録されていると判定されないならば(ステップS214否定)、ステップS217へ処理を移す。続いて通行検知・注視検知終了か否かを判定し(ステップS217)、通行検知・注視検知終了の場合に(ステップS217肯定)集計センタサーバにおける処理を終了し、通行検知・注視検知終了でない場合に(ステップS217否定)ステップS211へ処理を移す。
システムサーバ200で、ステップS120又はステップS121に続いて、他に検出できる人物があるか否かを判定し(ステップS122)、他に検出できる人物がある場合には(ステップS122肯定)システムサーバにおける処理を終了し、他に検出できる人物がない場合には(ステップS122否定)ステップS111へ処理を移す。
図13〜16は、本発明の実施例3に係るコンテンツ注目評価装置及びコンテンツ注目評価システムの実施例を説明するための図である。実施例3は、屋外における広告効果評価方法であって、該広告看板に対する通行人の顔属性を判定処理する実施例である。本方法は、広告看板の前面の広告看板エリアに存在して該広告看板を注視する人物の顔属性を判定し、年齢・性別をDBに蓄積して統計分析の用に供するものである。
なお以下に実施例3の構成として説明するシステムサーバ200、集計センタサーバ300、データベーステーブル及びコンテンツ注目評価装置及びコンテンツ注目評価システムにおける処理手順以外は、実施例1又は2と同一である。
図13は、実施例3のシステムサーバ200の構成を示す機能ブロック図である。同図に示すように、このシステムサーバ200は、主制御部201と、通行人物検知部202と、注視人物検出部203と、記憶部204と、キーボードなどの操作部206が接続される操作制御部205と、ディスプレイ装置などの表示部208が接続される表示制御部207と、外部とのデータ授受を制御するI/F部209とを有する。これらの構成要素間のデータの授受は、実施例1と同様である。
また、主制御部201、通行人物検出部202、記憶部204、操作制御部205、表示制御部207及びI/F部209の機能は実施例1と同様であるので、ここでの説明を省略する。
注視人物検出部203は、人物検出部202bにより検出された人物の矩形の動領域から顔に相当する矩形を取り出し、該矩形が顔であるか否かを判定して顔を検出する顔検出処理部203aと、顔検出処理部203aにより検出された顔が向いている顔方向を検出する顔方向検出処理部203bと、検出された顔の属性を判定する顔判定処理部203cとを有する。顔検出処理部203aは、実施例1と同様であるので、ここでの説明を省略する。
顔判定処理部203cは、顔検出処理部203aにより顔領域が検出された人物の顔の属性を判定して年齢や性別を判定する。顔判定処理部203cは、年齢判定処理部203c−1及び性別判定処理部203c−2を有する。年齢判定処理部203c−1は、カメラ150で撮影された顔画像から年齢を推定する処理部であり、性別判定処理部203c−2は、カメラ150で撮影された顔画像から性別を推定する処理部である。これらの処理部は、推定結果を集計センタサーバ300へ送信する。
なお、年齢判定処理部203c−1及び性別判定処理部203c−2は、入力された人物画像データに対して年齢及び性別をそれぞれ出力する。例えば年齢判定処理部203c−1及び性別判定処理部203c−2は、人物全体の動画像から1フレーム分の顔画像を切り出す画像切り出し部と、該顔画像データが示す顔画像の特徴、例えば顔の輪郭、顔の肉付き状態、肌・皮膚の状態、装飾の有無、髪型などを識別して点数化する識別部と、該識別部の点数化の結果に応じて年齢や性別を判定して出力する結果判定出力部とを有する。
次に、実施例3の集計センタサーバ300の構成について説明する。図14は、実施例3の集計センタサーバ300の構成を示す機能ブロック図である。同図に示すように、この集計センタサーバ300は、主制御部301と、通過検出時刻登録部313と、注視検出時刻登録部314と、通行人年代登録部320と、通行人性別登録部321と、記憶部307と、キーボードなどの操作部309が接続される操作制御部308と、ディスプレイ装置などの表示部311が接続される表示制御部310と、外部とのデータ授受を制御するI/F部312とを有する。
具体的には主制御部301は、システムサーバ200からI/F部312を介してカメラ150が撮影した人物の属性データを受け取って通過検出時刻登録部313、注視検出時刻登録部314、通行人年代登録部320又は通行人性別登録部321へ受け渡す処理を行う。該属性データの授受を契機として通過検出時刻登録部313は当該人物の通過検出時刻をDB307aに登録し、注視検出時刻登録部314は当該人物の注視検出時刻をDB307aへ登録する。通行人年代登録部320は、当該人物の属性データに基づき年代をDB307aに登録する。また通行人性別登録部321は当該人物の属性データに基づき性別をDB307aに登録する。
また主制御部301は、通過検出時刻登録部313、注視検出時刻登録部314、通行人年代登録部320又は通行人性別登録部321から出力される情報を記憶部307へ受け渡す処理を行い、若しくは操作部309が受け付け操作制御部308で所定入力信号に変換された所定操作信号の入力を契機として前述の各処理を実行し、前述の各処理の処理結果を表示制御部310を介して表示部311へ表示させる処理を実行する。
ここで主制御部301、通過検出時刻登録部313、注視検出時刻登録部314、通行人年代登録部320、通行人性別登録部321、記憶部307、操作制御部308及び表示制御部310の機能は実施例2と同様であるので、説明を省略する。
通行人年代登録部320は、システムサーバ200から送信されてくる属性データに基づき人物の年代をDB307aに登録する。通行人性別登録部321は、システムサーバ200から送信されてくる属性データに基づき人物の性別をDB307aに登録する。なお、通過検出時刻登録部313、注視検出時刻登録部314、通行人年代登録部320及び通行人性別登録部321は、人物単位で時刻の登録を行う。即ち、トラッキングにより追跡された複数の連続する画像フレームに含まれる通行人物又は注視人数のうち同一人物であると見なされる人物単位に通過検知時刻、注視検出時刻、年代及び性別がDB307aに登録される。
次に、図14に示したDB307aに格納されるデータベーステーブルについて説明する。図15は、図14に示したDB307aに格納されるデータベーステーブルのテーブルイメージ図である。同図に示すように、データベーステーブルは、「通行人ID」、「通過検出時刻」、「注視検出時刻」、「年代」及び「性別」のカラムを持つ。カメラ150により撮影された人物で同一人物と見なされる人物単位にレコードが生成されている。例えば「通行人ID」が“2”であるレコードは、2005年7月11日15時32分51秒800ミリ秒に広告看板エリアの通過が検知され、2005年7月11日15時33分45秒900ミリ秒に広告看板の注視の開始が検知された、年代が10歳以上20歳未満、性別が男性の人物のレコードである。なお、ある人物について広告看板への注視が検出されなかった場合には、「注視検出時刻」のカラムにはNull値が登録される(例えば通行人ID“1”のレコード参照)。
なお、本実施例3では、年代は、10歳未満、10歳以上20歳未満、20歳以上40歳未満、40歳以上60歳未満、60歳以上の5つの階層に分類されることとするが、これは一例に過ぎず、これに限られるものではない。
このようにデータベーステーブルを構成し、「通行人ID」、「通過検出時刻」、「注視検出時刻」、「年代」及び「性別」の情報を記憶し、この記憶されたデータを分析することによって、次の効果が期待できる。即ち、どの「年代」でありどの「性別」の人物が、いつ広告看板の前面を通過し、かつ該広告看板を注視したか否か、注視したとすればいつ注視したかを把握することが可能となり、広告看板を注視する人物の「年代」及び「性別」を把握することが可能となる。
次に、実施例3のコンテンツ注目評価装置及びコンテンツ注目評価システムにおける通行人検知、広告看板注視検知、顔属性取得及び顔属性登録手順について説明する。図16は、実施例3のコンテンツ注目評価装置及びコンテンツ注目評価システムにおける通行人検知、広告看板注視検知、顔属性取得及び顔属性登録手順を示すフローチャートである。同図に示すように、システムサーバ200は、先ず動領域を検出する(ステップS131)。続いて、検出された動領域が人物であるか否かを判定し(ステップS132)、人物であると判定される場合に(ステップS132肯定)、該人物に立てられたフラグを参照して、新たに検出された人物か否かを判定する(ステップS133)。新たに検出された人物であると判定される場合(ステップS133肯定)、該人物に通行人IDを付与し(ステップS134)、通行人を検知した旨を通行人IDと共に集計センタサーバ300へ送信する(ステップS135)。なお、ステップS132で動領域が人物であると判定されない場合(ステップS132否定)、ステップS144へ処理を移す。またステップS133で新たに検出された人物であると判定されない場合(ステップS133否定)、ステップS139へ処理を移す。
一方集計センタサーバ300では、システムサーバ200から通行人を検知した旨を受信したならば、DB307aに当該通行人IDを持つレコードを追加し、通行検知時刻登録処理を実行する(ステップS221)。
ステップS135に続いてシステムサーバ200では、顔領域検出処理を実行する(ステップS136)。続いて顔領域検出か否かを判定し(ステップS137)、顔領域検出と判定されたならば(ステップS137肯定)、顔方向検出処理を実行する(ステップS138)。なお、顔領域が検出されなかったと判定されると(ステップS137否定)、ステップS144へ処理を移す。ステップS138の処理結果が顔方向が広告看板注視状態であるとされるか否かを判定し(ステップS139)、広告看板注視状態であると判定される場合(ステップS139肯定)、広告看板注視を検知した旨を集計センタサーバ300へ送信し(ステップS140)、広告看板注視状態であると判定されない場合(ステップS139否定)、ステップS144へ処理を移す。
一方集計センタサーバ300では、システムサーバ200からステップS140の処理により広告看板注視を検知した旨が送信されてくると、注視時刻登録処理を実行する(ステップS222)。
システムサーバ200においてステップS140が終了したならば、人物の顔属性取得可能か判定し(ステップS141)、顔属性取得可能と判定される場合に(ステップS141肯定)年代・性別取得処理を実行し(ステップS142)、顔属性取得可能と判定されない場合に(ステップS141否定)ステップS144へ処理を移す。ステップS142へ続いて集計センタサーバ300に対して年代・性別送信処理を実行する(ステップS143)。
集計センタサーバ300でステップS143の処理により送信されてきた年代・性別情報を受信したならば、年代・性別をDB307aへ登録する年代・性別登録処理を実行する(ステップS223)。続いて通行人属性取得終了かを判定し(ステップS224)、通行人属性取得終了である場合(ステップS224肯定)、集計センタサーバ300における処理を終了する。なお通行人属性取得終了でない場合(ステップS224否定)、ステップS221へ処理を移す。
システムサーバ200で、ステップS143に続いて、他に検出できる人物があるか否かを判定し(ステップS144)、他に検出できる人物がある場合には(ステップS144肯定)システムサーバにおける処理を終了し、他に検出できる人物がない場合には(ステップS144否定)ステップS131へ処理を移す。
図17〜20は、本発明の実施例4に係るコンテンツ注目評価装置及びコンテンツ注目評価システムの実施例を説明するための図である。実施例4は、屋外における広告効果評価方法であって、該広告看板に対する通行人の顔下属性を判定処理する実施例である。顔下属性とは、具体的には顔領域以外の人体の領域の基調となる色である。本方法は、広告看板の前面の広告看板エリアに存在して該広告看板を注視する人物の顔下属性を判定し、判定された色の情報をDBに蓄積して統計分析の用に供するものである。
なお以下に実施例4の構成として説明するシステムサーバ200、集計センタサーバ300、データベーステーブル及びコンテンツ注目評価装置及びコンテンツ注目評価システムにおける処理手順以外は、実施例1、2又は3と同一である。
図17は、実施例4のシステムサーバ200の構成を示す機能ブロック図である。同図に示すように、このシステムサーバ200は、主制御部201と、通行人物検出部202と、注視人物検出部203と、記憶部204と、キーボードなどの操作部206が接続される操作制御部205と、ディスプレイ装置などの表示部208が接続される表示制御部207と、外部とのデータ授受を制御するI/F部209とを有する。これらの構成要素間のデータの授受は、実施例1と同様である。
また、主制御部201、通行人物検出部202、記憶部204、操作制御部205、表示制御部207及びI/F部209の機能は実施例1と同様であるので、ここでの説明を省略する。
注視人物検出部203は、人物検出部202bにより検出された人物の矩形の動領域から顔に相当する矩形を取り出し、該矩形が顔であるか否かを判定して顔を検出する顔検出処理部203aと、顔検出処理部203aにより検出された顔以外の人体領域が基調とする色を判定する顔下領域判定処理部203dとを有する。顔検出処理部203aは、実施例1と同様であるので、ここでの説明を省略する。
顔下領域判定処理部203dは、顔検出処理部203aにより顔領域が検出された人物の顔以外の人体領域の属性を判定して基調となる色を判定する。即ちここで判定される色は、主に当該人物が着用する衣服の色調となる。顔下領域判定処理部203dは、判定結果を集計センタサーバ300へ送信する。
なお、顔下領域判定処理部203dによる色判定は、光の三源色(RGB)に基づいて判定される色に限られるものではない。即ち、顔下領域を減色していき、同一色(RGB)であると見なされる部分を一つの矩形領域にまとめていく。このようにすると顔下領域は複数の矩形領域に分割されるが、これら複数の矩形領域のうち最も面積が大きい矩形領域の色(RGB)を以って顔下領域の代表色とする。次に、色空間(RGB)における代表色(RGB)の表色を、L***色空間におけるL***表色系へ変換する。ここでL*は明度、a*は色相、b*は彩度をあらわす。色相と彩度を色度と総称する。即ち、光の三源色(RGB)のそれぞれの色の刺激値により色を特定するRGB色空間から、明度、色相、彩度により色を特定するL***色空間への変換を行う。このL***表色系により色を特定することとしてもよい。
また、顔下領域を減色していき、同一色(RGB)であると見なされる矩形領域のうち最も面積が大きい矩形領域の色(RGB)を以って顔下領域の代表色とし、この代表色(RGB)をCIE(International Commission on Illumination)1976で定められたUCS色度図の座標系への変換を経てL***色空間のL***表色系へ変換することとしてもよい。ここで、L*は明度指数、u*及びv*はクロマティクネス指数であり、色をL*、u*及びv*の3つの指標で表現するものである。このL***表色系により色を特定することとしてもよい。
次に、実施例4の集計センタサーバ300の構成について説明する。図18は、実施例4の集計センタサーバ300の構成を示す機能ブロック図である。同図に示すように、この集計センタサーバ300は、主制御部301と、通過検出時刻登録部313と、注視検出時刻登録部314と、通行人顔下属性登録部322と、記憶部307と、キーボードなどの操作部309が接続される操作制御部308と、ディスプレイ装置などの表示部311が接続される表示制御部310と、外部とのデータ授受を制御するI/F部312とを有する。
具体的には主制御部301は、システムサーバ200からI/F部312を介してカメラ150が撮影した人物の属性データを受け取って通過検出時刻登録部313、注視検出時刻登録部314又は通行人顔下属性登録部322へ受け渡す処理を行う。該属性データの授受を契機として通過検出時刻登録部313は当該人物の通過検出時刻をDB307aに登録し、注視検出時刻登録部314は当該人物の注視検出時刻をDB307aへ登録する。また通行人顔下属性登録部322は当該人物の属性データに基づき顔下領域の色をDB307aに登録する。
また主制御部301は、通過検出時刻登録部313、注視検出時刻登録部314又は通行人顔下属性登録部322から出力される情報を記憶部307へ受け渡す処理を行い、若しくは操作部309が受け付け操作制御部308で所定入力信号に変換された所定操作信号の入力を契機として前述の各処理を実行し、前述の各処理の処理結果を表示制御部310を介して表示部311へ表示させる処理を実行する。
ここで主制御部301、通過検出時刻登録部313、注視検出時刻登録部314、記憶部307、操作制御部308及び表示制御部310の機能は実施例2と同様であるので、説明を省略する。
通行人顔下属性登録部322は、システムサーバ200から送信されてくる属性データに基づき人物の顔下領域の色をDB307aに登録する。なお、通過検出時刻登録部313、注視検出時刻登録部314及び通行人顔下属性登録部322は、人物単位で時刻の登録を行う。即ち、トラッキングにより追跡された複数の連続する画像フレームに含まれる通行人物又は注視人数のうち同一人物であると見なされる人物単位に通過検知時刻、注視検出時刻及び顔下属性がDB307aに登録される。
次に、図18に示したDB307aに格納されるデータベーステーブルについて説明する。図19は、図18に示したDB307aに格納されるデータベーステーブルのテーブルイメージ図である。同図に示すように、データベーステーブルは、「通行人ID」、「通過検出時刻」、「注視検出時刻」及び「顔下属性」のカラムを持つ。カメラ150により撮影された人物で同一人物と見なされる人物単位にレコードが生成されている。例えば「通行人ID」が“2”であるレコードは、2005年7月11日15時32分51秒800ミリ秒に広告看板エリアの通過が検知され、2005年7月11日15時33分45秒900ミリ秒に広告看板の注視の開始が検知された、顔下属性が“GREEN”の人物のレコードである。即ち「通行人ID」が“2”の人物の顔以外の領域である衣服の色調は、緑を基調としていることとなる。なお、ある人物について広告看板への注視が検出されなかった場合には、「注視検出時刻」のカラムにはNull値が登録される(例えば通行人ID“1”のレコード参照)。
なお、本実施例4では、顔下属性は、“GREEN”、“YELLOW”、“RED”、“PURPLE”、“BLUE”、“BLACK”、“WHITE”の7つの色に分類されることとするが、これは一例に過ぎず、これに限られるものではない。
このようにデータベーステーブルを構成し、「通行人ID」、「通過検出時刻」、「注視検出時刻」及び「顔下属性」の情報を記憶し、この記憶されたデータを分析することによって、次の効果が期待できる。即ち、いかなる「顔下属性」を持つ人物、具体的にはいかなる色調の衣服を着用する人物が、いつ広告看板の前面を通過し、かつ該広告看板を注視したか否か、注視したとすればいつ注視したかを把握することが可能となり、広告看板を注視する人物の「顔下属性」を把握することが可能となる。
次に、実施例4のコンテンツ注目評価装置及びコンテンツ注目評価システムにおける通行人検知、広告看板注視検知及び顔下属性取得及び顔下属性登録手順について説明する。図20は、実施例4のコンテンツ注目評価装置及びコンテンツ注目評価システムにおける通行人検知、広告看板注視検知、顔下属性取得及び顔下属性登録手順を示すフローチャートである。同図に示すように、システムサーバ200は、先ず動領域を検出する(ステップS151)。続いて、検出された動領域が人物であるか否かを判定し(ステップS152)、人物であると判定される場合に(ステップS152肯定)、該人物に立てられたフラグを参照して、新たに検出された人物か否かを判定する(ステップS153)。新たに検出された人物であると判定される場合(ステップS153肯定)、該人物に通行人IDを付与し(ステップS154)、通行人を検知した旨を通行人IDと共に集計センタサーバ300へ送信する(ステップS155)。なお、ステップS152で動領域が人物であると判定されない場合(ステップS152否定)、ステップS164へ処理を移す。またステップS153で新たに検出された人物であると判定されない場合(ステップS153否定)、ステップS159へ処理を移す。
一方集計センタサーバ300では、システムサーバ200から通行人を検知した旨を受信したならば、DB307aに当該通行人IDを持つレコードを追加し、通行検知時刻登録処理を実行する(ステップS231)。
ステップS155に続いてシステムサーバ200では、顔領域検出処理を実行する(ステップS156)。続いて顔領域検出か否かを判定し(ステップS157)、顔領域検出と判定されたならば(ステップS157肯定)、顔方向検出処理を実行する(ステップS158)。なお、顔領域が検出されなかったと判定されると(ステップS157否定)、ステップS164へ処理を移す。ステップS158の処理結果が顔方向が広告看板注視状態であるとされるか否かを判定し(ステップS159)、広告看板注視状態であると判定される場合(ステップS159肯定)、広告看板注視を検知した旨を集計センタサーバ300へ送信し(ステップS160)、広告看板注視状態であると判定されない場合(ステップS159否定)、ステップS164へ処理を移す。
一方集計センタサーバ300では、システムサーバ200からステップS160の処理により広告看板注視を検知した旨が送信されてくると、注視時刻登録処理を実行する(ステップS232)。
システムサーバ200においてステップS160が終了したならば、人物の顔下色属性取得可能か判定し(ステップS161)、顔下色属性取得可能と判定される場合に(ステップS161肯定)顔下色属性取得処理を実行し(ステップS162)、顔下色属性取得可能と判定されない場合に(ステップS161否定)ステップS164へ処理を移す。ステップS162へ続いて集計センタサーバ300に対して顔下色属性送信処理を実行する(ステップS163)。
集計センタサーバ300でステップS163の処理により送信されてきた顔下色属性情報を受信したならば、顔下色属性をDB307aへ登録する顔下色属性登録処理を実行する(ステップS233)。続いて通行人属性取得終了かを判定し(ステップS234)、通行人属性取得終了である場合(ステップS234肯定)、集計センタサーバ300における処理を終了する。なお通行人属性取得終了でない場合(ステップS234否定)、ステップS231へ処理を移す。
システムサーバ200で、ステップS163に続いて、他に検出できる人物があるか否かを判定し(ステップS164)、他に検出できる人物がある場合には(ステップS164肯定)システムサーバにおける処理を終了し、他に検出できる人物がない場合には(ステップS164否定)ステップS151へ処理を移す。
図21は、本発明の実施例5に係るコンテンツ注目評価方法の概念を説明するための説明図である。実施例5は、屋内におけるTV放送番組視聴率評価方法であって、該TV放送番組に対する通行人の視聴率を算出する実施例である。同図に示すように、本方法は、TVの電源がオンであるか否かを判定し、TV画面の前面のTV画面エリアに存在する人物の数(TV画面エリア内人数)を把握し、これらの人物のうち視線がTV画面に向いている人物の数(TV視聴者人数)を数え、TVの電源がオンか否か、TV画面エリア内人数及びTV視聴者人数に基づいて視聴レベルを算出して、当該TVの放送番組(コンテンツ)の放送効果を評価するものである。
なお以下に実施例5の構成として説明するコンテンツ注目評価装置及びコンテンツ注目評価システムのネットワーク構成、集計センタサーバ300、データベーステーブル及びコンテンツ注目評価装置及びコンテンツ注目評価システムにおける処理手順以外は、実施例1と同様である。
図21によれば、TV画面の前面でTV番組放送を見ることが可能なTV画面エリア内(図21中の破線による長方形)に、3人の人物F、G、Hが存在している。そのうちF及びGは、TV画面を注視している。同図に示すように、TV画面エリア内に3人の人物が存在し、そのうちTV画面を2人が注視したと検知されることとなる。これらの検知結果とTV電源がオンか否かに基づいて、ある時刻から所定時間内(例えば100ミリ秒)に該TV画面を注視する注視レベルを算出し、該注視レベルに基づいて当該TV放送番組(コンテンツ)の放送効果を評価することができる。
図22は、実施例5のコンテンツ注目評価装置及びコンテンツ注目評価システムのネットワーク構成を説明するための説明図である。同図によれば、通路の横にTV画面100tが配設された通路を通過する通行人物を撮影するための1台の広角カメラ、即ちTV画面100t側から通路に存在する通行人物を撮影するカメラ150が配設されている。
同図に示したカメラ領域rは、カメラ150により通行人物の撮影が可能な領域である。この領域内に存在する通行人物は、カメラ150により撮影されることによって通行人物として検出され得る。また、カメラ領域rで検出された通行人物の顔方向が広告看板100t方向を向くか否かが検出される。これは、カメラ150が広告看板100tの同一面内又はその近傍に配設されていることにより、視線を向けるために広告看板へ顔方向を向けると、この広告看板方向を向く顔がカメラ150により撮影されることによる。
カメラ150及びシステムサーバ200がケーブルCを介して接続されている。少なくとも一つのシステムサーバ200がネットワークNを介して集計センタサーバ300と接続されている。システムサーバ200と集計センタサーバ300は異なるフロアに設置されているものとするが、同一のフロアに設置されてもよく、また同一のコンピュータシステムに実装されていてもよいものである。システムサーバ200は、カメラ150により撮影された画像を分析して該画像から通行人物及び該通行人物の顔方向を検出するための分析装置である。カメラ150は通行人物を含む画像を撮影して該画像をシステムサーバ200へ送信する。システムサーバ200では該画像を分析して該画像に含まれる通行人物の客観的な属性データを検出して該属性データを集計センタサーバ300へ送信する。集計センタサーバ300は、該属性データを集計し各種分析指標を算出する。即ち、個人を特定することができる画像情報は、システムサーバ200及びカメラ150間で閉じており、これら以外に送信されることはない。よって本実施例5の広告注目評価システムは、システムサーバ200及びカメラ150において集中的に個人情報保護を図るだけで個人情報の漏洩・拡散を防止できるシステムとなっている。
次に、図22に示した集計センタサーバ300の構成について説明する。図23は、図22に示した集計センタサーバ300の構成を示す機能ブロック図である。同図に示すように、この集計センタサーバ300は、主制御部301と、通行人数算出部302と、通行人数登録部303と、視聴人数登録部323と、視聴人数算出部324と、視聴レベル判定部325と、記憶部307と、キーボードなどの操作部309が接続される操作制御部308と、ディスプレイ装置などの表示部311が接続される表示制御部310と、外部とのデータ授受を制御するI/F部312とを有する。主制御部301は集計センタサーバ300全体の処理を制御する制御部である。具体的には主制御部301は、システムサーバ200からI/F部312を介して属性データを受け取って通行人数算出部302又は視聴人数算出部324へ受け渡す処理を行う。該属性データの授受を契機として通行人数算出部302は通行人数として画像に含まれていた人物の数を計数し、また視聴人数算出部324は視聴人数として画像に含まれていたTV画面を向く顔角度の人物の数を計数する。また主制御部301は、通行人数登録部303又は視聴人数登録部323から出力される情報を記憶部307へ受け渡す処理を行い、若しくは操作部309が受け付け操作制御部308で所定入力信号に変換された所定操作信号の入力を契機として前述の各処理を実行し、前述の各処理の処理結果を表示制御部310を介して表示部311へ表示させる処理を実行する。
通行人数算出部302は、システムサーバ200から送信されてくる属性データから通行人物とされる人数を計数する。この計数結果は通行人数登録部303及び視聴レベル判定部325へ受け渡される。また視聴人数算出部324は、システムサーバ200から送信されてくる属性データから視聴人物とされる人数を計数する。この計数結果は視聴人数登録部323及び視聴レベル判定部325へ受け渡される。なお、通行人数算出部302及び視聴人数算出部324は、100ミリ秒毎に人数の計数を行う。即ち、100ミリ秒間の画像フレームに含まれる通行人物又は視聴人数を累計する。
通行人数登録部303は、通行人数算出部302により100ミリ秒単位で計数された通行人数を記憶部307が有するDB307aに登録する処理を行い、視聴人数登録部323は、視聴人数算出部324により100ミリ秒単位で計数された視聴人数を記憶部307が有するDB307aに登録する処理を行う。視聴レベル判定部325は、100ミリ秒単位でDB307aに登録された通行人数、視聴人数及びTV電源のオン・オフに基づき視聴レベルを判定する。そして該判定結果を主制御部301を介して記憶部307へ受け渡し、DB307aに登録させる処理を行う。
記憶部307は、不揮発性の磁気的記録装置であり、100ミリ秒毎の通行人数、視聴人数及び視聴レベルを登録するDB307aを有する。100ミリ秒毎に1レコードが生成され、この1レコードに相当する100ミリ秒に含まれる画像のフレームに撮影されている通行人数の累計、視聴人数の累計及び視聴レベルが登録されている。
なお図23に示した視聴レベル判定部325による判定結果である視聴レベルは、図24に示すようになる。図24は、各視聴レベルに対応する視聴レベルの内容を示す説明図である。同図に示すように、TV電源がオフの場合には、通行人数及び視聴人数に関わらず、視聴レベルは“レベル0”となる。TV電源がオンであってTV放送番組を受信中であれば、視聴レベルは、“レベル1”〜“レベル3”のいずれかとなる。TV電源がオンであって“カメラ前方人間不存在状態”即ち「通行人数が0」である場合には、視聴レベルは“レベル1”となる。TV電源がオンであって“カメラ前方人間存在状態、正面顔非検出状態”即ち「通行人数は0でないが、視聴人数が0」である場合には、視聴レベルは“レベル2”となる。また、TV電源がオンであって“カメラ前方人間存在状態、正面顔検出状態”即ち「通行人数、視聴人数共に0でない」場合には、視聴レベルは“レベル3”となる。このように、TV電源がオンであるか否か、通行人数及び視聴人数に基づいて視聴レベルが判定される。
次に、図23に示したDB307aに格納されるデータベーステーブルについて説明する。図25は、図23に示したDB307aに格納されるデータベーステーブルのテーブルイメージ図である。同図に示すように、データベーステーブルは、「日時」、「TV電源」、「通行人数」、「視聴人数」及び「視聴レベル」のカラムを持つ。そして100ミリ秒単位にレコードが生成されている。例えば「日時」が“2005/11/15 15:30:45:200”であるレコードには、2005年11月15日15時30分45秒200ミリ秒から2005年11月15日15時30分45秒300ミリ秒までの100ミリ秒間にカメラ150により撮影された画像のフレームに含まれる通行人及び広告看板の視聴人それぞれの人数を計数した数値が格納される。通行人の計数値は「通行人数」のカラムに格納され、視聴人の計数値は「視聴人数」のカラムに格納される。なお、100ミリ秒を単位として視聴率を算出したい時刻帯を指定し、該時刻帯に含まれるレコードの「通行人数」及び「視聴人数」を合計して視聴率=(「視聴人数」の合計値)÷(「通行人数」の合計値)を算出することもできる。
このようにデータベーステーブルを構成し、「日時」、「TV電源」、「通行人数」、「視聴人数」及び「視聴レベル」の情報を記憶し、この記憶されたデータを分析することにより、次の効果が期待できる。即ち、時刻帯の違いやTV電源のオン・オフの違いに応じて「通行人数」に違いが生じるか、TV番組放送の内容に応じて「視聴人数」の違いが生じるかなどを把握可能となる。また「視聴レベル」を判定することにより、TV番組放送の視聴状況を直截的に把握可能となる。
次に、図22に示したコンテンツ注目評価装置及びコンテンツ注目評価システムにおける通行人数及び視聴人数の検知・計数、視聴レベル評価手順について説明する。図26は、図22に示したコンテンツ注目評価装置及びコンテンツ注目評価システムにおける通行人数及び視聴人数の検知・計数、視聴レベル評価手順を示すフローチャートである。同図に示すように、システムサーバ200は、先ず動領域を検出する(ステップS171)。続いて、検出された動領域が人物であるか否かを判定し(ステップS172)、人物であると判定される場合に(ステップS172肯定)、該人物に立てられたフラグを参照して、新たに検出された人物か否かを判定する(ステップS173)。新たに検出された人物であると判定される場合(ステップS173肯定)、通行人を検知した旨を集計センタサーバ300へ送信する(ステップS174)。なお、ステップS172で動領域が人物であると判定されない場合(ステップS172否定)、ステップS180へ処理を移す。またステップS173で新たに検出された人物であると判定されない場合(ステップS173否定)も、ステップS180へ処理を移す。
一方集計センタサーバ300では、システムサーバ200からステップS174の処理により通行人を検知した旨が送信されてくる以前に、100ミリ秒の計時を開始する計時開始処理を実行する(ステップS241)。続いて、システムサーバ200から通行人を検知した旨を受信したならば、通行人数のカウンタをインクリメントして通行検知数カウント処理を実行する(ステップS242)。
ステップS174に続いてシステムサーバ200では、顔領域検出処理を実行する(ステップS175)。続いて顔領域検出か否かを判定し(ステップS176)、顔領域検出と判定されたならば(ステップS176肯定)、顔方向検出処理を実行する(ステップS177)。なお、顔領域が検出されなかったと判定されると(ステップS176否定)、ステップS180へ処理を移す。ステップS177の処理結果が顔方向がTV画面視聴状態であるとされるか否かを判定し(ステップS178)、TV画面視聴状態であると判定される場合(ステップS178肯定)、TV画面視聴を検知した旨を集計センタサーバ300へ送信する(ステップS179)。
一方集計センタサーバ300では、システムサーバ200からステップS179の処理によりTV画面視聴を検知した旨が送信されてくると、視聴人数のカウンタをインクリメントして視聴検知数カウント処理を実行する(ステップS243)。続いてステップS241の処理以来計時されている時間が100ミリ秒に至ったか否かを判定する(ステップS244)。計時されている時間が100ミリ秒に至ったと判定される場合に(ステップS244肯定)、視聴レベルの判定処理を実行する。具体的には、TV電源オンか否かを判定し(ステップS245)、TV電源オンと判定される場合に(ステップS245肯定)通行検知数は0であるか否かを判定する(ステップS246)。なおTV電源オンと判定されない場合には(ステップS245否定)、視聴レベルは“レベル0”と判定される。
通行検知数は0であると判定された場合に(ステップS246肯定)視聴レベルは“レベル1”と判定され、通行検知数は0であると判定さなかった場合に(ステップS246否定)、視聴検知数は0か否かが判定される(ステップS249)。視聴検知数は0であると判定された場合に(ステップS249肯定)視聴レベルは“レベル2”と判定され、視聴検知数は0であると判定されなかった場合に(ステップS249否定)視聴レベルは“レベル3”と判定される。そして、これらステップS247、ステップS248、ステップS250又はステップS251で判定された視聴レベルと、通行検知数と、視聴検知数とがDB307aに登録される(ステップS252)。続いて通行検知数・視聴検知数カウント終了と判定される場合には(ステップS253肯定)集計センタサーバ300における処理を終了し、通行検知数・視聴検知数カウント終了と判定されない場合には(ステップS253否定)ステップS241へ処理を移す。
ステップS179に続いてシステムサーバ200では、画像のトラッキング終了か否かを判定し(ステップS180)、トラッキング終了と判定される場合には(ステップS180肯定)システムサーバ200における処理を終了し、トラッキング終了とされない場合には(ステップS180否定)ステップS171へ処理を移す。
以上、本発明の実施例について実施例1〜5を説明したが、本発明は、これらに限られるものではなく、特許請求の範囲に記載した技術的思想の範囲内で、更に種々の異なる実施例で実施されてもよいものである。また、実施例1〜5は、適宜に組み合わせて実施可能である。
本発明は、広告やTV放送番組などのコンテンツへの注目をより客観的な方法で評価する場合に有効であり、特に、広告媒体やTVのコンテンツ媒体をより注目されるように効率よく設置する設置手法を調査したい場合に有用である。
実施例1に係るコンテンツ注目評価方法の概念を説明するための説明図である。 実施例1のコンテンツ注目評価装置及びコンテンツ注目評価システムのネットワーク構成を説明するための説明図である。 実施例1のシステムサーバ200の構成を示す機能ブロック図である。 実施例1の集計センタサーバ300の構成を示す機能ブロック図である。 実施例1のデータベーステーブルのテーブルイメージ図である。 実施例1のコンテンツ注目評価装置及びコンテンツ注目評価システムにおける動領域検出方法の概略を説明する説明図である。 実施例1のコンテンツ注目評価装置及びコンテンツ注目評価システムにおける人物識別方法の概略を説明する説明図である。 実施例1のコンテンツ注目評価装置及びコンテンツ注目評価システムにおける通行人数及び注視人数の検知・計数手順を示すフローチャートである。 実施例2に係るコンテンツ注目評価方法の概念を説明するための説明図である。 実施例2の集計センタサーバ300の構成を示す機能ブロック図である。 実施例2のデータベーステーブルのテーブルイメージ図である。 実施例2のコンテンツ注目評価装置及びコンテンツ注目評価システムにおける通行人検知、広告看板注視検知、広告看板注視時間算出及び平均注視時間算出手順を示すフローチャートである。 実施例3のシステムサーバ200の構成を示す機能ブロック図である。 実施例3の集計センタサーバ300の構成を示す機能ブロック図である。 実施例3のデータベーステーブルのテーブルイメージ図である。 実施例3のコンテンツ注目評価装置及びコンテンツ注目評価システムにおける通行人検知、広告看板注視検知、顔属性取得及び顔属性登録手順を示すフローチャートである。 実施例4のシステムサーバ200の構成を示す機能ブロック図である。 実施例4の集計センタサーバ300の構成を示す機能ブロック図である。 実施例4のデータベーステーブルのテーブルイメージ図である。 実施例4のコンテンツ注目評価装置及びコンテンツ注目評価システムにおける通行人検知、広告看板注視検知、顔下属性取得及び顔下属性登録手順を示すフローチャートである。 本発明の実施例5に係るコンテンツ注目評価方法の概念を説明するための説明図である。 実施例5のコンテンツ注目評価装置及びコンテンツ注目評価システムのネットワーク構成を説明するための説明図である。 実施例5の集計センタサーバ300の構成を示す機能ブロック図である。 実施例5の各視聴レベルに対応する視聴レベルの内容を示す説明図である。 実施例5のデータベーステーブルのテーブルイメージ図である。 実施例5のコンテンツ注目評価装置及びコンテンツ注目評価システムにおける通行人数及び視聴人数の検知・計数、視聴レベル評価手順を示すフローチャートである。
符号の説明
100a 広告看板
100t TV画面
150、150a、150b、150c カメラ
200 システムサーバ
201 主制御部
202 通行人物検出部
202a 動領域検出部
202b 人物検出部
203 注視人物検出部
203a 顔検出処理部
203b 顔方向検出処理部
203c 顔判定処理部
203c−1 年齢判定処理部
203c−2 性別判定処理部
203d 顔下判定処理部
204 記憶部
300 集計センタサーバ
301 主制御部
302 通行人数算出部
303 通行人数登録部
304 注視人数登録部
305 注視人数算出部
306 注視率算出部
307 記憶部
307a DB
313 通過検出時刻登録部
314 注視検出時刻登録部
315 注視検出時間算出部
316 注視検出時間登録部
317 総注視時間算出部
318 注視人数算出部
319 平均注視時間算出部
320 通行人年代登録部
321 通行人性別登録部
322 通行人顔下属性登録部
323 視聴人数登録部
324 視聴人数算出部
325 視聴レベル判定部

Claims (13)

  1. コンテンツ媒体の前面に存在する人物を撮像装置が撮像した画像に基づいて、該コンテンツ媒体の前面に存在する人物の該コンテンツに対する注目を評価するコンテンツ注目評価装置であって、
    前記画像に撮像された人物を検出する人物検出手段と、
    前記人物検出手段により検出された人物の数を計数する人数計数手段と、
    前記人物検出手段により検出された人物の顔を検出する顔検出手段と、
    前記顔検出手段により顔が検出された人物の顔方向を検出する顔方向検出手段と、
    前記顔方向検出手段により検出された人物の顔方向のうち前記コンテンツを注目する顔方向である人物の数を計数するコンテンツ注目数計数手段と、
    前記コンテンツ注目数計数手段により計数された人物の数を前記人数計数手段により計数された人物の数で除したコンテンツ注目率を算出する注目率算出手段と
    を備えたことを特徴とするコンテンツ注目評価装置。
  2. 前記人数計数手段により計数された人物の数及び前記コンテンツ注目数計数手段により計数された人物の数を記憶する記憶手段をさらに備え、
    前記注目率算出手段は、前記記憶手段に記憶される前記コンテンツ注目数計数手段により計数された人物の数を前記人数計数手段により計数された人物の数で除して前記コンテンツ注目率を算出することを特徴とする請求項1に記載のコンテンツ注目評価装置。
  3. 前記顔方向検出手段により前記コンテンツ媒体を注目する顔方向であると検出された人物が該コンテンツ媒体を注目する時間を計時する注目時間計時手段をさらに備えたことを特徴とする請求項1又は2に記載のコンテンツ注目評価装置。
  4. 前記記憶手段は、前記注目時間計時手段により計時された前記時間を記憶することを特徴とする請求項3に記載のコンテンツ注目評価装置。
  5. 前記注目時間計時手段は、前記顔方向検出手段により前記コンテンツ媒体を注目する顔方向であると検出された人物毎に、該人物が該コンテンツ媒体を注目する時間を計時し、
    前記記憶手段は、前記注目時間計時手段により計時された前記時間を、前記コンテンツ媒体を注目する顔方向であると検出された人物毎に記憶することを特徴とする請求項3又は4に記載のコンテンツ注目評価装置。
  6. 前記記憶手段により前記コンテンツ媒体を注目する顔方向であると検出された人物毎に記憶される前記時間の和を前記コンテンツ媒体を注目する顔方向であると検出された全人物の数で除して平均注目時間を算出する平均注目時間算出手段をさらに備えたことを特徴とする請求項5に記載のコンテンツ注目評価装置。
  7. 前記顔検出手段により顔が検出された人物の顔の属性を判定する顔属性判定手段をさらに備えたことを特徴とする請求項1〜6のいずれか一つに記載のコンテンツ注目評価装置。
  8. 前記記憶手段は、前記顔属性判定手段により判定された顔の属性を記憶することを特徴とする請求項7に記載のコンテンツ注目評価装置。
  9. 前記顔検出手段により顔が検出された人物の顔以外の部分の色を判定する色判定手段をさらに備えたことを特徴とする請求項1〜8のいずれか一つに記載のコンテンツ注目評価装置。
  10. 前記記憶手段は、前記色判定手段により判定された色の情報をさらに記憶することを特徴とする請求項9に記載のコンテンツ注目評価装置。
  11. 前記人数計数手段により計数された人物の数と前記コンテンツ注目数計数手段により計数された人物の数とに基づいて数値化された注目レベルを判定する注目レベル判定手段をさらに備えたことを特徴とする請求項1〜10のいずれか一つに記載のコンテンツ注目評価装置。
  12. 前記コンテンツ注目評価装置は、前記撮像装置が接続される画像分析装置と、少なくとも一つの前記画像分析装置と通信可能に接続されたコンテンツ注目評価分析装置とから構成され、
    前記画像分析装置は、前記画像に含まれる人物を特定不可能なデータを前記コンテンツ注目評価分析装置へ送信し、
    前記コンテンツ注目評価分析装置は、前記人物を特定不可能なデータを記憶する前記憶手段を有することを特徴とする請求項1〜11のいずれか一つに記載のコンテンツ注目評価装置。
  13. コンテンツ媒体の前面に存在する人物を撮像装置が撮像した画像に基づいて、該コンテンツ媒体の前面に存在する人物の該コンテンツに対する注目を評価するコンテンツ注目評価方法であって、
    前記画像に撮像された人物を検出する人物検出工程と、
    前記人物検出工程により検出された人物の数を計数する人数計数工程と、
    前記人物検出工程により検出された人物の顔を検出する顔検出工程と、
    前記顔検出工程により顔が検出された人物の顔方向を検出する顔方向検出工程と、
    前記顔方向検出工程により検出された人物の顔方向のうち前記コンテンツを注目する顔方向である人物の数を計数するコンテンツ注目数計数工程と、
    前記コンテンツ注目数計数工程により計数された人物の数を前記人数計数工程により計数された人物の数で除したコンテンツ注目率を算出する注目率算出工程と
    を含んだことを特徴とするコンテンツ注目評価方法。
JP2005379268A 2005-12-28 2005-12-28 コンテンツ注目評価装置及びコンテンツ注目評価方法 Expired - Fee Related JP4603974B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005379268A JP4603974B2 (ja) 2005-12-28 2005-12-28 コンテンツ注目評価装置及びコンテンツ注目評価方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005379268A JP4603974B2 (ja) 2005-12-28 2005-12-28 コンテンツ注目評価装置及びコンテンツ注目評価方法

Publications (2)

Publication Number Publication Date
JP2007181070A true JP2007181070A (ja) 2007-07-12
JP4603974B2 JP4603974B2 (ja) 2010-12-22

Family

ID=38305735

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005379268A Expired - Fee Related JP4603974B2 (ja) 2005-12-28 2005-12-28 コンテンツ注目評価装置及びコンテンツ注目評価方法

Country Status (1)

Country Link
JP (1) JP4603974B2 (ja)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009139857A (ja) * 2007-12-10 2009-06-25 Unicast Corp コンテンツ表示制御装置、コンテンツ表示制御方法およびコンテンツ表示制御プログラム
JP2009300977A (ja) * 2008-06-17 2009-12-24 Canon Inc 情報提供装置、情報提供方法、及びプログラム
JP2011232876A (ja) * 2010-04-26 2011-11-17 Nippon Telegr & Teleph Corp <Ntt> コンテンツ注目度算出装置、コンテンツ注目度算出方法、およびコンテンツ注目度算出プログラム
JP2012044721A (ja) * 2011-11-29 2012-03-01 Oki Electric Ind Co Ltd 情報処理システム、及び視聴効果測定方法
JP2012123727A (ja) * 2010-12-10 2012-06-28 Hitachi Solutions Ltd 広告効果測定サーバ、広告効果測定装置、プログラム、広告効果測定システム
JP2015015031A (ja) * 2014-08-12 2015-01-22 株式会社日立ソリューションズ 広告効果測定サーバ、広告効果測定システム、プログラム
JP2016071501A (ja) * 2014-09-29 2016-05-09 株式会社日立システムズ 広告評価システム、広告評価方法
US9344631B2 (en) 2011-12-12 2016-05-17 Canon Kabushiki Kaisha Method, system and apparatus for selecting an image captured on an image capture device
JP2019507533A (ja) * 2016-01-06 2019-03-14 テレビジョン・インサイツ、インコーポレイテッド 視聴者エンゲージメントを評価するためのシステムおよび方法
JP2020013553A (ja) * 2018-07-16 2020-01-23 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 端末装置に適用される情報生成方法および装置
WO2021206124A1 (ja) * 2020-04-10 2021-10-14 川崎重工業株式会社 医療用移動体システム及びその運転方法
WO2023286292A1 (ja) * 2021-07-14 2023-01-19 日本電気株式会社 情報処理装置、情報処理方法およびコンピュータ可読媒体
EP4195671A1 (en) * 2021-12-09 2023-06-14 TVision Insights, Inc. Systems and methods for assessing viewer engagement using a camera a microphone and packet monitoring

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6138930B2 (ja) * 2012-06-29 2017-05-31 インテル コーポレイション デジタル看板上での表示のための広告を選択する方法および装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05235880A (ja) * 1992-02-19 1993-09-10 Video Res:Kk 押ボタンpm装置
JPH11298922A (ja) * 1998-04-10 1999-10-29 Dentsu Inc マルチメディアユーザ行動データ収集装置及びマルチメディアユーザ行動データ収集方法
JPH11328406A (ja) * 1998-05-11 1999-11-30 Nec Corp 画像パターン認識による統計方式
JP2000209578A (ja) * 1999-01-20 2000-07-28 Nri & Ncc Co Ltd 広告メディア評価装置および広告メディア評価方法
JP2002032553A (ja) * 2000-07-18 2002-01-31 Minolta Co Ltd 顧客情報管理システムおよびその方法ならびに顧客情報管理プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2002077436A (ja) * 2000-08-28 2002-03-15 Happu:Kk テレビジョン視聴率調査方式
JP2002135757A (ja) * 2000-10-27 2002-05-10 Intage Inc 広告視聴効果評価システム
JP2002269290A (ja) * 2001-03-09 2002-09-20 Sony Corp 広告配信システム
JP2003274271A (ja) * 2002-03-18 2003-09-26 Fuji Photo Film Co Ltd 画像撮影方法、画像出力方法、およびカメラ
JP2004227158A (ja) * 2003-01-21 2004-08-12 Omron Corp 情報提供装置および情報提供方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05235880A (ja) * 1992-02-19 1993-09-10 Video Res:Kk 押ボタンpm装置
JPH11298922A (ja) * 1998-04-10 1999-10-29 Dentsu Inc マルチメディアユーザ行動データ収集装置及びマルチメディアユーザ行動データ収集方法
JPH11328406A (ja) * 1998-05-11 1999-11-30 Nec Corp 画像パターン認識による統計方式
JP2000209578A (ja) * 1999-01-20 2000-07-28 Nri & Ncc Co Ltd 広告メディア評価装置および広告メディア評価方法
JP2002032553A (ja) * 2000-07-18 2002-01-31 Minolta Co Ltd 顧客情報管理システムおよびその方法ならびに顧客情報管理プログラムを記録したコンピュータ読み取り可能な記録媒体
JP2002077436A (ja) * 2000-08-28 2002-03-15 Happu:Kk テレビジョン視聴率調査方式
JP2002135757A (ja) * 2000-10-27 2002-05-10 Intage Inc 広告視聴効果評価システム
JP2002269290A (ja) * 2001-03-09 2002-09-20 Sony Corp 広告配信システム
JP2003274271A (ja) * 2002-03-18 2003-09-26 Fuji Photo Film Co Ltd 画像撮影方法、画像出力方法、およびカメラ
JP2004227158A (ja) * 2003-01-21 2004-08-12 Omron Corp 情報提供装置および情報提供方法

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009139857A (ja) * 2007-12-10 2009-06-25 Unicast Corp コンテンツ表示制御装置、コンテンツ表示制御方法およびコンテンツ表示制御プログラム
JP2009300977A (ja) * 2008-06-17 2009-12-24 Canon Inc 情報提供装置、情報提供方法、及びプログラム
US8681013B2 (en) 2008-06-17 2014-03-25 Canon Kabushiki Kaisha Management apparatus for managing a content display change time on a display apparatus and content information to be transmitted to a terminal
JP2011232876A (ja) * 2010-04-26 2011-11-17 Nippon Telegr & Teleph Corp <Ntt> コンテンツ注目度算出装置、コンテンツ注目度算出方法、およびコンテンツ注目度算出プログラム
JP2012123727A (ja) * 2010-12-10 2012-06-28 Hitachi Solutions Ltd 広告効果測定サーバ、広告効果測定装置、プログラム、広告効果測定システム
JP2012044721A (ja) * 2011-11-29 2012-03-01 Oki Electric Ind Co Ltd 情報処理システム、及び視聴効果測定方法
US9344631B2 (en) 2011-12-12 2016-05-17 Canon Kabushiki Kaisha Method, system and apparatus for selecting an image captured on an image capture device
JP2015015031A (ja) * 2014-08-12 2015-01-22 株式会社日立ソリューションズ 広告効果測定サーバ、広告効果測定システム、プログラム
JP2016071501A (ja) * 2014-09-29 2016-05-09 株式会社日立システムズ 広告評価システム、広告評価方法
JP7207836B2 (ja) 2016-01-06 2023-01-18 テレビジョン・インサイツ、インコーポレイテッド 視聴者エンゲージメントを評価するためのシステム
JP2021184644A (ja) * 2016-01-06 2021-12-02 テレビジョン・インサイツ、インコーポレイテッド 視聴者エンゲージメントを評価するためのシステム
JP2019507533A (ja) * 2016-01-06 2019-03-14 テレビジョン・インサイツ、インコーポレイテッド 視聴者エンゲージメントを評価するためのシステムおよび方法
JP7451673B2 (ja) 2016-01-06 2024-03-18 テレビジョン・インサイツ、インコーポレイテッド 視聴者エンゲージメントを評価するためのシステムおよび方法
JP2020013553A (ja) * 2018-07-16 2020-01-23 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 端末装置に適用される情報生成方法および装置
US11087140B2 (en) 2018-07-16 2021-08-10 Baidu Online Network Technology (Beijing) Co., Ltd. Information generating method and apparatus applied to terminal device
JP7030078B2 (ja) 2018-07-16 2022-03-04 バイドゥ オンライン ネットワーク テクノロジー(ペキン) カンパニー リミテッド 端末装置に適用される情報生成方法および装置
WO2021206124A1 (ja) * 2020-04-10 2021-10-14 川崎重工業株式会社 医療用移動体システム及びその運転方法
WO2023286292A1 (ja) * 2021-07-14 2023-01-19 日本電気株式会社 情報処理装置、情報処理方法およびコンピュータ可読媒体
EP4195671A1 (en) * 2021-12-09 2023-06-14 TVision Insights, Inc. Systems and methods for assessing viewer engagement using a camera a microphone and packet monitoring
JP7291445B1 (ja) 2021-12-09 2023-06-15 テレビジョン・インサイツ、インコーポレイテッド 視聴者関与度を評価するためのシステムおよび方法
JP2023087655A (ja) * 2021-12-09 2023-06-23 テレビジョン・インサイツ、インコーポレイテッド 視聴者関与度を評価するためのシステムおよび方法

Also Published As

Publication number Publication date
JP4603974B2 (ja) 2010-12-22

Similar Documents

Publication Publication Date Title
JP4603974B2 (ja) コンテンツ注目評価装置及びコンテンツ注目評価方法
JP4603975B2 (ja) コンテンツ注目評価装置及び評価方法
JP6123140B2 (ja) デジタル広告システム
US8438175B2 (en) Systems, methods and articles for video analysis reporting
US20130067513A1 (en) Content output device, content output method, content output program, and recording medium having content output program recorded thereon
US20090217315A1 (en) Method and system for audience measurement and targeting media
CN110097389A (zh) 一种广告流量反作弊方法
KR101348142B1 (ko) 얼굴인식기술을 이용하여 분류된 개인 또는 그룹 유형별 맞춤형 콘텐츠 제공 방법 및 그러한 시스템
JP2010218550A (ja) 人流計測システム
CN101588443A (zh) 基于人脸检测的电视收视率统计装置及检测方法
KR101390296B1 (ko) 개인 맞춤형 서비스 과금방법 및 장치
US20130195322A1 (en) Selection of targeted content based on content criteria and a profile of users of a display
JP2009139857A (ja) コンテンツ表示制御装置、コンテンツ表示制御方法およびコンテンツ表示制御プログラム
CN103914691A (zh) 基于人脸识别的目标群体分析系统、方法及身高识别方法
JP4159159B2 (ja) 広告メディア評価装置
JP2012252613A (ja) 顧客行動追跡型映像配信システム
CN111639702A (zh) 一种多媒体数据分析方法、设备、服务器及可读存储介质
JP2019066700A (ja) 制御方法、情報処理装置及び制御プログラム
CA2687348A1 (en) Method and system for audience measurement and targeting media
CN105938603A (zh) 一种基于机器视觉的人员感兴趣程度检测系统及方法
CN117408757B (zh) 一种用于广告投放效果监测的智能评估系统
CN105955451A (zh) 基于用户图像的出行提示方法
WO2021104388A1 (en) System and method for interactive perception and content presentation
CN111476600B (zh) 直梯广告受众人数统计分析方法
US20210383667A1 (en) Method for computer vision-based assessment of activities of daily living via clothing and effects

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100622

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100820

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100907

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101004

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131008

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees