JP5103287B2 - ADVERTISEMENT EFFECT MEASUREMENT DEVICE, ADVERTISEMENT EFFECT MEASUREMENT METHOD, ADVERTISEMENT EFFECT MEASUREMENT PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM - Google Patents

ADVERTISEMENT EFFECT MEASUREMENT DEVICE, ADVERTISEMENT EFFECT MEASUREMENT METHOD, ADVERTISEMENT EFFECT MEASUREMENT PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM Download PDF

Info

Publication number
JP5103287B2
JP5103287B2 JP2008151422A JP2008151422A JP5103287B2 JP 5103287 B2 JP5103287 B2 JP 5103287B2 JP 2008151422 A JP2008151422 A JP 2008151422A JP 2008151422 A JP2008151422 A JP 2008151422A JP 5103287 B2 JP5103287 B2 JP 5103287B2
Authority
JP
Japan
Prior art keywords
detection
face
state
current frame
passed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008151422A
Other languages
Japanese (ja)
Other versions
JP2009301085A (en
Inventor
慎吾 安藤
章 鈴木
秀樹 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008151422A priority Critical patent/JP5103287B2/en
Publication of JP2009301085A publication Critical patent/JP2009301085A/en
Application granted granted Critical
Publication of JP5103287B2 publication Critical patent/JP5103287B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Description

本発明は、カメラと人物顔検出・姿勢推定技術を利用して広告メディアの効果を客観的に測定できる広告効果測定装置、広告効果測定方法、広告効果測定プログラムおよびそのプログラムを記録した記録媒体に関するものである。 The present invention relates to an advertisement effect measuring apparatus, an advertisement effect measuring method, an advertisement effect measuring program, and a recording medium on which the program is recorded, which can objectively measure the effect of advertisement media using a camera and a human face detection / posture estimation technique. Is.

近年、“ディジタルサイネージ”と呼ばれる、屋外や店頭でエレクトリックな表示機器を用いて映像を発信する広告メディアが急速に普及しはじめている。この新しい広告形態は、ネットワークと連携することで広告主が最新情報をリアルタイムに発信・更新できるため、従来の広告メディアより費用対効果が高いと考えられている。それに伴って、広告効果を客観的に測定する技術が強く求められるようになった。   In recent years, advertising media called “digital signage”, which transmits images using electric display devices outdoors or in stores, has begun to spread rapidly. This new advertising form is considered to be more cost-effective than conventional advertising media because advertisers can send and update the latest information in real time by cooperating with the network. Along with this, a technique for objectively measuring advertising effectiveness has been strongly demanded.

広告効果を客観的に測定する方法として、特許文献1に記載の方法が知られている。これは、広告メディア側にカメラを設置し、カメラに映った人物を輪郭情報等に基づき抽出して、その抽出された数を広告メディアへの注目度合いとして評価しその評価値を集計するものである。これに、顔検出技術(例えば、非特許文献1)等を組み合わせることで、より精確な注目度合いを計測することができる。また、顔の姿勢を高精度に推定する方法としては、例えば非特許文献2に記載の方法が提案されている。
特許第3757584号公報 三田雄志, 金子敏充, 堀修,“個体差のある対象の画像照合に適した確率的増分符号相関”,電子情報通信学会論文誌D-II, Vol. J88-D-II, No.8, pp.1614-1623, 2005. 安藤慎吾, 草地良規, 鈴木章, 荒川賢一,“サポートベクトル回帰を用いた三次元物体の姿勢推定法”,電子情報通信学会論文誌D, Vol.J89-D No.8, pp.1840-1847, 2006.
As a method for objectively measuring the advertising effect, a method described in Patent Document 1 is known. This is to install a camera on the advertising media side, extract the person reflected in the camera based on the contour information, etc., evaluate the extracted number as the degree of attention to the advertising media, and total the evaluation values is there. By combining this with a face detection technique (for example, Non-Patent Document 1), it is possible to measure a more accurate degree of attention. For example, a method described in Non-Patent Document 2 has been proposed as a method for estimating the posture of a face with high accuracy.
Japanese Patent No. 3757584 Yuji Mita, Toshimitsu Kaneko, Osamu Hori, “Probabilistic Incremental Sign Correlation Suitable for Image Matching of Individual Differences”, IEICE Transactions D-II, Vol. J88-D-II, No. 8, pp.1614-1623, 2005. Shingo Ando, Yoshinori Kusachi, Akira Suzuki, Kenichi Arakawa, “Pose Estimation Method for 3D Objects Using Support Vector Regression”, IEICE Transactions D, Vol.J89-D No.8, pp.1840-1847 , 2006.

しかし、一般に知られている顔検出手法は顔の向きや照明変動等に影響されやすいだけでなく、顔と似たパターンにも反応しやすいため、一時的に背景から顔として誤検出される場合(以下、過検出と称する)や、それとは逆に、一時的に顔が検出できなくなる場合(以下、検出漏れと称する)があり得る。そのため、評価集計値にノイズが混入し不正確な集計結果となる。具体的には、過検出において、人数が実際より多くカウントされてしまう。また、検出漏れにおいて、人数が実際より少なくカウントされることや、同一人物が二人以上と誤って多めにカウントされてしまう(異なるフレームで一時的に顔をロストしてしまうと、ロスト時点より前と後とで同一人物が別の人と判断されてしまうため)ことが考えられる。これらは人物トラッキング技術等を単純に導入しただけでは解決されない問題である。なぜなら、トラッキングでは検出結果を訂正する(例えば、後から削除する)といった操作は含まれないからである。   However, generally known face detection methods are not only easily affected by face orientation and lighting fluctuations, but also easily react to patterns similar to faces, so if they are temporarily detected as a face from the background On the contrary, there may be a case where the face cannot be detected temporarily (hereinafter referred to as detection omission). Therefore, noise is mixed into the evaluation summary value, resulting in an inaccurate count result. Specifically, in overdetection, the number of people is counted more than actual. In addition, in the detection failure, the number of people is counted less than the actual number, or the same person is mistakenly counted more than two (if you lose your face temporarily in different frames, (Because the same person is judged as another person before and after). These are problems that cannot be solved simply by introducing a person tracking technique or the like. This is because tracking does not include an operation of correcting the detection result (for example, deleting it later).

本発明は上記の問題点に鑑みてなされたものであり、その目的は、顔検出が不完全なものであっても、精度の高い注目者数を算出でき、広告効果として測定できる広告効果測定装置、広告効果測定方法、広告効果測定プログラムおよびそのプログラムを記録した記録媒体を提供することにある。   The present invention has been made in view of the above-mentioned problems, and its purpose is to measure the advertising effect, which can calculate the number of attentions with high accuracy and measure it as an advertising effect even if face detection is incomplete. An apparatus, an advertisement effect measuring method, an advertisement effect measuring program, and a recording medium recording the program are provided.

上記目的を達成するために、本発明では、人物が広告メディアを注視している時間を測定し、その集計結果として、決められた期間内(例えば1日)における任意時間以上注視した人物の数を算出する。集計結果の例を図1に示す。これにより、一瞬しか広告メディアを見なかったもの(過検出もこれに含まれると考える)は除外されるため、信頼性の高い数値を算出できるばかりでなく、長時間広告メディアを見ていた人物だけ映っている一部映像を抽出し、人間が目視確認することで、広告効果のより詳細な分析をも可能とする。   In order to achieve the above object, in the present invention, the time when a person is gazing at the advertising media is measured, and as a result of the aggregation, the number of persons gazing at an arbitrary time or more within a predetermined period (for example, one day) Is calculated. An example of the total result is shown in FIG. This excludes things that only saw advertising media for an instant (considering overdetection is also included in this), so not only can you calculate highly reliable figures, but people who have seen advertising media for a long time By extracting a part of the video that is only visible and being visually confirmed by humans, it is possible to analyze the advertising effect in more detail.

また、顔検出状態を、(1)仮検出、(2)正検出、(3)注視の3状態として定義する。そして、時間的に一つ前の検出結果を利用して各々の検出顔をこの3状態のいずれか一つに割り当て、各人物の状態遷移を記録し集計することでより正確な注目者数を算出し広告効果として測定する。人物が広告メディアを注視しているかどうかは、顔検出後に顔姿勢推定を行い、顔が特定範囲内の方角を向いているかどうか調べることで判定可能である。   Further, the face detection state is defined as three states of (1) provisional detection, (2) positive detection, and (3) gaze. Then, using the previous detection result in time, each detected face is assigned to one of these three states, and the state transition of each person is recorded and aggregated, so that the more accurate number of attention can be obtained. Calculate and measure as advertising effectiveness. Whether or not a person is paying attention to the advertising media can be determined by performing face posture estimation after detecting the face and examining whether the face is oriented in a specific range.

すなわち、請求項1に記載の広告効果測定装置は、広告メディア近傍に設置されたカメラで撮影し、該広告メディアを注目しているとみなせる人物の数を計数して広告効果を客観的に測定する広告効果測定装置であって、前記カメラで撮影された画像をデジタルデータとして入力する画像入力手段と、前記画像入力手段に入力された入力画像から顔のある領域を検出する顔検出手段と、前記顔検出手段において検出された顔領域をもとに、顔の姿勢を表すパラメータ値を推定する顔姿勢推定手段と、前記顔検出手段から渡される検出位置、大きさ、顔類似度と、前記顔姿勢推定手段から渡される顔姿勢パラメータと、前検出状態記憶手段から渡される前フレームでの検出位置、大きさ、顔状態とに基づいて、検出された顔の現フレームの顔状態を判別する状態判別手段と、前記状態判別手段から渡される現フレームの顔状態と前検出状態記憶手段から渡される検出IDおよび注視時間に基づいて、検出された顔の検出IDと注視時間情報を付与する検出ID・注視時間付与手段と、前記顔検出手段から渡される顔検出時刻、検出位置、大きさと、前記状態判別手段から渡される顔状態と、前記検出ID・注視時間付与手段から渡される検出ID、注視時間の各情報を一時的に記憶する前検出状態記憶手段と、前記顔検出手段から渡される顔検出時刻と前記検出ID・注視時間付与手段から渡される検出ID、注視時間に基づいて、検出結果である検出時刻、検出ID、注視時間の各情報をピックアップし注目者ログとして蓄積する注目者ログ記憶手段と、前記注目者ログ記憶手段から渡される注目者ログに基づいて、注目者ログから指定期間内の注目者を計数する注目者数集計手段と、前記注目者数集計手段で集計された結果を出力する結果出力手段とを備え、前記状態判別手段は、現フレームでの大きさと前フレームでの大きさの差が決められた範囲内にあるという第1の条件と、現フレームでの検出位置と前フレームでの検出位置との距離が決められた範囲内にあるという第2の条件と、現フレームにおける顔姿勢パラメータが指定範囲内という第3の条件に対して、現フレームにおける検出顔を顔類似度が高いものから順に前フレームの検出顔と対応付けを行い、第1の条件あるいは第2の条件を満たさなければ現フレームの顔状態を仮検出結果と判定し、第1の条件と第2の条件を満たすが第3の条件を満たさなければ現フレームの顔状態を正検出結果と判定し、3つの条件のいずれをも満たせば現フレームの顔状態を正検出結果且つ注視状態と判定し、前記検出ID・注視時間付与手段は、現フレームでの顔状態が正検出結果且つ注視状態であるときに、前フレームと現フレームの時間差を注視時間に加える、ことを特徴としている。 In other words, the advertising effect measuring device according to claim 1 shoots with a camera installed in the vicinity of the advertising media, counts the number of persons who can be regarded as paying attention to the advertising media, and objectively measures the advertising effectiveness. An advertising effect measuring device, wherein the image input means for inputting an image captured by the camera as digital data, and a face detection means for detecting an area with a face from the input image input to the image input means, Based on the face area detected by the face detecting means, a face posture estimating means for estimating a parameter value representing a face posture, a detection position, a size, a face similarity passed from the face detecting means, a face pose parameters passed from the face pose estimation means, detecting the position of the previous frame that is passed from the previous detection status storage means, the size, based on the face state, like the face of the current frame of the detected face A state judging means for judging, based on the detected ID and gaze time passed from the face condition of the current frame prior to detection condition storing means passed from said state discriminating means, the detection ID and watching time information of the detected face Detection ID / gaze time giving means to be given, face detection time, detection position and size passed from the face detection means, face state passed from the state discrimination means, and passed from the detection ID / gaze time giving means Based on pre-detection state storage means for temporarily storing each information of detection ID and gaze time, face detection time passed from the face detection means, detection ID passed from the detection ID / gaze time giving means, and gaze time An attention log storage means for picking up each information of detection time, detection ID, and gaze time, which is a detection result, and accumulating as an attention log, and the attention log storage means Based on the interest who logs passed includes a target's tally means for counting the attention persons within a specified time period from the target's log, and a result output means for outputting a result of the aggregation in the interest toll collecting unit, The state determination means includes a first condition that a difference between a size in the current frame and a size in the previous frame is within a determined range, and a detection position in the current frame and a detection position in the previous frame. With respect to the second condition that the distance is within the determined range and the third condition that the face posture parameter in the current frame is within the specified range, the detected face in the current frame is preceded in descending order of face similarity. If the first condition or the second condition is not satisfied, the face state of the current frame is determined as a temporary detection result, and the first condition and the second condition are satisfied. Must meet the requirements If so, the face state of the current frame is determined as the positive detection result, and if any of the three conditions is satisfied, the face state of the current frame is determined as the positive detection result and the gaze state, and the detection ID / gaze time giving means is When the face state in the current frame is the positive detection result and the gaze state, the time difference between the previous frame and the current frame is added to the gaze time .

また請求項2に記載の広告効果測定装置は、請求項1において、前記注目者数集計手段は、計数すべき注目者を、指定時間以上広告を注視し続けていた人物であると定義して計数を行うことを特徴としている。 The advertisement effect measurement apparatus according to claim 2, Oite to claim 1, wherein the target's tally means, and the target's to be counted, a person continues to watch the advertisement specified time or more defined And counting.

また、請求項3に記載の広告効果測定方法は、広告メディア近傍に設置されたカメラで撮影し、該広告メディアを注目しているとみなせる人物の数を計数して広告効果を客観的に測定する広告効果測定方法であって、画像入力手段が、前記カメラで撮影された画像をデジタルデータとして入力する画像入力ステップと、顔検出手段が、前記画像入力ステップにより入力された入力画像から顔のある領域を検出する顔検出ステップと、顔姿勢推定手段が、前記顔検出ステップにより検出された顔領域をもとに、顔の姿勢を表すパラメータ値を推定する顔姿勢推定ステップと、状態判別手段が、前記顔検出手段から渡される検出位置、大きさ、顔類似度と、前記顔姿勢推定手段から渡される顔姿勢パラメータと、前検出状態記憶手段から渡される前フレームでの検出位置、大きさ、顔状態とに基づいて、検出された顔の現フレームの顔状態を判別する状態判別ステップと、検出ID・注視時間付与手段が、前記状態判別手段から渡される現フレームの顔状態と前検出状態記憶手段から渡される検出IDおよび注視時間に基づいて、検出された顔の検出IDと注視時間情報を付与する検出ID・注視時間付与ステップと、前検出状態記憶手段が、前記顔検出手段から渡される顔検出時刻、検出位置、大きさと、前記状態判別手段から渡される顔状態と、前記検出ID・注視時間付与手段から渡される検出ID、注視時間の各情報を一時的に記憶する前検出状態記憶ステップと、注目者ログ記憶手段が、前記顔検出手段から渡される顔検出時刻と前記検出ID・注視時間付与手段から渡される検出ID、注視時間に基づいて、検出結果である検出時刻、検出ID、注視時間の各情報をピックアップし注目者ログとして蓄積する注目者ログ記憶ステップと、注目者数集計手段が、前記注目者ログ記憶手段から渡される注目者ログに基づいて、注目者ログから指定期間内の注目者を計数する注目者数集計ステップと、結果出力手段が、前記注目者数集計ステップにより集計された結果を出力する結果出力ステップとを備え、前記状態判別ステップは、現フレームでの大きさと前フレームでの大きさの差が決められた範囲内にあるという第1の条件と、現フレームでの検出位置と前フレームでの検出位置との距離が決められた範囲内にあるという第2の条件と、現フレームにおける顔姿勢パラメータが指定範囲内という第3の条件に対して、現フレームにおける検出顔を顔類似度が高いものから順に前フレームの検出顔と対応付けを行い、第1の条件あるいは第2の条件を満たさなければ現フレームの顔状態を仮検出結果と判定し、第1の条件と第2の条件を満たすが第3の条件を満たさなければ現フレームの顔状態を正検出結果と判定し、3つの条件のいずれをも満たせば現フレームの顔状態を正検出結果且つ注視状態と判定し、前記検出ID・注視時間付与ステップは、現フレームでの顔状態が正検出結果且つ注視状態であるときに、前フレームと現フレームの時間差を注視時間に加える、ことを特徴としている。 Further, the advertisement effect measuring method according to claim 3 is an objective measurement of the advertisement effect by counting the number of persons who are photographed with a camera installed in the vicinity of the advertisement medium and counting the advertisement medium as being noticed. An advertisement effect measuring method, wherein an image input unit inputs an image captured by the camera as digital data, and a face detection unit detects a face from the input image input by the image input step. A face detecting step for detecting a certain area; a face posture estimating means for estimating a parameter value representing the face posture based on the face area detected by the face detecting step; and a state determining means. Are detected position, size, and face similarity passed from the face detection means, face posture parameters passed from the face posture estimation means, and pre-detection state storage means Detecting position of a frame, the size, based on the face state, and a state determination step of determining the face status of the current frame of the detected face, the detection ID · gaze time providing means, is passed from the state discriminating means Based on the face state of the current frame and the detection ID and the gaze time passed from the previous detection state storage means, a detection ID / gaze time provision step for providing the detected face detection ID and gaze time information, and the pre-detection state storage Each information of the face detection time, detection position and size passed from the face detection means, the face state passed from the state determination means, the detection ID passed from the detection ID / gaze time giving means, and the gaze time The pre-detection state storage step for temporarily storing the information and the attention log storage means are received from the face detection time passed from the face detection means and the detection ID / gaze time provision means. An attention log storage step of picking up each information of detection time, detection ID, and attention time as detection results based on the detection ID and the attention time, and accumulating it as an attention log; Based on the attention log delivered from the log storage means, the number-of-interests counting step for counting the number of attentions within the specified period from the attention log, and the result output means, the results aggregated by the number-of-interests counting step A result output step for outputting, wherein the state determination step includes a first condition that a difference between a size in the current frame and a size in the previous frame is within a predetermined range, and a detection position in the current frame. And the third condition that the distance between the detection position in the previous frame is within the determined range and the third condition that the face posture parameter in the current frame is within the specified range The detected face in the current frame is associated with the detected face of the previous frame in descending order of face similarity, and if the first condition or the second condition is not satisfied, the face state of the current frame is determined as the provisional detection result If the first condition and the second condition are satisfied but the third condition is not satisfied, the face state of the current frame is determined as a positive detection result. If any of the three conditions is satisfied, the face state of the current frame is determined. The positive detection result and the gaze state are determined, and the detection ID / gaze time adding step adds the time difference between the previous frame and the current frame to the gaze time when the face state in the current frame is the positive detection result and the gaze state. , it is characterized in that.

また請求項4に記載の広告効果測定方法は、請求項3において、前記注目者数集計ステップは、計数すべき注目者を、指定時間以上広告を注視し続けていた人物であると定義して計数を行うことを特徴としている。 The advertisement effect measuring method according to claim 4, Oite to claim 3, wherein the target's tally step and a target person to be counted, a person continues to watch the advertisement specified time or more defined And counting.

また、請求項5に記載の広告効果測定プログラムは、コンピュータに請求項3又は4に記載の各ステップを実行させる広告効果測定プログラムである。 An advertisement effect measurement program according to claim 5 is an advertisement effect measurement program that causes a computer to execute each step according to claim 3 or 4 .

また、請求項6に記載の記録媒体は、コンピュータに請求項3又は4に記載の各ステップを実行させる広告効果測定プログラムを記録したコンピュータ読み取り可能な記録媒体である。
A recording medium according to claim 6 is a computer-readable recording medium in which an advertisement effect measurement program for causing a computer to execute the steps according to claim 3 or 4 is recorded.

本発明によれば、人物が広告メディアを注視している時間を測定し、集計結果として任意時間以上注視した人物の数を測定すること、また、顔検出状態を(1)仮検出、(2)正検出、(3)注視の3状態として定義し、その状態遷移を記録し集計することによって、顔検出が不完全でも精度の良い広告効果測定を実現することができる。   According to the present invention, the time during which a person is gazing at an advertising medium is measured, and the number of persons who have been gazing for an arbitrary time or more is measured as a totaling result. It is possible to realize accurate advertisement effect measurement even if face detection is incomplete by defining three states of positive detection and (3) gaze and recording and counting the state transitions.

また、過検出により人数が実際よりも多くなることや、検出漏れにより人数が実際よりも少なくなること、および、同様に検出漏れにより1人の人を別の時刻で別人と判定してしまうことにより実際の人数よりも多くなること等が無くなり、精度の高い測定ができる。   In addition, the number of people increases due to over-detection, the number of people decreases due to over-detection, and the number of people decreases due to over-detection. Similarly, one person is determined to be another person at another time due to over-detection. As a result, the actual number of persons is not increased, so that highly accurate measurement can be performed.

以下、図面を参照しながら本発明の実施の形態を説明するが、本発明は下記の実施形態例に限定されるものではない。図2は、本発明に係る実施形態の広告効果測定装置の構成を示すブロック図である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings, but the present invention is not limited to the following embodiments. FIG. 2 is a block diagram showing the configuration of the advertisement effect measuring apparatus according to the embodiment of the present invention.

図2において、本実施形態例の広告効果測定装置は、画像入力手段としての画像入力部11と、顔検出手段としての顔検出部12と、顔姿勢推定手段としての顔姿勢推定部13と、状態判別手段としての状態判別部14と、検出ID・注視時間付与手段としての検出ID・注視時間付与部15と、前検出状態記憶手段としての前検出状態記憶部16と、注目者ログ記憶手段としての注目者ログ記憶部17と、注目者数集計手段としての注目者数集計部18と、結果出力手段としての結果出力部19とを備え、前記各部の機能は例えばコンピュータにより達成される。   In FIG. 2, the advertisement effect measuring apparatus according to the present embodiment includes an image input unit 11 as an image input unit, a face detection unit 12 as a face detection unit, a face posture estimation unit 13 as a face posture estimation unit, A state determination unit 14 as a state determination unit, a detection ID / gaze time provision unit 15 as a detection ID / gaze time provision unit, a pre-detection state storage unit 16 as a pre-detection state storage unit, and an attention log storage unit As the attention log storage unit 17 as the above, a number-of-interests counting unit 18 as the number-of-interests counting unit, and a result output unit 19 as the result output unit, the function of each unit is achieved by, for example, a computer.

図3は本発明の広告効果測定方法の実施形態を示し、図2の広告効果測定装置で行われる処理のフローチャートである。本実施形態の広告効果測定方法の全体は大きく2つの過程に分けられる。すなわち、カメラに映った注目者の情報をログ(以下、注目者ログと称する)として残す過程(図3(a)の各ステップ)と、注目者ログを集計し出力する過程(図3(b)の各ステップ)である。   FIG. 3 shows an embodiment of the advertisement effect measuring method of the present invention, and is a flowchart of processing performed by the advertisement effect measuring apparatus of FIG. The entire advertisement effect measuring method of this embodiment is roughly divided into two processes. That is, the process of leaving the information of the attention reflected on the camera as a log (hereinafter referred to as the attention log) (each step in FIG. 3A), and the process of counting and outputting the attention log (FIG. 3B Each step)).

以下、本実施形態例を図2、図3とともに詳細に説明する。   Hereinafter, this embodiment will be described in detail with reference to FIGS.

画像入力部11では、カメラにより入力される画像情報を顔検出部12に伝送する(ステップS11)。カメラは広告メディア掲示位置の近傍(例えば上部)に設置するものとする。また、広告メディアとしては、ディジタルサイネージ以外にも通常のポスター広告や一般家庭のTV等も含まれる。   The image input unit 11 transmits image information input by the camera to the face detection unit 12 (step S11). Assume that the camera is installed in the vicinity (for example, the upper part) of the advertisement media posting position. In addition to digital signage, the advertisement media includes ordinary poster advertisements, general home TVs, and the like.

顔検出部12では、画像入力部から伝送された各画像から顔のある領域を検出する(ステップS12)。この処理は、例えば非特許文献1に開示された確率的増分符号相関などの統計的手法を利用して高速に検出することが可能である。なお、ここで検出に用いた顔らしさを示す類似度は後の状態判別部14で使用される。   The face detection unit 12 detects a region with a face from each image transmitted from the image input unit (step S12). This process can be detected at high speed using a statistical method such as stochastic incremental code correlation disclosed in Non-Patent Document 1, for example. It should be noted that the similarity indicating the face-likeness used for detection here is used in the state determination unit 14 later.

顔姿勢推定部13では、検出された顔領域の明度パターンを入力として、顔の姿勢を高精度に推定する(ステップS13)。具体的には、非特許文献2に開示されている主成分分析とサポートベクトル回帰を組み合わせたパラメータ推定法などが適用可能である。ここで、顔の姿勢を表すパラメータはyaw角、pitch角の2種類である。   The face posture estimation unit 13 estimates the face posture with high accuracy by using the detected brightness pattern of the face area as an input (step S13). Specifically, a parameter estimation method combining principal component analysis and support vector regression disclosed in Non-Patent Document 2 can be applied. Here, there are two types of parameters representing the posture of the face, the yaw angle and the pitch angle.

状態判別部14では、後で記す前検出状態記憶部16から前フレームでの検出顔位置、大きさとその状態を参照し、現フレームでの各検出顔の状態を判別する(ステップS14)。ここで、検出顔の状態を以下の3種類とする。   The state determination unit 14 refers to the detected face position, size, and state in the previous frame from the previous detection state storage unit 16 described later, and determines the state of each detected face in the current frame (step S14). Here, the detected face states are the following three types.

状態1:仮検出結果
状態2:正検出結果
状態3:正検出結果、且つ注視状態
まず、現フレームの各検出顔を、顔らしさを示す類似度でソートする。そして、類似度の高いものから順番に、前フレームの検出顔と対応付けていく。対応付けは1対1に行われ、以下の2条件を両方満たすものと対応付けられるものとする。
State 1: Temporary detection result State 2: Positive detection result State 3: Positive detection result and gaze state First, each detected face of the current frame is sorted by similarity indicating the likelihood of a face. Then, the detection faces in the previous frame are associated with the detected faces in descending order of similarity. Associating is performed on a one-to-one basis, and is associated with a condition that satisfies both of the following two conditions.

条件1:現フレーム検出顔の大きさをsとした場合、前フレーム検出顔の大きさspreが以下の式(1)に当てはまること。 Condition 1: When the size of the current frame detection face is s, the size s pre of the previous frame detection face is applied to the following equation (1).

Figure 0005103287
Figure 0005103287

条件2:現フレーム検出顔の中心位置を(x、y)とした場合、前フレーム検出顔の中心位置(xpre,ypre)が以下の式(2)に当てはまること。 Condition 2: When the center position of the current frame detection face is (x, y), the center position (x pre , y pre ) of the previous frame detection face is applied to the following equation (2).

Figure 0005103287
Figure 0005103287

ここで、kmin、kmax、lmin、lmax、mmin、mmaxはあらかじめ与えられる定数である。また、該当するものが2個以上ある場合、中心位置どうしの距離が最も小さいものを採用することとする。そして、現フレームの全ての検出顔が対応付けられた後に、図4に基づいてそれらの状態を決定する。 Here, kmin , kmax , lmin , lmax , mmin , mmax are constants given in advance. If there are two or more applicable items, the one with the shortest distance between the center positions is adopted. Then, after all the detected faces in the current frame are associated, their states are determined based on FIG.

図4において、前フレームの検出結果が状態1であるとき、現フレームに、対応付けられた(前記式(1)、式(2)の2条件を満たす)検出結果が存在するか否かを判別し(ステップS14a)、存在しない場合は現フレームの検出結果を検出なしとする。   In FIG. 4, when the detection result of the previous frame is in state 1, whether or not there is a detection result associated with the current frame (satisfying the two conditions of the expressions (1) and (2)) exists. If it does not exist, the detection result of the current frame is set as no detection.

また前フレームの検出結果が状態2、状態3であるとき、現フレームに、対応付けられた(前記式(1)、式(2)の2条件を満たす)検出結果が存在するか否かを判別し(ステップS14b)、存在しない場合は現フレームの検出結果を状態1とする(尚この場合は、前フレームの検出位置、大きさを継承して現フレームの検出結果に反映する。   When the detection result of the previous frame is in state 2 and state 3, whether or not there is a detection result associated with the current frame (satisfying the two conditions of the expressions (1) and (2)) exists. If it does not exist, the current frame detection result is set to state 1 (in this case, the detection position and size of the previous frame are inherited and reflected in the current frame detection result).

前記ステップS14aおよび前記ステップS14bにおいて、対応付けられた検出結果が存在する場合は、ステップS14cにおいて姿勢は指定範囲内であるかどうかを判別する。指定範囲ではない場合は現フレームの検出結果を状態2とし、指定範囲内である場合は状態3とする。   If there is an associated detection result in step S14a and step S14b, it is determined in step S14c whether the posture is within the specified range. If it is not within the specified range, the detection result of the current frame is set to state 2. If it is within the specified range, state 3 is set.

また前フレームの検出結果が検出なしであるとき、現フレームに、前フレームのどの結果とも対応付けられなかったものが残存するかどうかを判別し(ステップS14d)、残存する場合は現フレームの検出結果を状態1とする。   When the detection result of the previous frame is not detected, it is determined whether or not the current frame remains uncorrelated with any result of the previous frame (step S14d). The result is state 1.

前記ステップS14cにおける姿勢が指定範囲内とは、現フレーム検出顔の姿勢パラメータyaw、pitchが以下の式(3)を満たす場合を指す。   The posture in step S14c within the specified range indicates a case where the posture parameters yaw and pitch of the current frame detection face satisfy the following expression (3).

Figure 0005103287
Figure 0005103287

なお、ymin、ymax、pmin、pmaxはあらかじめ与えられる定数である。これらの値を適切に設定することにより、カメラと広告メディアとの相対的な位置関係にある程度の自由度を持たせることができる。例えば、ななめ横から撮影するような状態にも対応可能である。図5に、状態判別の結果例を示す。 Note that y min , y max , p min , and p max are constants given in advance. By appropriately setting these values, a certain degree of freedom can be given to the relative positional relationship between the camera and the advertising media. For example, it is possible to cope with a state where the image is taken from the side of the slant. FIG. 5 shows an example of the result of state determination.

検出ID・注視時間付与部15では、それぞれの検出顔の状態と対応付けられた前フレームの検出顔が持つ検出ID情報および注視時間情報に基づき、現フレームでの検出ID情報と注視時間情報を付与する(ステップS15)。具体的な方法を図5とともに説明する。   The detection ID / gaze time providing unit 15 obtains the detection ID information and the gaze time information in the current frame based on the detection ID information and the gaze time information of the detection face of the previous frame associated with each detected face state. Grant (step S15). A specific method will be described with reference to FIG.

図5において、状態1であり、且つ前フレームに対応する検出顔が存在しない場合(ID:12)、新規の検出ID(ID:14)を発行して付与して、注視時間を0秒とする。また、状態1であり、且つ前フレームに対応する検出顔が存在する場合(ID:11)、検出IDおよび注視時間情報を対応する前フレーム検出顔からそのまま継承する。   In FIG. 5, when it is in state 1 and there is no detected face corresponding to the previous frame (ID: 12), a new detection ID (ID: 14) is issued and assigned, and the gaze time is set to 0 second. To do. If the detected face corresponding to the previous frame is in the state 1 (ID: 11), the detection ID and the gaze time information are inherited from the corresponding previous frame detected face as they are.

また状態2の場合(ID:10)、検出IDおよび注視時間情報を対応する前フレーム検出顔からそのまま継承する。   In the case of state 2 (ID: 10), the detection ID and gaze time information are directly inherited from the corresponding previous frame detection face.

また状態3の場合(ID:13)、検出IDを前フレームからそのまま継承し、注視時間を、(対応する前フレーム検出顔が持つ注視時間情報)+(前フレーム−現フレーム間の経過時間)とする。尚図5では、前フレーム−現フレーム間の経過時間を1secとしている。   In the case of state 3 (ID: 13), the detection ID is inherited from the previous frame as it is, and the gaze time is (gaze time information of the corresponding previous frame detection face) + (elapsed time between the previous frame and the current frame). And In FIG. 5, the elapsed time between the previous frame and the current frame is 1 sec.

前検出状態記憶部16では、現フレームでの全ての顔検出時刻、位置、大きさ、状態、検出ID、注視時間をメモリかHDDに記録する(ステップS16)。その際、前回記録した分は消去する。   The pre-detection state storage unit 16 records all face detection times, positions, sizes, states, detection IDs, and gaze times in the current frame in the memory or HDD (step S16). At that time, the previously recorded data is deleted.

注目者ログ記憶部17では、現フレームでの全ての検出顔の検出時刻、検出ID、注視時間をメモリかHDDに注目者ログとして記録し記憶する(ステップS17)。その際、前回記録した分は消去せず、追記のかたちとする。   The attention log storage unit 17 records and stores the detection time, detection ID, and gaze time of all detected faces in the current frame as a attention log in the memory or HDD (step S17). At that time, the previously recorded data will not be erased and will be added.

これらステップS11〜S17の処理はカメラ入力が終わるまで繰り返し実行される。   The processes in steps S11 to S17 are repeatedly executed until the camera input is completed.

次に注目者数集計部18では、注目者ログ記憶部17で記録された注目者ログ、対象期間(ユーザーが指定)、および注視時間しきい値(ユーザーが指定)を入力し、注目者数を計数する(ステップS18)。   Next, the number-of-interests counting unit 18 inputs the attention log, the target period (specified by the user), and the gaze time threshold (specified by the user) recorded in the attention-log storage unit 17, and the number of attentions Are counted (step S18).

具体的には、まず、対象期間内の注目者ログを抽出する。対象期間はユーザーが指定するものであるが、ディジタルサイネージやTVCM等では対象広告が一部時間帯に限定されている場合も考えられる。その場合は、対象広告のタイムスケジュール情報を入力し、広告表示されている時間帯でさらに絞り込む。   Specifically, first, an attention log within the target period is extracted. Although the target period is specified by the user, there may be a case where the target advertisement is limited to a part of the time zone in digital signage, TVCM, or the like. In that case, the time schedule information of the target advertisement is input and further narrowed down by the time zone in which the advertisement is displayed.

次に、検出時刻が最も遅いものから順に参照しつつ、検出IDの異なる検出顔情報(検出時刻、検出ID、注視時間)を一つずつピックアップしていく。この操作により、同一検出IDの顔検出情報は注視時間情報が最大のものだけ唯一つ残されることになる。さらに、注視時間情報が注視時間しきい値より小さいものを除外する。最終的に残った検出顔の数を数え、注目者数とする。注視時間しきい値は複数指定しても良い。その場合、注目者数は図1のように複数算出されることになる。また、注目者数は、単位時間あたりの注目者数で表現するのでも良い(例えば、1日あたりの注目者数を1ヶ月間で集計)。さらに、複数の注視時間しきい値を設けた場合、それぞれの注目者数に重み付けして足し算し、総合評価点として用いても良い。   Next, the detection face information (detection time, detection ID, gaze time) with different detection IDs is picked up one by one while referring to the detection time from the latest detection time. By this operation, only one face detection information with the same detection ID is left with the maximum gaze time information. Further, the case where the gaze time information is smaller than the gaze time threshold is excluded. The number of detected faces finally remaining is counted as the number of attention. A plurality of gaze time threshold values may be specified. In that case, a plurality of attention numbers are calculated as shown in FIG. Further, the number of attentions may be expressed by the number of attentions per unit time (for example, the number of attentions per day is totaled for one month). Further, when a plurality of gaze time threshold values are provided, the number of viewers may be weighted and added to be used as an overall evaluation score.

結果出力部19では、注目者数集計部18で得られた集計結果を出力する(ステップS19)。   The result output unit 19 outputs the counting result obtained by the number-of-interests counting unit 18 (step S19).

また、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のCPU(MPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、実現できる。その場合、記憶媒体から読み出されたプログラムコード自体が上述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体、例えばCD-ROM、DVD-ROM、CD-R、CD-RW、MO、HDD等は本発明を構成する。   Further, the present invention supplies a storage medium (recording medium) that records software program codes for realizing the functions of the above-described embodiments to a system or apparatus, and the CPU (MPU) of the system or apparatus stores the storage medium. This can also be realized by reading and executing the stored program code. In that case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code, for example, CD-ROM, DVD-ROM, CD-R, CD-RW, MO, HDD, etc. constitute the present invention.

本発明の実施形態例における注目者数の集計結果の一例を示す説明図。Explanatory drawing which shows an example of the total result of the number of attention in the example embodiments of the present invention. 本発明の広告効果測定装置の実施形態例を示すブロック図。The block diagram which shows the example of embodiment of the advertising effectiveness measuring apparatus of this invention. 本発明の広告効果測定方法の実施形態例を示すフローチャート。The flowchart which shows the example of embodiment of the advertisement effect measuring method of this invention. 本発明の実施形態例における状態判別処理を示す説明図。Explanatory drawing which shows the state discrimination | determination process in the embodiment of this invention. 本発明の実施形態例における検出ID、注視時間付与の処理の一例を示す説明図。Explanatory drawing which shows an example of the process of detection ID and gaze time provision in the embodiment of this invention.

符号の説明Explanation of symbols

11…画像入力部、12…顔検出部、13…顔姿勢推定部、14…状態判別部、15…検出ID・注視時間付与部、16…前検出状態記憶部、17…注目者ログ記憶部、18…注目者数集計部、19…結果出力部。   DESCRIPTION OF SYMBOLS 11 ... Image input part, 12 ... Face detection part, 13 ... Face posture estimation part, 14 ... State discrimination | determination part, 15 ... Detection ID and gaze time provision part, 16 ... Pre-detection state storage part, 17 ... Attention person log storage part , 18 ... Number-of-interests counting section, 19 ... Result output section.

Claims (6)

広告メディア近傍に設置されたカメラで撮影し、該広告メディアを注目しているとみなせる人物の数を計数して広告効果を客観的に測定する広告効果測定装置であって、
前記カメラで撮影された画像をデジタルデータとして入力する画像入力手段と、
前記画像入力手段に入力された入力画像から顔のある領域を検出する顔検出手段と、
前記顔検出手段において検出された顔領域をもとに、顔の姿勢を表すパラメータ値を推定する顔姿勢推定手段と、
前記顔検出手段から渡される検出位置、大きさ、顔類似度と、前記顔姿勢推定手段から渡される顔姿勢パラメータと、前検出状態記憶手段から渡される前フレームでの検出位置、大きさ、顔状態とに基づいて、検出された顔の現フレームの顔状態を判別する状態判別手段と、
前記状態判別手段から渡される現フレームの顔状態と前検出状態記憶手段から渡される検出IDおよび注視時間に基づいて、検出された顔の検出IDと注視時間情報を付与する検出ID・注視時間付与手段と、
前記顔検出手段から渡される顔検出時刻、検出位置、大きさと、前記状態判別手段から渡される顔状態と、前記検出ID・注視時間付与手段から渡される検出ID、注視時間の各情報を一時的に記憶する前検出状態記憶手段と、
前記顔検出手段から渡される顔検出時刻と前記検出ID・注視時間付与手段から渡される検出ID、注視時間に基づいて、検出結果である検出時刻、検出ID、注視時間の各情報をピックアップし注目者ログとして蓄積する注目者ログ記憶手段と、
前記注目者ログ記憶手段から渡される注目者ログに基づいて、注目者ログから指定期間内の注目者を計数する注目者数集計手段と、
前記注目者数集計手段で集計された結果を出力する結果出力手段とを備え、
前記状態判別手段は、現フレームでの大きさと前フレームでの大きさの差が決められた範囲内にあるという第1の条件と、現フレームでの検出位置と前フレームでの検出位置との距離が決められた範囲内にあるという第2の条件と、現フレームにおける顔姿勢パラメータが指定範囲内という第3の条件に対して、現フレームにおける検出顔を顔類似度が高いものから順に前フレームの検出顔と対応付けを行い、第1の条件あるいは第2の条件を満たさなければ現フレームの顔状態を仮検出結果と判定し、第1の条件と第2の条件を満たすが第3の条件を満たさなければ現フレームの顔状態を正検出結果と判定し、3つの条件のいずれをも満たせば現フレームの顔状態を正検出結果且つ注視状態と判定し、
前記検出ID・注視時間付与手段は、現フレームでの顔状態が正検出結果且つ注視状態であるときに、前フレームと現フレームの時間差を注視時間に加える、
ことを特徴とする広告効果測定装置。
An advertising effect measurement device that objectively measures the advertising effect by counting the number of persons who can be regarded as paying attention to the advertising media, photographed with a camera installed in the vicinity of the advertising media,
Image input means for inputting an image photographed by the camera as digital data;
Face detection means for detecting a region with a face from the input image input to the image input means;
A face posture estimation means for estimating a parameter value representing the posture of the face based on the face area detected by the face detection means;
Detection position, size, face similarity passed from the face detection means, face posture parameters passed from the face posture estimation means, detection position, size, face in the previous frame passed from the previous detection state storage means State determining means for determining the face state of the current frame of the detected face based on the state;
Based on the face state of the current frame passed from the state discriminating means, the detection ID and the gaze time passed from the previous detection state storage means, a detection ID and gaze time provision for giving detected face detection ID and gaze time information Means,
Each information of the face detection time, detection position, size passed from the face detection means, the face state passed from the state determination means, the detection ID passed from the detection ID / gaze time giving means, and the gaze time is temporarily stored. Pre-detection state storage means for storing in
Based on the face detection time passed from the face detection means, the detection ID passed from the detection ID / gaze time giving means, and the gaze time, information on the detection time, detection ID, and gaze time as detection results is picked up and noticed Attention log storage means for accumulating as a person log,
On the basis of the attention log delivered from the attention log storage means, the number-of-interest counting means for counting the attention within a specified period from the attention log;
A result output means for outputting the result totaled by the number-of-interests counting means ,
The state determination means includes a first condition that a difference between a size in the current frame and a size in the previous frame is within a determined range, and a detection position in the current frame and a detection position in the previous frame. With respect to the second condition that the distance is within the determined range and the third condition that the face posture parameter in the current frame is within the specified range, the detected face in the current frame is preceded in descending order of face similarity. If the first condition or the second condition is not satisfied, the face state of the current frame is determined as a temporary detection result, and the first condition and the second condition are satisfied. If the condition is not satisfied, the face state of the current frame is determined as a positive detection result, and if any of the three conditions is satisfied, the face state of the current frame is determined as a positive detection result and a gaze state.
The detection ID / gaze time giving means adds a time difference between the previous frame and the current frame to the gaze time when the face state in the current frame is the positive detection result and the gaze state.
An advertising effect measuring device characterized by that.
前記注目者数集計手段は、計数すべき注目者を、指定時間以上広告を注視し続けていた人物であると定義して計数を行うことを特徴とする請求項1に記載の広告効果測定装置。 The advertisement effect measuring device according to claim 1, wherein the number-of-interests counting means counts the attentions to be counted as a person who has continued to watch the advertisement for a specified time or more. . 広告メディア近傍に設置されたカメラで撮影し、該広告メディアを注目しているとみなせる人物の数を計数して広告効果を客観的に測定する広告効果測定方法であって、
画像入力手段が、前記カメラで撮影された画像をデジタルデータとして入力する画像入力ステップと、
顔検出手段が、前記画像入力ステップにより入力された入力画像から顔のある領域を検出する顔検出ステップと、
顔姿勢推定手段が、前記顔検出ステップにより検出された顔領域をもとに、顔の姿勢を表すパラメータ値を推定する顔姿勢推定ステップと、
状態判別手段が、前記顔検出手段から渡される検出位置、大きさ、顔類似度と、前記顔姿勢推定手段から渡される顔姿勢パラメータと、前検出状態記憶手段から渡される前フレームでの検出位置、大きさ、顔状態とに基づいて、検出された顔の現フレームの顔状態を判別する状態判別ステップと、
検出ID・注視時間付与手段が、前記状態判別手段から渡される現フレームの顔状態と前検出状態記憶手段から渡される検出IDおよび注視時間に基づいて、検出された顔の検出IDと注視時間情報を付与する検出ID・注視時間付与ステップと、
前検出状態記憶手段が、前記顔検出手段から渡される顔検出時刻、検出位置、大きさと、前記状態判別手段から渡される顔状態と、前記検出ID・注視時間付与手段から渡される検出ID、注視時間の各情報を一時的に記憶する前検出状態記憶ステップと、
注目者ログ記憶手段が、前記顔検出手段から渡される顔検出時刻と前記検出ID・注視時間付与手段から渡される検出ID、注視時間に基づいて、検出結果である検出時刻、検出ID、注視時間の各情報をピックアップし注目者ログとして蓄積する注目者ログ記憶ステップと、
注目者数集計手段が、前記注目者ログ記憶手段から渡される注目者ログに基づいて、注目者ログから指定期間内の注目者を計数する注目者数集計ステップと、
結果出力手段が、前記注目者数集計ステップにより集計された結果を出力する結果出力ステップとを備え、
前記状態判別ステップは、現フレームでの大きさと前フレームでの大きさの差が決められた範囲内にあるという第1の条件と、現フレームでの検出位置と前フレームでの検出位置との距離が決められた範囲内にあるという第2の条件と、現フレームにおける顔姿勢パラメータが指定範囲内という第3の条件に対して、現フレームにおける検出顔を顔類似度が高いものから順に前フレームの検出顔と対応付けを行い、第1の条件あるいは第2の条件を満たさなければ現フレームの顔状態を仮検出結果と判定し、第1の条件と第2の条件を満たすが第3の条件を満たさなければ現フレームの顔状態を正検出結果と判定し、3つの条件のいずれをも満たせば現フレームの顔状態を正検出結果且つ注視状態と判定し、
前記検出ID・注視時間付与ステップは、現フレームでの顔状態が正検出結果且つ注視状態であるときに、前フレームと現フレームの時間差を注視時間に加える、
ることを特徴とする広告効果測定方法。
An advertising effect measurement method for objectively measuring the advertising effect by counting the number of people who can be regarded as paying attention to the advertising media, taken with a camera installed in the vicinity of the advertising media,
An image input step in which an image input means inputs an image captured by the camera as digital data;
A face detecting unit for detecting a region having a face from the input image input by the image input step;
A face posture estimation step for estimating a parameter value representing the posture of the face based on the face region detected by the face detection step;
The detection position, size, and face similarity passed from the face detection means, the face posture parameter passed from the face posture estimation means, and the detection position in the previous frame passed from the previous detection state storage means. A state determining step for determining the face state of the current face of the detected face based on the size and the face state;
The detection ID and gaze time information of the detected face is detected based on the face state of the current frame passed from the state discriminating means and the detection ID and gaze time passed from the previous detection state storage means. A detection ID / gaze time granting step,
The pre-detection state storage means has a face detection time, detection position and size passed from the face detection means, a face state passed from the state determination means, a detection ID passed from the detection ID / gaze time giving means, and a gaze A pre-detection state storage step for temporarily storing each piece of time information;
Based on the face detection time passed from the face detection means, the detection ID passed from the detection ID / gaze time giving means, and the gaze time, the attention log storage means detects the detection time, detection ID, and gaze time as detection results. The attention log storage step of picking up each information of and accumulating as the attention log,
The number-of-interests counting means counts the number-of-interests counting step for counting the number of attentions within a specified period from the attention-log based on the attention-logs delivered from the attention-log storage means;
A result output means comprising a result output step for outputting the results totalized by the number-of-interests counting step;
The state determination step includes: a first condition that a difference between a size in the current frame and a size in the previous frame is within a determined range; and a detection position in the current frame and a detection position in the previous frame. With respect to the second condition that the distance is within the determined range and the third condition that the face posture parameter in the current frame is within the specified range, the detected face in the current frame is preceded in descending order of face similarity. If the first condition or the second condition is not satisfied, the face state of the current frame is determined as a temporary detection result, and the first condition and the second condition are satisfied. If the condition is not satisfied, the face state of the current frame is determined as a positive detection result, and if any of the three conditions is satisfied, the face state of the current frame is determined as a positive detection result and a gaze state.
The detection ID / gaze time giving step adds a time difference between the previous frame and the current frame to the gaze time when the face state in the current frame is the positive detection result and the gaze state.
A method for measuring the effectiveness of an advertisement.
前記注目者数集計ステップは、計数すべき注目者を、指定時間以上広告を注視し続けていた人物であると定義して計数を行うことを特徴とする請求項3に記載の広告効果測定方法。 4. The advertisement effect measuring method according to claim 3, wherein the number-of-interests counting step performs counting by defining a person to be counted as a person who has continued to watch the advertisement for a specified time or longer. . コンピュータに請求項3又は4に記載の各ステップを実行させる広告効果測定プログラム。 An advertisement effect measurement program for causing a computer to execute each step according to claim 3 or 4 . コンピュータに請求項3又は4に記載の各ステップを実行させる広告効果測定プログラムを記録したコンピュータ読み取り可能な記録媒体。 A computer-readable recording medium on which an advertisement effect measurement program for causing a computer to execute each step according to claim 3 or 4 is recorded.
JP2008151422A 2008-06-10 2008-06-10 ADVERTISEMENT EFFECT MEASUREMENT DEVICE, ADVERTISEMENT EFFECT MEASUREMENT METHOD, ADVERTISEMENT EFFECT MEASUREMENT PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM Expired - Fee Related JP5103287B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008151422A JP5103287B2 (en) 2008-06-10 2008-06-10 ADVERTISEMENT EFFECT MEASUREMENT DEVICE, ADVERTISEMENT EFFECT MEASUREMENT METHOD, ADVERTISEMENT EFFECT MEASUREMENT PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008151422A JP5103287B2 (en) 2008-06-10 2008-06-10 ADVERTISEMENT EFFECT MEASUREMENT DEVICE, ADVERTISEMENT EFFECT MEASUREMENT METHOD, ADVERTISEMENT EFFECT MEASUREMENT PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM

Publications (2)

Publication Number Publication Date
JP2009301085A JP2009301085A (en) 2009-12-24
JP5103287B2 true JP5103287B2 (en) 2012-12-19

Family

ID=41547956

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008151422A Expired - Fee Related JP5103287B2 (en) 2008-06-10 2008-06-10 ADVERTISEMENT EFFECT MEASUREMENT DEVICE, ADVERTISEMENT EFFECT MEASUREMENT METHOD, ADVERTISEMENT EFFECT MEASUREMENT PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM

Country Status (1)

Country Link
JP (1) JP5103287B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021038800A1 (en) * 2019-08-29 2021-03-04

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5685958B2 (en) * 2010-02-24 2015-03-18 大日本印刷株式会社 Image display system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4603975B2 (en) * 2005-12-28 2010-12-22 株式会社春光社 Content attention evaluation apparatus and evaluation method
JP4876687B2 (en) * 2006-04-19 2012-02-15 株式会社日立製作所 Attention level measuring device and attention level measuring system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021038800A1 (en) * 2019-08-29 2021-03-04
JP2023016848A (en) * 2019-08-29 2023-02-02 富士通株式会社 Advertisement viewing information output method, advertisement viewing information output program, and information processing device
JP7265202B2 (en) 2019-08-29 2023-04-26 富士通株式会社 ADVERTISING VIEWING INFORMATION OUTPUT METHOD, ADVERTISING VIEWING INFORMATION OUTPUT PROGRAM, AND INFORMATION PROCESSING DEVICE
JP7421149B2 (en) 2019-08-29 2024-01-24 富士通株式会社 Advertisement viewing information output method, advertisement viewing information output program, and information processing device

Also Published As

Publication number Publication date
JP2009301085A (en) 2009-12-24

Similar Documents

Publication Publication Date Title
JP5113721B2 (en) Media information attention measuring device, media information attention measuring method, media information attention measuring program, and recording medium recording the program
US10290162B2 (en) Information processing apparatus, information processing method, and storage medium
US20150006281A1 (en) Information processor, information processing method, and computer-readable medium
JP4794453B2 (en) Method and system for managing an interactive video display system
US20080109397A1 (en) Automatic detection and aggregation of demographics and behavior of people
TW201033908A (en) System and method for counting people flow
JP7421149B2 (en) Advertisement viewing information output method, advertisement viewing information output program, and information processing device
JP2009042956A (en) Merchandise selling device, merchandise sales management system, merchandise sales management method, and program
WO2018221030A1 (en) Headcount management device, and headcount management method and program
WO2006129442A1 (en) Image processing device and object region tracking program
JP2012252613A (en) Customer behavior tracking type video distribution system
US20150178780A1 (en) Method and device for charging for customized service
US20110264534A1 (en) Behavioral analysis device, behavioral analysis method, and recording medium
US9361705B2 (en) Methods and systems for measuring group behavior
CN111126119A (en) Method and device for counting user behaviors arriving at store based on face recognition
JP2011232864A (en) Facility information classification system and facility information classification program
JP6516702B2 (en) People count system, number count method, and view method of number count result
JP5103287B2 (en) ADVERTISEMENT EFFECT MEASUREMENT DEVICE, ADVERTISEMENT EFFECT MEASUREMENT METHOD, ADVERTISEMENT EFFECT MEASUREMENT PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
JP5272214B2 (en) Advertisement effect index measuring device, advertisement effect index measuring method and program
JP2016045742A (en) Information processing device and program
WO2016035351A1 (en) Information processing device, information processing program, information processing method, and storage medium
WO2012054048A1 (en) Apparatus and method for evaluating an object
WO2012148000A1 (en) Image processing system, person identification method, image processing device, and control method and control program for same
JP6301759B2 (en) Face identification device and program
JP6815667B1 (en) Information processing equipment, information processing methods, programs and camera systems

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20100603

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120925

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121001

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151005

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees