JP2007181071A - Apparatus and method for evaluating attention paid to contents - Google Patents

Apparatus and method for evaluating attention paid to contents Download PDF

Info

Publication number
JP2007181071A
JP2007181071A JP2005379269A JP2005379269A JP2007181071A JP 2007181071 A JP2007181071 A JP 2007181071A JP 2005379269 A JP2005379269 A JP 2005379269A JP 2005379269 A JP2005379269 A JP 2005379269A JP 2007181071 A JP2007181071 A JP 2007181071A
Authority
JP
Japan
Prior art keywords
person
face
angle
content
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005379269A
Other languages
Japanese (ja)
Other versions
JP4603975B2 (en
Inventor
Toshihiro Mochizuki
敏弘 望月
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shunkosha KK
Original Assignee
Shunkosha KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shunkosha KK filed Critical Shunkosha KK
Priority to JP2005379269A priority Critical patent/JP4603975B2/en
Publication of JP2007181071A publication Critical patent/JP2007181071A/en
Application granted granted Critical
Publication of JP4603975B2 publication Critical patent/JP4603975B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an apparatus and method for evaluating attention paid to contents whereby effects of advertisement media and advertisement programs can more meticulously and accurately be evaluated. <P>SOLUTION: The apparatus for evaluating the attention paid to contents includes: a system server 200 provided with a passer detection section 202 including a moving region detection section 202a for detecting a moving region from an image photographed by a camera 150 and a person detection section 202b for detecting whether or not the moving region is a person, and provided with an attention paying person detection section 203 including a face detection processing section 203a for detecting the face of the person, and a face angle detection processing section 203b for detecting the angular direction of the face; and a collection center server 300 provided with a passing detection time registration section 302 for registering a face angle detection time of a passer detected by the passerby detection section 202 and a face angle registration processing section 303 for registering a face angle detected by the face angle detection processing section 203b. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、コンテンツ媒体の前面に存在する人物を撮像装置が撮像した画像に基づいて、該コンテンツ媒体の前面に存在する人物の該コンテンツに対する注目を評価するコンテンツ注目評価装置に関し、特に、該コンテンツ媒体の前面に存在する人物の該コンテンツに対して注目する顔の角度を時刻の変化とともに記憶し、該コンテンツに対する注目を評価するコンテンツ注目評価装置及び評価方法に関する。   The present invention relates to a content attention evaluation device that evaluates the attention of a person existing in front of a content medium to the content based on an image captured by an imaging device of the person existing in front of the content medium. The present invention relates to a content attention evaluation apparatus and an evaluation method for storing a face angle of a person existing in front of a medium with respect to the content together with a change in time and evaluating the attention to the content.

本来、広告やTV放送等のコンテンツは、人々の注目をより多く引き付けて初めてその意義を発揮するものである。ゆえに、広告の出稿主やTV放送のスポンサー等は、いかにして効率よく人々の注目を引き付けるように広告を企画し設置するか、若しくはいかに多くの人々に視聴されているTV放送のスポンサーとなってTVコマーシャルの効果を高めるかということに強い問題意識を持つ。このため、コンテンツがどれだけ人々に注目されているかの評価に対して、広告の出稿主やTV放送のスポンサーは高い関心を持っている。   Originally, contents such as advertisements and TV broadcasts only show their significance after attracting more people's attention. Therefore, advertisement publishers, TV broadcast sponsors, etc. plan and install advertisements to attract people's attention efficiently, or become TV broadcast sponsors watched by many people. Therefore, they have a strong awareness of whether or not to increase the effectiveness of TV commercials. For this reason, advertisement publishers and TV broadcast sponsors are highly interested in evaluating how much people are interested in the content.

このような背景の中で、コンテンツに対する人々の注目を評価する手法が種々考案されている。例えば特許文献1には、広告メディアの前方を撮影可能なカメラで撮影した画像から人間の顔を検出し、その検出された顔のうち該広告メディアを向いていると評価できる顔を検出して集計することによって、どれだけの人数が該広告メディアに注目したかを評価する広告メディア評価装置が開示されている。   Against this background, various methods for evaluating people's attention to content have been devised. For example, in Patent Document 1, a human face is detected from an image captured by a camera capable of capturing the front of an advertisement medium, and a face that can be evaluated as facing the advertisement medium is detected from the detected faces. An advertising media evaluation device is disclosed that evaluates how many people have focused on the advertising media by counting.

また、特許文献2には、次の広告効果確認システムが開示されている。即ち広告番組に対する視聴者の反応を画像に撮影し、該画像が撮影された際の該広告番組の特徴を示すデータを付加して撮影された画像とともに分析装置へ送信する。該分析装置では、受信した画像自体を時系列に整理して出力するので、広告番組に対する視聴者の反応を目視により適時かつ容易に確認することを可能とするのみならず、受信した画像に含まれる視聴者の特徴的な反応を検出して計数することによって、どれだけの視聴者が広告番組に注目していたかを確認することができる。   Patent Document 2 discloses the following advertisement effect confirmation system. That is, the viewer's reaction to the advertisement program is photographed in an image, and data indicating the characteristics of the advertisement program when the image is photographed is added and transmitted to the analyzer together with the photographed image. In the analysis apparatus, the received images themselves are arranged and output in time series, so that not only the viewer's reaction to the advertising program can be visually and timely confirmed but also included in the received images. By detecting and counting the characteristic reactions of viewers, it is possible to check how many viewers are paying attention to the advertising program.

特開2000−209578号公報JP 2000-209578 A 特開平11−153977号公報JP-A-11-153777

しかしながら、上記特許文献1及び2に代表される従来技術では、広告メディアや広告番組に注目している総体的な人数のみしか把握することができない。即ち広告メディアや広告番組の前面を通過した人物が、時刻の経過とともにどの程度に該広告メディアや該広告番組に注目していったかという注目の深度を判断する材料を提供するものではない。よって、該広告メディアや該広告番組の前面を通過した人物の該広告メディアや該広告番組に対する注目を詳細に分析可能ではなく、十分な意義を持った評価を下すことができないという問題があった。   However, the conventional techniques represented by Patent Documents 1 and 2 described above can grasp only the total number of people who are paying attention to advertising media and advertising programs. That is, it does not provide a material for determining how much attention a person who has passed through in front of an advertisement medium or an advertisement program has noticed the advertisement medium or the advertisement program with the passage of time. Therefore, there is a problem in that it is not possible to analyze in detail the attention of the person who has passed in front of the advertisement medium or the advertisement program to the advertisement medium or the advertisement program, and it is impossible to make a sufficiently meaningful evaluation. .

具体的には、上記特許文献1によれば、確かに広告メディアに注目した人数を把握することができるが、該広告メディアに注目した人物が、それぞれどの程度の深度で該広告メディアに注目していったかという注目深度の時刻変化を把握することはできなかった。例えば広告メディアに対して10人が注目したという統計データが得られたとしても、それぞれの人物が該広告に対してどの程度の注目深度を示したかによって、自ずと広告メディアの効果に対する評価結果は異なるものとなるが、このような厳密な評価を下すことが不可能であった。   Specifically, according to Patent Document 1, it is possible to ascertain the number of people who have paid attention to the advertising media, but at what depth each person who has paid attention to the advertising media has paid attention to the advertising media. It was not possible to grasp the time change of the depth of attention. For example, even if statistical data indicating that 10 people have paid attention to the advertising media is obtained, the evaluation results for the effectiveness of the advertising media differ depending on how much attention each person has shown to the advertisement. However, it was impossible to make such a strict evaluation.

また、上記特許文献2では、広告番組の効果が依然として目視により評価されなければならないという工程を含み、評価の客観性が維持できない。また、この従来技術によってもどれだけの視聴者が広告番組に注目していたかという統計を取ることができるが、上記特許文献1の従来技術と同様に、該広告番組に注目した人物が、それぞれどの程度の深度で該広告メディアに注目していったかという注目深度の時刻変化を把握することはできず、広告番組の効果を正確に評価することができなかった。   Moreover, in the said patent document 2, the objectivity of evaluation cannot be maintained including the process that the effect of an advertising program must still be evaluated visually. In addition, according to this conventional technique, it is possible to obtain statistics on how many viewers have been paying attention to the advertising program. Like the prior art of Patent Document 1, each person who has paid attention to the advertising program It was not possible to grasp the time change of the attention depth as to whether or not the advertising media was noticed at a certain depth, and the effect of the advertising program could not be accurately evaluated.

これらのことから、広告メディアや広告番組の効果をより詳細に把握してより正確に評価できる方法の確立が極めて重要な課題となってきている。特に広告メディアや広告番組は、巨額の出稿費用を要することから、効果的でない方法によって視聴者に提供しても出稿費用の無駄となるため、出稿主は、いかに効果的に広告メディアや広告番組を提供するかについて極めて強い関心を持っている。そして効果的に広告メディアや広告番組を提供する指針として、広告メディアや広告番組の効果のより詳細かつ正確な評価方法の確立が待ち望まれていた。   For these reasons, it has become an extremely important issue to establish a method that can grasp the effects of advertising media and advertising programs in more detail and evaluate them more accurately. In particular, advertising media and advertising programs require huge advertising costs, and even if they are provided to viewers in an ineffective manner, the advertising costs are wasted. Have a very strong interest in what to offer. As a guideline for effectively providing advertisement media and advertisement programs, establishment of a more detailed and accurate evaluation method for the effects of advertisement media and advertisement programs has been awaited.

本発明は、上記問題点(課題)を解消するためになされたものであって、広告メディアや広告番組の効果をより詳細かつ正確に評価できるコンテンツ評価装置及びコンテンツ評価方法を提供することを目的とする。   The present invention has been made to solve the above problems (problems), and an object thereof is to provide a content evaluation apparatus and a content evaluation method capable of evaluating the effects of advertising media and advertising programs in more detail and accurately. And

上述した問題を解決し、目的を達成するため、本発明は、コンテンツ媒体の前面に存在する人物を撮像装置が撮像した画像に基づいて、該コンテンツ媒体の前面に存在する人物の該コンテンツに対する注目を評価するコンテンツ注目評価装置であって、前記画像に撮像された人物を検出する人物検出手段と、前記人物検出手段により検出された人物の顔を検出する顔検出手段と、前記顔検出手段により顔が検出された人物の顔方向の角度を検出する顔角度検出手段と、前記顔角度検出手段により検出された前記顔方向の角度を、時刻の経過とともに記憶する顔角度記憶手段とを備えたことを特徴とする。   In order to solve the above-described problem and achieve the object, the present invention is based on an image obtained by capturing an image of a person existing in front of the content medium by the imaging apparatus, and attention is paid to the content of the person existing in front of the content medium. A content attention evaluation device for evaluating a person, a person detection unit for detecting a person imaged in the image, a face detection unit for detecting a face of a person detected by the person detection unit, and the face detection unit Face angle detection means for detecting the angle of the face direction of the person whose face is detected, and face angle storage means for storing the angle of the face direction detected by the face angle detection means as time passes. It is characterized by that.

また、本発明は、上記発明において、前記時刻は、前記顔角度検出手段により前記顔方向の角度が検出された時刻であることを特徴とする。   Further, the present invention is characterized in that, in the above invention, the time is a time when the angle of the face direction is detected by the face angle detecting means.

また、本発明は、上記発明において、前記顔角度記憶手段は、前記人物検出手段により検出された人物単位に、前記顔角度検出手段により時刻の経過とともに前記顔方向の角度を記憶することを特徴とする。   Further, the present invention is the above invention, wherein the face angle storage means stores the angle of the face direction with the passage of time by the face angle detection means for each person detected by the person detection means. And

また、本発明は、上記発明において、前記顔角度記憶手段に記憶される前記顔方向の角度を前記人物検出手段により検出された人物単位で総和し、該総和を該顔方向の角度の検出が開始されてから終了するまでの時間と該顔方向の角度が前記コンテンツを注視する角度であると見なしうる角度閾値とで除した注視深度率を算出する注視深度率算出手段をさらに備えたことを特徴とする。   In the present invention, the face direction angle stored in the face angle storage unit is summed up in units of persons detected by the person detection unit, and the sum is detected as the face direction angle. It further comprises gaze depth rate calculation means for calculating a gaze depth rate divided by the time from the start to the end and the angle threshold at which the angle of the face direction can be regarded as the angle at which the content is watched. Features.

また、本発明は、上記発明において、前記顔角度記憶手段に記憶される前記顔方向の角度が前記コンテンツを注視する角度であると見なしうる角度閾値を一時的に下回っていた間の時間を、前記顔方向の角度の検出が開始されてから終了するまでの時間で除した空注視率を算出する空注視率算出手段をさらに備えたことを特徴とする。   Further, in the present invention, in the above invention, the time during which the angle of the face direction stored in the face angle storage means is temporarily below an angle threshold that can be regarded as an angle at which the content is watched, The apparatus further comprises an empty gaze rate calculating means for calculating an empty gaze rate divided by a time from the start to the end of detection of the face direction angle.

また、本発明は、上記発明において、前記人物検出手段により検出された人物の位置を検出する人物位置検出手段をさらに備え、前記時刻の経過は、前記人物位置検出手段により検出される人物の位置の変化に対応することを特徴とする。   The present invention further includes a person position detecting means for detecting the position of the person detected by the person detecting means in the above invention, wherein the passage of time is the position of the person detected by the person position detecting means. It corresponds to the change of.

また、本発明は、上記発明において、前記顔角度記憶手段は、前記人物検出手段により検出された人物単位に、前記顔角度検出手段により検出された前記顔方向の角度を、前記人物位置検出手段により検出された該人物の位置とともに記憶することを特徴とする。   Further, the present invention is the above invention, wherein the face angle storage means calculates the angle of the face direction detected by the face angle detection means for each person detected by the person detection means, and the person position detection means. This is stored together with the position of the person detected by.

また、本発明は、上記発明において、前記顔角度記憶手段に記憶される前記顔方向の角度を前記人物検出手段により検出された人物単位で総和し、該総和を該顔方向の角度の検出が開始されてから終了するまでの該人物の移動距離と該顔方向の角度が前記コンテンツを注視する角度であると見なしうる角度閾値とで除した移動注視深度率を算出する移動注視深度率算出手段をさらに備えたことを特徴とする。   In the present invention, the face direction angle stored in the face angle storage unit is summed up in units of persons detected by the person detection unit, and the sum is detected as the face direction angle. A moving gaze depth rate calculating means for calculating a moving gaze depth rate by dividing the moving distance of the person from the start to the end and the angle threshold at which the angle of the face direction can be regarded as the angle at which the content is watched. Is further provided.

また、本発明は、上記発明において、前記顔角度記憶手段に記憶される前記顔方向の角度が前記コンテンツを注視する角度であると見なしうる角度閾値を一時的に下回っていた間に人物が移動した移動距離を、前記顔方向の角度の検出が開始されてから終了するまでに該人物が移動した移動距離で除した移動空注視率を算出する移動空注視率算出手段をさらに備えたことを特徴とする。   Further, in the present invention according to the above invention, the person moves while the angle of the face direction stored in the face angle storage means is temporarily below an angle threshold that can be regarded as an angle at which the content is watched. A moving air gaze rate calculating means for calculating a moving air gaze rate that is obtained by dividing the movement distance by the movement distance that the person has moved from the start of the detection of the angle in the face direction to the end thereof. Features.

また、本発明は、上記発明において、前記コンテンツ注目評価装置は、前記撮像装置が接続される画像分析装置と、少なくとも一つの前記画像分析装置と通信可能に接続されたコンテンツ注目評価分析装置とから構成され、前記画像分析装置は、前記画像に含まれる人物を特定不可能なデータを前記コンテンツ注目評価分析装置へ送信し、前記コンテンツ注目評価分析装置は、前記人物を特定不可能なデータを記憶する前記顔角度記憶手段を有することを特徴とする。   Further, the present invention is the above invention, wherein the content attention evaluation device includes: an image analysis device connected to the imaging device; and a content attention evaluation analysis device connected to be communicable with at least one of the image analysis devices. The image analysis device is configured to transmit data that cannot identify a person included in the image to the content attention evaluation analysis device, and the content attention evaluation analysis device stores data that cannot identify the person. The face angle storage means is provided.

また、本発明は、コンテンツ媒体の前面に存在する人物を撮像装置が撮像した画像に基づいて、該コンテンツ媒体の前面に存在する人物の該コンテンツに対する注目を評価するコンテンツ注目評価方法であって、前記画像に撮像された人物を検出する人物検出工程と、前記人物検出工程により検出された人物の顔を検出する顔検出工程と、前記顔検出工程により顔が検出された人物の顔方向の角度を検出する顔方向検出工程と、前記顔方向検出工程により検出された前記顔方向の角度を、該検出の時刻とともに記憶する顔角度記憶工程とを含んだことを特徴とする。   Further, the present invention is a content attention evaluation method for evaluating the attention of a person existing in front of the content medium on the content based on an image obtained by imaging an image of the person existing in front of the content medium, A person detection step for detecting a person imaged in the image, a face detection step for detecting the face of the person detected by the person detection step, and an angle of the face direction of the person whose face is detected by the face detection step And a face angle storage step of storing the angle of the face direction detected by the face direction detection step together with the time of the detection.

また、本発明は、コンテンツ媒体の前面に存在する人物を撮像方法が撮像した画像に基づいて、該コンテンツ媒体の前面に存在する人物の該コンテンツに対する注目を評価するコンテンツ注目評価方法であって、前記画像に撮像された人物を検出する人物検出工程と、前記人物検出工程により検出された人物の位置を検出する人物位置検出工程と、前記人物検出工程により検出された人物の顔を検出する顔検出工程と、前記顔検出工程により顔が検出された人物の顔方向の角度を検出する顔方向検出工程と、前記顔方向検出工程により検出された前記顔方向の角度を、前記人物位置検出工程により検出された該人物の位置とともに記憶する顔角度記憶工程とを含んだことを特徴とする。   Further, the present invention is a content attention evaluation method for evaluating the attention of a person existing in front of the content medium to the content based on an image obtained by imaging the person existing in front of the content medium, A person detection step for detecting a person imaged in the image, a person position detection step for detecting the position of the person detected by the person detection step, and a face for detecting the face of the person detected by the person detection step A step of detecting, a face direction detecting step of detecting a face direction angle of the person whose face is detected by the face detecting step, and an angle of the face direction detected by the face direction detecting step. And a face angle storing step of storing together with the position of the person detected by the above.

本発明によれば、顔角度検出手段により検出された顔方向の角度を、時刻の経過とともに記憶する顔角度記憶手段を備えたので、時刻とともに変化する顔方向の角度に基づいてコンテンツに対する注目を分析することが可能となるという効果を奏する。   According to the present invention, since the face angle storage means for storing the face direction angle detected by the face angle detection means with the passage of time is provided, attention is paid to the content based on the face direction angle that changes with time. There is an effect that analysis is possible.

また、本発明よれば、顔角度検出手段により顔方向の角度が検出された時刻とともに変化する顔方向の角度に基づいてコンテンツに対する注目を分析することが可能となるという効果を奏する。   In addition, according to the present invention, it is possible to analyze the attention to the content based on the face direction angle that changes with the time when the face direction angle is detected by the face angle detection unit.

また、本発明によれば、人物単位に、時刻とともに変化する顔方向の角度に基づいてコンテンツに対する注目を分析することが可能となるという効果を奏する。   In addition, according to the present invention, it is possible to analyze the attention to the content based on the angle of the face direction that changes with time for each person.

また、本発明によれば、コンテンツを注視する角度であると見なしうる角度閾値に対する、時刻とともに変化する顔方向の角度の、総注視時間による平均の比率を算出することによって、所定時間の間のコンテンツに対する注視を、時間変化にとらわれず、総体的に捉えて評価することができるという効果を奏する。   In addition, according to the present invention, by calculating the average ratio of the angle of the face direction that changes with time to the angle threshold that can be regarded as the angle at which the content is watched, according to the total gaze time, There is an effect that the gaze on the content can be comprehensively grasped and evaluated regardless of the time change.

また、本発明によれば、空注視率を算出する空注視率算出手段を備えたので、該空注視率が所定値以下の場合に注視が連続している状態と同様に見なすことができ、注視評価をより実際に添った形で行うことができるという効果を奏する。   In addition, according to the present invention, since the gaze rate calculating means for calculating the gaze rate is provided, it can be regarded as a continuous gaze when the gaze rate is a predetermined value or less, There is an effect that the gaze evaluation can be performed in a form that more closely follows.

また、本発明によれば、人物位置検出手段により検出される人物の位置とともに変化する顔方向の角度に基づいてコンテンツに対する注目を分析することが可能となるという効果を奏する。   In addition, according to the present invention, it is possible to analyze the attention to the content based on the angle of the face direction that changes with the position of the person detected by the person position detecting means.

また、本発明によれば、人物単位に、人物の位置とともに変化する顔方向の角度に基づいてコンテンツに対する注目を分析することが可能となるという効果を奏する。   In addition, according to the present invention, it is possible to analyze the attention to content based on the angle of the face direction that changes with the position of the person for each person.

また、本発明によれば、コンテンツを注視する角度であると見なしうる角度閾値に対する、人物の位置とともに変化する顔方向の角度の、総移動距離による平均の比率を算出することによって、所定時間の間のコンテンツに対する注視を、人物の位置の変化にとらわれず、総体的に捉えて評価することができるという効果を奏する。   Further, according to the present invention, by calculating the average ratio of the angle of the face direction that changes with the position of the person with respect to the angle threshold that can be regarded as the angle at which the content is watched, by the total moving distance, In this way, the gaze on the content in between can be grasped and evaluated as a whole, regardless of the change in the position of the person.

また、本発明によれば、移動空注視率を算出する移動空注視率算出手段を備えたので、該移動空注視率が所定値以下の場合に注視が連続している状態と同様に見なすことができ、移動を伴う注視の評価をより実際に添った形で行うことができるという効果を奏する。   In addition, according to the present invention, since the mobile air gaze rate calculating means for calculating the mobile air gaze rate is provided, when the mobile air gaze rate is equal to or less than a predetermined value, it is regarded as the state where gaze is continuous. It is possible to perform an evaluation of gaze accompanied by movement in a form that more closely follows.

また、本発明は、コンテンツ注目評価装置を、複数の画像分析装置と、該画像分析装置から送信されるデータを集中的に分析するコンテンツ注目評価分析装置からなる構成とすることができるという効果を奏する。   Further, the present invention has an effect that the content attention evaluation device can be constituted by a plurality of image analysis devices and a content attention evaluation analysis device that intensively analyzes data transmitted from the image analysis devices. Play.

以下に添付図面を参照して、本発明に係る時刻とともに変化するコンテンツ注目の評価装置及び評価方法の好適な実施例を詳細に説明する。本発明のコンテンツ注目評価装置及びコンテンツ注目評価システムは、コンテンツが多数の人間によって注目されうる場所、例えば駅構内施設に設置する場合に好適である。なお、以下の実施例1では、検出された顔方向の角度を該角度が検出された時刻の経過とともに記憶する実施例を示すこととし、実施例2では、検出された顔方向の角度を人物の位置の変化とともに記憶する実施例を示すこととする。なお、以下の実施例では、検出された顔方向の角度を度数法に基づく角度表示θ[deg]で表記することとする。   Exemplary embodiments of an evaluation apparatus and an evaluation method for content attention changing with time according to the present invention will be described below in detail with reference to the accompanying drawings. The content attention evaluation device and the content attention evaluation system of the present invention are suitable when installed in a place where the content can be noticed by a large number of people, for example, in a station facility. In the following Example 1, an example in which the angle of the detected face direction is stored along with the passage of the time at which the angle was detected is shown. In Example 2, the detected angle of the face direction is represented as a person. An example of storing together with the change of the position of will be shown. In the following embodiments, the detected angle in the face direction is expressed by an angle display θ [deg] based on the power method.

図1は、実施例1に係るコンテンツ注目評価装置及び評価方法の概念を説明するための説明図である。同図に示すように、本装置及び方法では、時刻Tの経過とともに変化するTV画面100tの前面のTV画面エリアに存在する人物の、該TV画面に表示されるコンテンツへの視線方向を検出・記憶することを特徴とする。   FIG. 1 is an explanatory diagram for explaining the concept of the content attention evaluation device and the evaluation method according to the first embodiment. As shown in the figure, in the present apparatus and method, the direction of the line of sight of the person existing in the TV screen area in front of the TV screen 100t that changes with the lapse of time T to the content displayed on the TV screen is detected. It is memorized.

同図によると、TV画面エリアにおいて、TV画面の平行線とのなす角が最初にθ=θ1[deg]であった視線方向は、時刻Tの所定時間経過後にθ=θ2[deg]へと変化している。このように時刻Tの経過毎に変化するθを検出・記憶すると、TV画面エリアに存在する人物の該TV画面に表示されるコンテンツへの注視の時間経過に応じた変化を分析可能となる。 According to the figure, in the TV screen area, the line-of-sight direction where the angle formed with the parallel line of the TV screen was initially θ = θ 1 [deg] is θ = θ 2 [deg] after a predetermined time of time T has elapsed. It has changed to. As described above, by detecting and storing θ that changes with the elapse of time T, it is possible to analyze a change of a person existing in the TV screen area according to the time lapse of gaze on the content displayed on the TV screen.

従来、コンテンツに対する注視を評価分析する方法としては、該コンテンツに注視する人物の数を統計する手法が一般的であった。この方法によると、少しでも顔方向がコンテンツへ向いていると該コンテンツに注視していると見され、該コンテンツに注視する人物として計数されていた。しかし、一概にコンテンツへの注視といっても、人物が該コンテンツに対して深い注目を与えている場合と、軽い注目を与えている場合とがある。例えば深い注目とは、人物がコンテンツに対して意識の集中を以って注目している場合であり、軽い注目とは、該人物がコンテンツに対して散漫な意識を以ってしか見ていない場合である。このように、人物がコンテンツに対してどれだけの意識の集中を以って視線を向けているかの判断は容易ではないが、例えば該人物の該コンテンツに対する視線方向が該コンテンツに対する意識の集中の程度と何らかの相関があると考えられる。本発明は、この点に着目してなされたものであり、TV画面の前面に存在する人物の視線方向が該TV画面の平行線となす角度を検出して記憶することにより、該人物のTV画面に表示されるコンテンツへの注目の程度を分析・評価することを可能としたものである。   Conventionally, as a method for evaluating and analyzing a gaze on the content, a method of statistically counting the number of persons watching the content has been common. According to this method, when the face direction is even toward the content, it is considered that the user is gazing at the content, and is counted as a person gazing at the content. However, generally speaking, there are a case where a person gives deep attention to the content and a case where light attention is given to the content. For example, deep attention is when a person is paying attention to the content with a concentration of consciousness, and light attention is when the person is only watching with distraction to the content. Is the case. In this way, it is not easy to determine how much a person's consciousness is concentrating on the content, but for example, the gaze direction of the person with respect to the content is the concentration of consciousness about the content. There seems to be some correlation with the degree. The present invention has been made paying attention to this point, and by detecting and storing the angle formed by the line-of-sight direction of the person existing in front of the TV screen and the parallel lines of the TV screen, the TV of the person is obtained. This makes it possible to analyze and evaluate the degree of attention to the content displayed on the screen.

次に、図1に示したコンテンツ注目評価装置及び評価方法のシステム構成について説明する。図2は、図1に示したコンテンツ注目評価装置及び評価方法のシステム構成の概略を示すシステム構成図である。同図によれば、通路の横にTV画面100tが配設された通路を通過する通行人物を撮影するための1台の広角カメラ、即ちTV画面100t側から通路に存在する通行人物を撮影するカメラ150が配設されている。   Next, the system configuration of the content attention evaluation device and the evaluation method shown in FIG. 1 will be described. FIG. 2 is a system configuration diagram showing an outline of the system configuration of the content attention evaluation device and the evaluation method shown in FIG. According to the figure, one wide-angle camera for photographing a passing person passing through a passage in which a TV screen 100t is arranged beside the passage, that is, a passing person existing in the passage is photographed from the TV screen 100t side. A camera 150 is provided.

同図に示したカメラ領域rは、カメラ150により通行人物の撮影が可能な領域である。この領域内に存在する通行人物は、カメラ150により撮影されることによって通行人物として検出され得る。また、カメラ領域rで検出された通行人物の顔方向が広告看板100t方向を向くか否かが検出される。これは、カメラ150が広告看板100tの同一面内又はその近傍に配設されていることにより、視線を向けるために広告看板へ顔方向を向けると、この広告看板方向を向く顔がカメラ150により撮影されることによる。   The camera area r shown in the figure is an area where a camera 150 can capture a passerby. Passersby existing in this area can be detected as passersby by being photographed by the camera 150. In addition, it is detected whether or not the face direction of the passerby detected in the camera region r faces the direction of the advertising billboard 100t. This is because when the camera 150 is disposed in the same plane of the advertising billboard 100t or in the vicinity thereof, when the face direction is directed to the advertising billboard in order to direct the line of sight, the face facing the advertising billboard direction is caused by the camera 150. By being photographed.

カメラ150及びシステムサーバ200がケーブルCを介して接続されている。少なくとも一つのシステムサーバ200がネットワークNを介して集計センタサーバ300と接続されている。システムサーバ200と集計センタサーバ300は異なるフロアに設置されているものとするが、同一のフロアに設置されてもよく、また同一のコンピュータシステムに実装されていてもよいものである。システムサーバ200は、カメラ150により撮影された画像を分析して該画像から通行人物及び該通行人物の顔方向を検出するための分析装置である。カメラ150は通行人物を含む画像を撮影して該画像をシステムサーバ200へ送信する。システムサーバ200では該画像を分析して該画像に含まれる通行人物の客観的な属性データを検出して該属性データを集計センタサーバ300へ送信する。集計センタサーバ300は、該属性データを集計し各種分析指標を算出する。   The camera 150 and the system server 200 are connected via a cable C. At least one system server 200 is connected to the aggregation center server 300 via the network N. The system server 200 and the aggregation center server 300 are installed on different floors, but may be installed on the same floor or may be mounted on the same computer system. The system server 200 is an analysis device for analyzing an image taken by the camera 150 and detecting a passerby and a face direction of the passerby from the image. The camera 150 captures an image including a passerby and transmits the image to the system server 200. The system server 200 analyzes the image, detects objective attribute data of a passerby included in the image, and transmits the attribute data to the aggregation center server 300. The aggregation center server 300 aggregates the attribute data and calculates various analysis indexes.

次に、図2に示したシステムサーバ200の構成について説明する。図3は、図2に示したシステムサーバ200の構成を示す機能ブロック図である。同図に示すように、このシステムサーバ200は、主制御部201と、通行人物検知部202と、注視人物検出処理部203と、記憶部204と、キーボードなどの操作部206が接続される操作制御部205と、ディスプレイ装置などの表示部208が接続される表示制御部207と、外部とのデータ授受を制御するI/F部209とを有する。主制御部201はシステムサーバ200全体の処理を制御する制御部である。具体的には、カメラ150からI/F部209を介して画像データを受け取って通行人物検出部202又は注視人物検出処理部203へ受け渡す処理を行い、通行人物検出部202又は注視人物検出処理部203から出力される情報を記憶部204へ受け渡したりI/F部209を介して集計センタサーバ300へ送信したりする処理を行い、若しくは操作部206が受け付け操作制御部205で所定入力信号に変換された所定操作信号の入力を契機として前述の各処理を実行し、前述の各処理部の処理結果を表示制御部207を介して表示部208へ表示させる処理を実行する。   Next, the configuration of the system server 200 shown in FIG. 2 will be described. FIG. 3 is a functional block diagram showing the configuration of the system server 200 shown in FIG. As shown in the figure, the system server 200 includes an operation to which a main control unit 201, a passer-by person detection unit 202, a gaze person detection processing unit 203, a storage unit 204, and an operation unit 206 such as a keyboard are connected. The control unit 205 includes a display control unit 207 to which a display unit 208 such as a display device is connected, and an I / F unit 209 that controls data exchange with the outside. The main control unit 201 is a control unit that controls processing of the entire system server 200. Specifically, the image data is received from the camera 150 via the I / F unit 209 and transferred to the passer-by detection unit 202 or the gaze detection unit 203, and the passer-by detection unit 202 or the gaze detection process The information output from the unit 203 is transferred to the storage unit 204 or transmitted to the aggregation center server 300 via the I / F unit 209, or the operation unit 206 receives a predetermined input signal from the reception operation control unit 205. The processing described above is executed in response to the input of the converted predetermined operation signal, and processing for displaying the processing result of each processing unit on the display unit 208 via the display control unit 207 is executed.

通行人物検出部202aは、カメラ150により撮影された画像のフレーム差分から動領域を検出する動領域検出処理部202aと、該移動領域が人物を近似する矩形であるか否かを判定して人物を検出する人物検出処理部202bとを有する。注視人物検出処理部203は、人物検出処理部202bにより検出された人物を近似する矩形の動領域から顔部分に相当すると想定される矩形を取り出し、該矩形が顔であるか否かを判定して顔を検出する顔検出処理部203aと、顔検出処理部203aにより検出された顔が向いている顔方向を検出する顔角度検出処理部203bとを有する。人物検出処理部202b及び顔検出処理部203aは、同一人物を重複して検出することを防止するため、検出済みの人物の画像データにフラグを立て、フラグが立っている人物は検出を行わないフラグ制御を行う。このフラグ制御によれば、新たに検出された人物にはフラグが立っておらず、既に検出済みの人物にはフラグが立っているため、新たに検出された人物と既に検出済みの人物とを区別することができる。   The passer-by person detection unit 202a determines a moving region detection processing unit 202a that detects a moving region from the frame difference of an image captured by the camera 150, and determines whether or not the moving region is a rectangle that approximates a person. And a person detection processing unit 202b for detecting. The gaze person detection processing unit 203 extracts a rectangle assumed to correspond to the face portion from a rectangular moving region that approximates the person detected by the person detection processing unit 202b, and determines whether or not the rectangle is a face. A face detection processing unit 203a for detecting a face and a face angle detection processing unit 203b for detecting a face direction to which the face detected by the face detection processing unit 203a is facing. The person detection processing unit 202b and the face detection processing unit 203a set a flag on the image data of the detected person and prevent detection of the person with the flag in order to prevent the same person from being detected twice. Perform flag control. According to this flag control, the newly detected person is not flagged and the already detected person is flagged, so the newly detected person and the already detected person are Can be distinguished.

記憶部204は、不揮発性の磁気的記録装置であり、前述の顔角度検出処理部203bにより広告看板へ向く顔方向であると判定する顔方向角度の判定基準(顔角度検出基準)を格納する注視判断基準204aを有する。具体的には、顔領域の縦横比率を判定し、当該画像を撮影したカメラ150とTV画面100tとの位置関係と撮影された画像に含まれる顔の縦横比率とを判定して、顔方向がTV画面100tを向くものであると見なしうる顔方向の角度であるか否かを判断する。例えばカメラ150が撮影した顔の場合、該カメラ150とTV画面100tとが同一方向を向く位置関係にあることから、縦横比率が正面を向く人間の顔の比率に近ければ近いほど該顔がTV画面を注視している可能性が高い。そして、顔方向がTV画面を注視するものであると見なしうる顔方向の角度である場合に、該顔方向の角度が顔角度検出処理部203bの検出対象となる。   The storage unit 204 is a non-volatile magnetic recording device, and stores a determination criterion for a face direction angle (face angle detection reference) determined by the face angle detection processing unit 203b as a face direction toward an advertising billboard. It has a gaze determination criterion 204a. Specifically, the aspect ratio of the face area is determined, the positional relationship between the camera 150 that captured the image and the TV screen 100t and the aspect ratio of the face included in the captured image are determined, and the face direction is determined. It is determined whether or not the angle is a face direction angle that can be regarded as facing the TV screen 100t. For example, in the case of a face photographed by the camera 150, since the camera 150 and the TV screen 100t are in a positional relationship facing the same direction, the closer the aspect ratio is to the ratio of a human face facing the front, the closer the face is to the TV. It is likely that you are watching the screen. When the face direction is an angle of the face direction that can be regarded as a gaze on the TV screen, the angle of the face direction becomes a detection target of the face angle detection processing unit 203b.

次に、図2に示した集計センタサーバ300の構成について説明する。図4は、図2に示した集計センタサーバ300の構成を示す機能ブロック図である。同図に示すように、この集計センタサーバ300は、主制御部301と、通過検出時刻登録部302と、顔角度登録処理部303と、注視深度率算出処理部304と、空注視率算出処理部305と、記憶部306と、キーボードなどの操作部308が接続される操作制御部307と、ディスプレイ装置などの表示部310が接続される表示制御部309と、外部とのデータ授受を制御するI/F部311とを有する。主制御部301は集計センタサーバ300全体の処理を制御する制御部である。具体的には主制御部301は、システムサーバ200からI/F部311を介して通過検知や顔方向の角度などの属性データを受け取って通過検出時刻登録部302又は顔角度登録処理部303へ受け渡す処理を行う。該属性データの授受を契機として通過検出時刻登録部302はカメラ150に撮影された画像に通行人として含まれていた人物の検知時刻を該人物単位に登録し、また顔角度登録処理部303はTV画面に顔方向の角度が向いている人物として画像に含まれていた人物の顔方向の角度(顔角度)を該人物単位に登録する。また、注視深度率算出処理部304は、人物単位に、時刻とともに変化する顔角度を総和し、該総和を、顔角度を検出した時間と、注視と見なしうる顔角度(注視角閾値)とで除した注視深度率を算出する。また空注視率算出処理部305は、人物単位にみて、一時的に顔角度が注視角閾値を下回った時間を挟んで顔角度が注視角閾値以上となる時間が隣接する場合に、これらの時間合計に対する一時的に顔角度が注視角閾値を下回った時間の比率を算出する。この比率を空注視率といい、この値が所定値より以下の場合に該一時的に顔角度が注視角閾値を下回った時間においても実質的にTV画面を注視しているとみなすこととする。この場合に、一時的に顔角度が注視角閾値を下回った時間を空注視時間という。また主制御部301は、通過検出時刻登録302又は顔角度登録処理部303から出力される情報を記憶部306へ受け渡す処理を行い、若しくは操作部308が受け付け操作制御部307で所定入力信号に変換された所定操作信号の入力を契機として前述の各処理を実行し、前述の各処理の処理結果を表示制御部309を介して表示部310へ表示させる処理を実行する。   Next, the configuration of the aggregation center server 300 shown in FIG. 2 will be described. FIG. 4 is a functional block diagram showing the configuration of the aggregation center server 300 shown in FIG. As shown in the figure, the aggregation center server 300 includes a main control unit 301, a passage detection time registration unit 302, a face angle registration processing unit 303, a gaze depth rate calculation processing unit 304, and an empty gaze rate calculation process. Control unit 305, storage unit 306, operation control unit 307 to which an operation unit 308 such as a keyboard is connected, display control unit 309 to which a display unit 310 such as a display device is connected, and external data transfer I / F unit 311. The main control unit 301 is a control unit that controls processing of the entire aggregation center server 300. Specifically, the main control unit 301 receives attribute data such as passage detection and a face direction angle from the system server 200 via the I / F unit 311, and passes to the passage detection time registration unit 302 or the face angle registration processing unit 303. Perform the transfer process. When the attribute data is exchanged, the passage detection time registration unit 302 registers the detection time of the person included in the image photographed by the camera 150 as a passerby for each person, and the face angle registration processing unit 303 The face direction angle (face angle) of the person included in the image as a person whose face direction angle is on the TV screen is registered in units of the person. Also, the gaze depth rate calculation processing unit 304 sums up the face angles that change with time for each person, and the sum is calculated based on the time at which the face angle is detected and the face angle (gaze angle threshold) that can be regarded as gaze. Calculate the gaze depth ratio divided. In addition, the empty gaze rate calculation processing unit 305, when the time when the face angle is equal to or greater than the gaze angle threshold, is adjacent to the time when the face angle temporarily falls below the gaze angle threshold, for each person. The ratio of the time when the face angle temporarily falls below the gaze angle threshold with respect to the total is calculated. This ratio is called the empty gaze rate, and when this value is below a predetermined value, it is considered that the TV screen is substantially watched even during the time when the face angle temporarily falls below the gaze angle threshold. . In this case, the time when the face angle temporarily falls below the gaze angle threshold is referred to as the empty gaze time. Further, the main control unit 301 performs a process of transferring information output from the passage detection time registration 302 or the face angle registration processing unit 303 to the storage unit 306, or the operation unit 308 receives a predetermined input signal by the operation control unit 307. The processing described above is executed in response to the input of the converted predetermined operation signal, and processing for displaying the processing result of each processing on the display unit 310 via the display control unit 309 is executed.

通過検出時刻登録部302は、システムサーバ200から送信されてくる属性データに基づいて通行人物が検出された時刻を登録指示する。この登録指示は記憶部306へ受け渡される。また顔角度登録処理部303は、システムサーバ200から送信されてくる属性データから顔角度を登録指示する。この登録指示は記憶部306へ受け渡される。なお、通過検出時刻登録部302及び顔角度登録処理部303は、100ミリ秒毎に人数検出時刻及び顔角度の登録指示を行う。即ち、100ミリ秒間の画像フレームに含まれる人物の顔角度を時刻とともに登録指示する。該登録指示を受けた記憶部306はDB306aに人物の顔角度を時刻とともに登録する。   The passage detection time registration unit 302 instructs to register the time when a passerby is detected based on the attribute data transmitted from the system server 200. This registration instruction is transferred to the storage unit 306. The face angle registration processing unit 303 instructs to register the face angle from the attribute data transmitted from the system server 200. This registration instruction is transferred to the storage unit 306. The passage detection time registration unit 302 and the face angle registration processing unit 303 issue a registration instruction for the number of people detection time and the face angle every 100 milliseconds. That is, it instructs to register the face angle of a person included in an image frame of 100 milliseconds along with the time. Receiving the registration instruction, the storage unit 306 registers the face angle of the person along with the time in the DB 306a.

注視深度率算出処理部304は、100ミリ秒単位でDB306aに登録された顔角度を、該顔角度が検出された人物単位に合計し、(顔角度の合計)÷(顔角度が検出された時間)÷(注視角閾値)を計算して注視深度率を算出する。なお、顔角度が検出された時間とは、顔角度が顔角度検出基準以上となり検出対象として検出開始した時刻から顔角度検出基準を下回り検出対象でなくなり検出終了した時刻までの時間である。また、注視角閾値とは、顔角度が対象のTV画面に表示されるコンテンツを注視していると見なすことができる最低限の顔角度である。また、実施例1においては、顔角度の合計は、顔角度が時刻Tに関する離散値である場合には、該離散値の合計とするが、顔角度が時刻Tに関する連続関数で表現できる場合には、該連続関数を顔角度が検出された時刻の区間で積分した積分値であるとする。   The gaze depth rate calculation processing unit 304 adds the face angles registered in the DB 306a in units of 100 milliseconds to the person unit from which the face angle is detected, and (total face angle) / (face angle detected). Time) ÷ (gazing angle threshold) is calculated to calculate the gaze depth rate. Note that the time when the face angle is detected is the time from the time when the face angle is equal to or greater than the face angle detection reference and the detection is started as the detection target to the time when the detection is no longer detected and the detection ends. Also, the gaze angle threshold is a minimum face angle at which the face angle can be regarded as gazing at the content displayed on the target TV screen. In the first embodiment, the total face angle is the sum of the discrete values when the face angle is a discrete value related to the time T, but the face angle can be expressed by a continuous function related to the time T. Is an integrated value obtained by integrating the continuous function in the interval of the time when the face angle is detected.

なお、上記計算式により算出された注視深度率が意味するところは、次の通りである。即ち、注視深度率=(顔角度の合計)÷(顔角度が検出された時間)÷(注視角閾値)=(顔角度の合計)÷{(顔角度が検出された時間)×(注視角閾値)}であるが、{(顔角度が検出された時間)×(注視角閾値)}は、該顔角度が検出された時間にわたって平均的に注視していたと見なしうる顔角度の合計値の最低限度である。即ち、(顔角度の合計)が{(顔角度が検出された時間)×(注視角閾値)}以上であれば、顔角度が検出された時間において平均的にみてコンテンツを注視していたと見なしうるのであり、(顔角度の合計)が{(顔角度が検出された時間)×(注視角閾値)}を下回っていれば平均的にみてコンテンツを注視してはいなかったと見なしうるのである。換言すれば、注視深度率が1以上であれば平均的にみてコンテンツを注視していたと見なし、1より小であれば平均的にみてコンテンツを注視してはいなかったと見なしうるのである。   Note that the gaze depth rate calculated by the above formula is as follows. That is, gaze depth rate = (total face angle) / (time when face angle is detected) / (gaze angle threshold) = (total face angle) / {(time when face angle is detected) × (gaze angle) Threshold)}, but {(time when face angle is detected) × (gaze angle threshold)} is the total value of face angles that can be considered to have been gaze on average over the time when the face angle was detected. It is the minimum limit. That is, if (total face angle) is equal to or greater than {(time when face angle is detected) × (gaze angle threshold)}, it is considered that content is being watched on average in the time when face angle is detected. Therefore, if (total of face angles) is less than {(time when face angles are detected) × (gaze angle threshold)}, it can be considered that content has not been watched on average. In other words, if the gaze depth rate is 1 or more, it can be considered that the content is watched on average, and if it is smaller than 1, it can be considered that the content is not watched on average.

記憶部306は、不揮発性の磁気的記録装置であり、100ミリ秒毎に通行人の顔角度を登録するDB306aを有する。100ミリ秒毎に1レコードが生成され、この1レコードに相当する100ミリ秒に含まれる画像のフレームに撮影されている通行人の顔角度及びその際の時刻が登録されている。   The storage unit 306 is a non-volatile magnetic recording device and includes a DB 306a that registers the face angle of a passerby every 100 milliseconds. One record is generated every 100 milliseconds, and the face angle of a passerby photographed in a frame of an image included in 100 milliseconds corresponding to the one record and the time at that time are registered.

次に、図4に示した集計センタサーバ300の記憶部306のDB306aに格納される顔角度登録テーブルについて説明する。図5は、図4に示した集計センタサーバ300の記憶部306のDB306aに格納される顔角度登録テーブルのテーブルイメージ図である。同図に示すように、データベーステーブルは、「人物ID」、「日付」、「時刻(T)」及び「顔角度(Z)」のカラムを持つ。カメラ150により撮影された人物で同一人物と見なされる人物単位にレコードが生成されている。例えば「人物ID」が“1”であるレコードは、2005年12月16日16時55分20秒100ミリ秒に10度の顔角度が検知された人物のレコードを含む。この時刻以降100ミリ秒毎にそれぞれ0度〜90度の顔角度が検知され登録されている。即ち、当該人物のTV画面エリアにおける存在及び顔角度の検知開始から終了まで、100ミリ秒毎に検知時刻とともに顔角度を検知して登録することとなる。   Next, a face angle registration table stored in the DB 306a of the storage unit 306 of the aggregation center server 300 illustrated in FIG. 4 will be described. FIG. 5 is a table image diagram of a face angle registration table stored in the DB 306a of the storage unit 306 of the aggregation center server 300 shown in FIG. As shown in the figure, the database table has columns of “person ID”, “date”, “time (T)”, and “face angle (Z)”. Records are generated for each person photographed by the camera 150 and regarded as the same person. For example, a record whose “person ID” is “1” includes a record of a person whose face angle of 10 degrees is detected at 16: 55: 20: 100 ms on December 16, 2005. After this time, face angles of 0 to 90 degrees are detected and registered every 100 milliseconds. That is, from the start to the end of the presence and face angle detection of the person in the TV screen area, the face angle is detected and registered together with the detection time every 100 milliseconds.

このようにデータベーステーブルを構成し、人物単位に「日付」、「時刻」及び「顔角度」の情報を記憶し、この記憶されたデータを分析することによって、次の効果が期待できる。即ち、“日時”と共に変化する周辺照度やTV画面エリアなどの周辺環境がTV画面への注視に与える影響を統計的に把握することができる。また、“日時”により特定可能な気温、天候、社会情勢(報道や争乱など)の外部的要因がTV画面への注視に与える影響を把握することができる。また、TV画面に表示させるコンテンツ自体の体裁やデザイン、若しくはコンテンツの企画・構成が該TV画面への注視に与える影響の把握が可能となる。このような注視の評価により、TV画面への注意喚起をより促すようなコンテンツの提示方法を確立し、効果の立証を行うことが可能となる。   By configuring the database table in this way, storing information on “date”, “time”, and “face angle” for each person, and analyzing the stored data, the following effects can be expected. That is, it is possible to statistically grasp the influence of the surrounding environment such as the ambient illuminance and the TV screen area that changes with the “date and time” on the gaze on the TV screen. In addition, it is possible to grasp the influence of external factors such as temperature, weather, and social conditions (reporting, conflicts, etc.) that can be specified by “date and time” on the TV screen. In addition, it is possible to grasp the influence of the appearance and design of the content itself displayed on the TV screen, or the planning and configuration of the content on the watching on the TV screen. With such gaze evaluation, it is possible to establish a method for presenting content that further encourages attention to the TV screen and to verify the effect.

次に、図1及び2に示したコンテンツ注目評価装置及び評価方法における処理手順について説明する。図6は、図1及び2に示したコンテンツ注目評価装置及び評価方法における処理手順を示すフローチャートである。同図に示すように、システムサーバ200は、先ず動領域を検出する(ステップS101)。続いて、検出された動領域が人物であるか否かを判定し(ステップS102)、人物であると判定される場合に(ステップS102肯定)顔領域検出処理を実行する(ステップS103)。続いて顔領域検出か否かを判定し(ステップS104)、顔領域検出と判定された場合に(ステップS104肯定)顔角度検出処理を実行する(ステップS105)。なお、動領域が人物と判定されなかった場合(ステップS102否定)又は顔領域が検出されたと判定されなかった場合(ステップS104否定)には、ステップS107へ処理を移す。ステップS105に続き、顔角度を検出した情報を集計センタサーバ300へ送信する(ステップS106)。続いてトラッキング終了か否かを判定し(ステップS107)、トラッキング終了と判定される場合には(ステップS107肯定)システムサーバ200における処理を終了し、トラッキング終了と判定されない場合には(ステップS107否定)ステップS101へ処理を移す。   Next, a processing procedure in the content attention evaluation device and the evaluation method shown in FIGS. 1 and 2 will be described. FIG. 6 is a flowchart showing a processing procedure in the content attention evaluation device and the evaluation method shown in FIGS. As shown in the figure, the system server 200 first detects a moving area (step S101). Subsequently, it is determined whether or not the detected moving area is a person (step S102). When it is determined that the detected moving area is a person (Yes in step S102), face area detection processing is executed (step S103). Subsequently, it is determined whether or not the face area is detected (step S104). When it is determined that the face area is detected (Yes in step S104), face angle detection processing is executed (step S105). If the moving area is not determined to be a person (No at Step S102) or if it is not determined that a face area is detected (No at Step S104), the process proceeds to Step S107. Subsequent to step S105, information indicating the detected face angle is transmitted to the aggregation center server 300 (step S106). Subsequently, it is determined whether or not tracking is completed (step S107). When it is determined that tracking is completed (step S107 affirmative), the processing in the system server 200 is terminated, and when it is not determined that tracking is completed (No in step S107). ) The process is moved to step S101.

一方集計センタサーバ300では、先ず全ての処理に先立って所定時間の計時を開始する計時開始処理(ステップS201)を行い、システムサーバ200からステップS106の処理により顔角度の情報が送信されてくると、検知時刻・顔角度登録処理を実行する(ステップS202)。続いて所定時間(例えば100ミリ秒)経過したか否かを判定し(ステップS203)、所定時間経過と判定された場合に(ステップS203肯定)ステップS204へ処理を移し、所定時間経過と判定されなかった場合に(ステップS203否定)ステップS202へ処理を移す。ステップS204では、検知時刻・顔角度登録処理終了か否かを判定し、検知時刻・顔角度登録処理終了と判定される場合には(ステップS204肯定)集計センタサーバ300における処理を終了し、検知時刻・顔角度登録処理終了と判定されない場合には(ステップS204否定)ステップS201へ処理を移す。   On the other hand, the aggregation center server 300 first performs a timing start process (step S201) that starts counting a predetermined time prior to all the processes, and when face angle information is transmitted from the system server 200 by the process of step S106. Then, detection time / face angle registration processing is executed (step S202). Subsequently, it is determined whether or not a predetermined time (for example, 100 milliseconds) has elapsed (step S203). If it is determined that the predetermined time has elapsed (Yes in step S203), the process proceeds to step S204, and it is determined that the predetermined time has elapsed. If not (No at Step S203), the process proceeds to Step S202. In step S204, it is determined whether or not the detection time / face angle registration process is finished. If it is determined that the detection time / face angle registration process is finished (Yes in step S204), the process in the aggregation center server 300 is finished and detected. If it is not determined that the time / face angle registration process has ended (No at step S204), the process proceeds to step S201.

次に、図1及び2に示したコンテンツ注目評価装置及び評価方法による顔角度検知の概要を説明する。図7は、図1及び2に示したコンテンツ注目評価装置及び評価方法による顔角度検知の概要を視覚的にグラフ化した説明図である。なお、ここでは、カメラ150により撮影された画像の1フレームが100ミリ秒に相当する前提とする。図7は、TV画面100tに表示されるコンテンツを注視する顔角度について、顔角度検出時刻(T[sec])と顔角度(Z[deg])との相関を示すものである。同図によれば、フレーム1(最初の100ミリ秒)においては顔角度0度であり、フレーム2においては顔角度Z1である。そして、フレーム3〜6においては顔角度Z2である。なお、顔角度がZ2となって初めて注視角閾値Z0以上となったので、TV画面100tに表示されるコンテンツを注視ていると見なしうるものとなっている。注視角閾値Z0は、コンテンツ注視と見なしうる顔角度の最低値である。そして、フレーム7〜10では、顔角度がZ3となり、Z3がグラフにおける最大値であることから、最も該コンテンツを注視していると見なしうるものとなっている。そしてフレーム11では顔角度がZ4となり、フレーム12では顔角度がZ5となっている。Z5は注視角閾値Z0を下回るので、フレーム12において一時的にコンテンツに対する注視が途切れたと見なしうる。しかし、フレーム13において顔角度は再びZ3となっており、コンテンツに対する注視が再開したと見なしうる。そしてフレーム14では、顔角度はZ6へと遷移している。 Next, an outline of face angle detection by the content attention evaluation device and the evaluation method shown in FIGS. 1 and 2 will be described. FIG. 7 is an explanatory diagram in which the outline of the face angle detection by the content attention evaluation device and the evaluation method shown in FIGS. Here, it is assumed that one frame of an image taken by the camera 150 corresponds to 100 milliseconds. FIG. 7 shows the correlation between the face angle detection time (T [sec]) and the face angle (Z [deg]) with respect to the face angle at which the content displayed on the TV screen 100t is watched. According to the figure, the face angle is 0 degree in the frame 1 (first 100 milliseconds), and the face angle Z 1 in the frame 2. Then, the face angle Z 2 in the frame 3-6. Note that since the face angle becomes Z 2 and becomes the gaze angle threshold value Z 0 or more for the first time, it can be considered that the content displayed on the TV screen 100t is being watched. The gaze angle threshold value Z 0 is the minimum value of the face angle that can be regarded as content gaze. In frames 7 to 10, the face angle is Z 3 , and Z 3 is the maximum value in the graph, so that it can be considered that the content is most watched. The face angle in the frame 11 Z 4, and the face angle in the frame 12 is in the Z 5. Since Z 5 is below the gaze angle threshold value Z 0 , it can be considered that the gaze on the content is temporarily interrupted in the frame 12. However, the face angle is again Z 3 in the frame 13, and it can be considered that the gaze on the content has been resumed. Then the frame 14, the face angle is transition to Z 6.

なお、図7のグラフのグラフにおいて、フレーム3からフレーム11にかかるa秒間は連続して全て顔角度が注視角閾値Z0以上となっており、連続する1回の注視期間と見ることができる。そして、フレーム12のd秒間において顔角度Z5が注視角閾値Z0を下回っているが、フレーム13のb秒間において再び顔角度Z3が注視角閾値Z0以上となっている。ここでc=d/(a+b+d)を「空注視率」という。ここで“d”は、空注視時間といい、コンテンツに対する意識はあるが視線が該コンテンツにない時間を指す。すなわち「空注視率」は、一時的にコンテンツに対する注視が途切れたが、引き続き注視していると見なしうる時間の割合を示す。注視角閾値Z0を下回ると連続した注視と顔角度が見なされなくなるが、前述の注視深度を加味すると、空注視時間においても連続した注視と見なしうることとなる。 In the graph of FIG. 7, all face angles are continuously equal to or greater than the gaze angle threshold value Z 0 for a seconds from frame 3 to frame 11, and can be regarded as one continuous gaze period. . The face angle Z 5 is below the gaze angle threshold value Z 0 in d seconds of the frame 12, but the face angle Z 3 is again greater than or equal to the gaze angle threshold value Z 0 in b seconds of the frame 13. Here, c = d / (a + b + d) is referred to as “empty gaze rate”. Here, “d” is referred to as empty gaze time, which is a time when the content is conscious but the line of sight is not in the content. That is, the “empty gazing rate” indicates a ratio of time that can be considered that the content is temporarily being watched, but is continuously watched. If the gaze angle threshold value Z 0 is not reached, continuous gaze and face angles are not considered, but if the above gaze depth is taken into account, it can be regarded as continuous gaze even in the empty gaze time.

実施例1のようにコンテンツ注目の評価が可能であると、時間とともに変化するTV画面に表示されるコンテンツのうちどのコンテンツがより高い注視を集めたかが分析可能となる。例えば特定のコンテンツを表示する場合に、該コンテンツへの注視が時間帯に応じてどのように異なるかが判断可能となる。またTV放送番組の合間に流すCMに対する注視の程度を分析可能となる。これらのことから、本発明によれば、TV画面に表示するコンテンツを時間的にどのように構成するとより高い注視を集めることが可能となるかを分析することが可能となる。   If the content attention evaluation can be performed as in the first embodiment, it is possible to analyze which of the contents displayed on the TV screen that changes with time has collected higher attention. For example, when displaying a specific content, it is possible to determine how the gaze on the content varies depending on the time zone. In addition, it is possible to analyze the degree of gaze on the CM that flows between TV broadcast programs. From these facts, according to the present invention, it is possible to analyze how the content displayed on the TV screen can be collected in terms of time so that a higher gaze can be collected.

実施例1では、TV画面の前面に存在する人物の該TV画面に対する注視の時間推移を検出して記憶することとしたが、これに限らず、列車などの公共交通機関の車両内に設置される動画像表示装置などにも適用可能である。TV画面又は動画像表示装置のいずれであっても、携帯電話やその他の要因により顔角度が一時的に注視角閾値を下回っても、意識下では連続した注視効果が期待できる場合に、該注視効果を定量的に把握することが可能となり、TV画面又は動画像表示装置のコンテンツの出稿主に対して、効果的な出稿方法を提示することが可能となる。また、空注視時間を加味した意識下にある注目率の積算値を算出することができる。このように、注視判断となる顔角度の注視角閾値を超えないが、意識下では注視を継続している状態を示す「空注視」という概念を導入することにより、TV画面に表示されるコンテンツに対する注視の評価をより実態に即した形で行うことができる。   In the first embodiment, the time transition of gaze on the TV screen of a person existing in front of the TV screen is detected and stored. However, the present invention is not limited to this, and is installed in a vehicle of public transportation such as a train. It can also be applied to a moving image display device. Regardless of whether it is a TV screen or a moving image display device, if a continuous gaze effect can be expected under consciousness even if the face angle temporarily falls below the gaze angle threshold due to a mobile phone or other factors, the gaze It is possible to quantitatively grasp the effect, and it is possible to present an effective placement method to the content creator of the TV screen or the moving image display device. In addition, it is possible to calculate an integrated value of the attention rate under the consciousness in consideration of the empty gaze time. In this way, content that is displayed on the TV screen by introducing the concept of “empty gaze” that indicates a state in which the gaze angle threshold of the face angle that is gaze judgment is not exceeded but that the gaze is kept under consciousness is introduced. It is possible to perform a gaze evaluation on a more realistic form.

図8は、実施例2に係るコンテンツ注目評価装置及び評価方法の概念を説明するための説明図である。同図に示すように、本装置及び方法では、広告看板前における移動距離(人物位置)Lの経過とともに変化する広告看板100aの前面の広告看板注視エリアに存在する人物の、該広告看板への視線方向を検出・記憶することを特徴とする。なお、人物位置Lとは、広告看板に対する人物の位置を表す座標であり、実施例1では、向かって広告看板の左端又はその近傍の定点を原点とし、該原点からの距離[m]をあらわす座標である。   FIG. 8 is an explanatory diagram for explaining the concept of the content attention evaluation device and the evaluation method according to the second embodiment. As shown in the figure, in the present apparatus and method, a person existing in the advertising billboard watching area in front of the advertising billboard 100a that changes as the moving distance (person position) L in front of the advertising billboard changes to the advertising billboard. It is characterized by detecting and memorizing the line-of-sight direction. The person position L is a coordinate representing the position of the person with respect to the advertisement signboard. In the first embodiment, the origin is a fixed point at or near the left end of the advertisement signboard, and represents a distance [m] from the origin. Coordinates.

同図によると、広告看板注視エリアにおいて、広告看板の平行線とのなす角が最初にθ=θ1[deg]であった視線方向は、人物の移動後にθ=θ2[deg]へと変化している。このように人物位置Lの経過毎に変化するθを検出・記憶すると、広告看板注視エリアに存在する人物の該広告看板への注視の移動距離に応じた変化を分析可能となる。 According to the figure, in the advertising sign watching area, the direction of the line of sight that was initially θ = θ 1 [deg] with the parallel line of the advertising sign is θ = θ 2 [deg] after the person moves. It has changed. As described above, when θ that changes every time the person position L elapses is detected and stored, it is possible to analyze a change in accordance with the moving distance of the person present in the advertisement signboard gaze area to the advertisement signboard.

従来、コンテンツに対する注視を評価分析する方法としては、該コンテンツに注視する人物の数を統計する手法が一般的であった。この方法によると、少しでも顔方向がコンテンツへ向いていると該コンテンツに注視していると見され、該コンテンツに注視する人物として計数されていた。しかし、一概にコンテンツへの注視といっても、人物が該コンテンツに対して深い注目を与えている場合と、軽い注目を与えている場合とがある。例えば深い注目とは、人物がコンテンツに対して意識の集中を以って注目している場合であり、軽い注目とは、該人物がコンテンツに対して散漫な意識を以ってしか見ていない場合である。特に、コンテンツが移動しながら見られることを想定して設置されているものである場合に、該移動に伴って注目の程度も変化しうると考えられる。このように、人物がその移動とともにコンテンツに対してどれだけの意識の集中を以って視線を向けているかの判断は容易ではないが、例えば該人物の該コンテンツに対する視線方向が該コンテンツに対する意識の集中の程度と何らかの相関があると考えられる。本発明は、この点に着目してなされたものであり、広告看板の前面を移動する人物の視線方向が該広告看板の平行線となす角度を検出して記憶することにより、該人物の移動とともに変化する、広告看板への注目の程度を分析・評価することを可能としたものである。   Conventionally, as a method for evaluating and analyzing a gaze on the content, a method of statistically counting the number of persons watching the content has been common. According to this method, when the face direction is even toward the content, it is considered that the user is gazing at the content, and is counted as a person gazing at the content. However, generally speaking, there are a case where a person gives deep attention to the content and a case where light attention is given to the content. For example, deep attention is when a person is paying attention to the content with a concentration of consciousness, and light attention is when the person is only watching with distraction to the content. Is the case. In particular, when the content is installed on the assumption that it can be viewed while moving, it is considered that the degree of attention can also change with the movement. In this way, it is not easy to determine how much a person's consciousness is directed toward the content as the person moves, but for example, the gaze direction of the person with respect to the content is conscious of the content. It seems that there is some correlation with the degree of concentration. The present invention has been made paying attention to this point, and by detecting and storing the angle formed by the line-of-sight direction of the person moving in front of the advertising billboard and the parallel line of the advertising billboard, the movement of the person It is possible to analyze and evaluate the degree of attention to advertising billboards, which changes with time.

次に、図8に示したコンテンツ注目評価装置及び評価方法のシステム構成について説明する。図9は、実施例1のコンテンツ注目評価装置及びコンテンツ注目評価システムのシステム構成を説明するための説明図である。同図によれば、通路の横に広告看板100aが配設された通路を通過する通行人物を撮影するための3台の広角カメラが該通路の所定位置に配置されている。即ち、広告看板100a側から通路に存在する通行人物を撮影するカメラ150a、向かって左側に広告看板100aが位置する当該通路上の配設位置から通路に存在する通行人物を撮影するカメラ150b、向かって右側に広告看板100aが位置する当該通路上の配設位置から通路に存在する通行人物を撮影するカメラ150cがそれぞれの配設位置に存在する。   Next, the system configuration of the content attention evaluation device and the evaluation method shown in FIG. 8 will be described. FIG. 9 is an explanatory diagram for explaining a system configuration of the content attention evaluation device and the content attention evaluation system according to the first embodiment. According to the figure, three wide-angle cameras for photographing a passing person passing through a passage where an advertising billboard 100a is arranged beside the passage are arranged at predetermined positions in the passage. That is, the camera 150a that captures a passerby present in the passage from the advertisement signboard 100a side, and the camera 150b that captures a passerby present in the passage from the position on the passage where the advertisement signboard 100a is located on the left side. On the right side, there are cameras 150c that shoot passersby in the passage from the placement position on the passage where the advertising billboard 100a is located.

同図に示したカメラ領域r1は、カメラ150b及びカメラ150cにより通行人物の撮影が可能な領域である。この領域内に存在する通行人物は、カメラ150b又はカメラ150cにより撮影されることによって通行人物として検出され得る。また、カメラ領域r1で検出された通行人物の顔方向が広告看板100a方向を向くか否かが検出される。同様にカメラ領域r2は、カメラ150aにより通行人物の撮影が可能な領域である。カメラ領域r2に存在する通行人物は、カメラ150aによる撮影によってその存在が検出されることはもとより、通行人物の顔が広告看板100a方向を向くか否かが検出される。これは、カメラ150aが広告看板100aの同一面内又はその近傍に配設されていることにより、視線を向けるために広告看板へ顔方向を向けると、この広告看板方向を向く顔がカメラ150aにより撮影されることによる。   The camera area r1 shown in the figure is an area where a camera person can be photographed by the camera 150b and the camera 150c. A passerby existing in this area can be detected as a passerby by being photographed by the camera 150b or the camera 150c. Further, it is detected whether or not the face direction of the passerby detected in the camera region r1 is directed to the advertising billboard 100a. Similarly, the camera area r2 is an area where a passerby can be photographed by the camera 150a. In addition to detecting the presence of a passerby in the camera area r2 by photographing with the camera 150a, it is detected whether or not the face of the passerby faces the direction of the advertising billboard 100a. This is because when the camera 150a is arranged in the same plane of the advertising billboard 100a or in the vicinity thereof, when the face direction is directed to the advertising billboard in order to turn the line of sight, the face facing the advertising billboard direction is caused by the camera 150a. By being photographed.

カメラ150a、150b、150c及びシステムサーバ200がケーブルCを介して接続されている。少なくとも一つのシステムサーバ200がネットワークNを介して集計センタサーバ300と接続されている。システムサーバ200と集計センタサーバ300は異なるフロアに設置されているものとするが、同一のフロアに設置されてもよく、また同一のコンピュータシステムに実装されていてもよいものである。システムサーバ200は、カメラ150a、150b又は150cにより撮影された画像を分析して該画像から通行人物及び該通行人物の顔方向を検出するための分析装置である。カメラ150a、150b及び150cは通行人物を含む画像を撮影して該画像をシステムサーバ200へ送信する。システムサーバ200では該画像を分析して該画像に含まれる通行人物の客観的な属性データを検出して該属性データを集計センタサーバ300へ送信する。集計センタサーバ300は、該属性データを集計し各種分析指標を算出する。即ち、個人を特定することができる画像情報は、システムサーバ200及びカメラ150a、150b、150c間で閉じており、これら以外に送信されることもなければ取得されることもない。よって本実施例1の広告注目評価システムは、システムサーバ200及びカメラ150a、150b、150cにおいて集中的に個人情報保護を図るだけで個人情報の漏洩・拡散を防止できるシステムとなっている。   The cameras 150a, 150b, 150c and the system server 200 are connected via a cable C. At least one system server 200 is connected to the aggregation center server 300 via the network N. The system server 200 and the aggregation center server 300 are installed on different floors, but may be installed on the same floor or may be mounted on the same computer system. The system server 200 is an analysis device that analyzes an image captured by the camera 150a, 150b, or 150c and detects a passerby and a face direction of the passerby from the image. The cameras 150a, 150b, and 150c capture an image including a passerby and transmit the image to the system server 200. The system server 200 analyzes the image, detects objective attribute data of a passerby included in the image, and transmits the attribute data to the aggregation center server 300. The aggregation center server 300 aggregates the attribute data and calculates various analysis indexes. That is, the image information that can identify an individual is closed between the system server 200 and the cameras 150a, 150b, and 150c, and is not transmitted or acquired other than these. Therefore, the advertisement attention evaluation system according to the first embodiment is a system that can prevent leakage and diffusion of personal information only by intensively protecting personal information in the system server 200 and the cameras 150a, 150b, and 150c.

次に、図9に示したシステムサーバ200の構成について説明する。図10は、図9に示したシステムサーバ200の構成を示す機能ブロック図である。同図に示すように、このシステムサーバ200は、主制御部201と、通行人物検知部202と、注視人物検出処理部203と、記憶部204と、キーボードなどの操作部206が接続される操作制御部205と、ディスプレイ装置などの表示部208が接続される表示制御部207と、外部とのデータ授受を制御するI/F部209とを有する。主制御部201はシステムサーバ200全体の処理を制御する制御部である。具体的には、カメラ150からI/F部209を介して画像データを受け取って通行人物検出部202又は注視人物検出処理部203へ受け渡す処理を行い、通行人物検出部202又は注視人物検出処理部203から出力される情報を記憶部204へ受け渡したりI/F部209を介して集計センタサーバ300へ送信したりする処理を行い、若しくは操作部206が受け付け操作制御部205で所定入力信号に変換された所定操作信号の入力を契機として前述の各処理を実行し、前述の各処理部の処理結果を表示制御部207を介して表示部208へ表示させる処理を実行する。   Next, the configuration of the system server 200 shown in FIG. 9 will be described. FIG. 10 is a functional block diagram showing the configuration of the system server 200 shown in FIG. As shown in the figure, the system server 200 includes an operation to which a main control unit 201, a passer-by person detection unit 202, a gaze person detection processing unit 203, a storage unit 204, and an operation unit 206 such as a keyboard are connected. The control unit 205 includes a display control unit 207 to which a display unit 208 such as a display device is connected, and an I / F unit 209 that controls data exchange with the outside. The main control unit 201 is a control unit that controls processing of the entire system server 200. Specifically, the image data is received from the camera 150 via the I / F unit 209 and transferred to the passer-by detection unit 202 or the gaze detection unit 203, and the passer-by detection unit 202 or the gaze detection process The information output from the unit 203 is transferred to the storage unit 204 or transmitted to the aggregation center server 300 via the I / F unit 209, or the operation unit 206 receives a predetermined input signal from the reception operation control unit 205. The processing described above is executed in response to the input of the converted predetermined operation signal, and processing for displaying the processing result of each processing unit on the display unit 208 via the display control unit 207 is executed.

通行人物検出部202aは、カメラ150により撮影された画像のフレーム差分から動領域を検出する動領域検出処理部202aと、該移動領域が人物を近似する矩形であるか否かを判定して人物を検出する人物検出処理部202b及び人物が広告看板100aに対してどの位置にあるかを検出する人物位置検出処理部202cとを有する。注視人物検出処理部203は、人物検出処理部202bにより検出された人物を近似する矩形の動領域から顔部分に相当すると想定される矩形を取り出し、該矩形が顔であるか否かを判定して顔を検出する顔検出処理部203aと、顔検出処理部203aにより検出された顔が向いている顔方向を検出する顔角度検出処理部203bとを有する。人物検出処理部202b及び顔検出処理部203aは、同一人物を重複して検出することを防止するため、検出済みの人物の画像データにフラグを立て、フラグが立っている人物は検出を行わないフラグ制御を行う。このフラグ制御によれば、新たに検出された人物にはフラグが立っておらず、既に検出済みの人物にはフラグが立っているため、新たに検出された人物と既に検出済みの人物とを区別することができる。   The passer-by person detection unit 202a determines a moving region detection processing unit 202a that detects a moving region from the frame difference of an image captured by the camera 150, and determines whether or not the moving region is a rectangle that approximates a person. A person detection processing unit 202b for detecting the position and a person position detection processing unit 202c for detecting the position of the person with respect to the advertising billboard 100a. The gaze person detection processing unit 203 extracts a rectangle assumed to correspond to the face portion from a rectangular moving region that approximates the person detected by the person detection processing unit 202b, and determines whether or not the rectangle is a face. A face detection processing unit 203a for detecting a face and a face angle detection processing unit 203b for detecting a face direction to which the face detected by the face detection processing unit 203a is facing. The person detection processing unit 202b and the face detection processing unit 203a set a flag on the image data of the detected person and prevent detection of the person with the flag in order to prevent the same person from being detected twice. Perform flag control. According to this flag control, the newly detected person is not flagged and the already detected person is flagged, so the newly detected person and the already detected person are Can be distinguished.

記憶部204は、不揮発性の磁気的記録装置であり、前述の顔角度検出処理部203bにより広告看板へ向く顔方向であると判定する顔方向角度の判定基準(顔角度検出基準)を格納する注視判断基準204aを有する。具体的には、顔領域の縦横比率を判定し、当該画像を撮影したカメラ150a、150b又は150cと広告看板100aとの位置関係と撮影された画像に含まれる顔の縦横比率とを判定して、顔方向が広告看板100aを向くものであると見なしうる顔方向の角度であるか否かを判断する。例えばカメラ150aが撮影した顔の場合、カメラ150aと広告看板100aとが同一方向を向く位置関係にあることから、縦横比率が正面を向く人間の顔の比率に近ければ近いほど該顔が広告看板を注視している可能性が高い。そして、顔方向が広告看板を注視するものであると見なしうる顔方向の角度である場合に、該顔方向の角度が顔角度検出処理部203bの検出対象となる。   The storage unit 204 is a non-volatile magnetic recording device, and stores a determination criterion for a face direction angle (face angle detection reference) determined by the face angle detection processing unit 203b as a face direction toward an advertising billboard. It has a gaze determination criterion 204a. Specifically, the aspect ratio of the face area is determined, and the positional relationship between the camera 150a, 150b or 150c that captured the image and the advertising billboard 100a and the aspect ratio of the face included in the captured image are determined. Then, it is determined whether or not the face direction is an angle of the face direction that can be regarded as facing the advertising billboard 100a. For example, in the case of a face photographed by the camera 150a, since the camera 150a and the advertising billboard 100a are in a positional relationship facing the same direction, the face becomes closer to the proportion of a human face facing the front as the face becomes closer. There is a high possibility of watching. Then, when the face direction is an angle of the face direction that can be regarded as gazing at the advertising billboard, the angle of the face direction becomes a detection target of the face angle detection processing unit 203b.

次に、図9に示した集計センタサーバ300の構成について説明する。図11は、図9に示した集計センタサーバ300の構成を示す機能ブロック図である。同図に示すように、この集計センタサーバ300は、主制御部301と、通過検出時刻登録部302と、顔角度登録処理部303と、人物位置登録処置部312と、注視深度率算出処理部304と、空注視率算出処理部305と、記憶部306と、キーボードなどの操作部308が接続される操作制御部307と、ディスプレイ装置などの表示部310が接続される表示制御部309と、外部とのデータ授受を制御するI/F部311とを有する。主制御部301は集計センタサーバ300全体の処理を制御する制御部である。具体的には主制御部301は、システムサーバ200からI/F部311を介して通過検知や人物の位置情報や顔方向の角度などの属性データを受け取って通過検出時刻登録部302、人物位置登録処理部312又は顔角度登録処理部303へ受け渡す処理を行う。該属性データの授受を契機として通過検出時刻登録部302はカメラ150a、150b又は150cに撮影された画像に通行人として含まれていた人物に対応するレコードをDB306aに新規追加し、また人物位置登録処理部312は広告看板に対する人物の位置を該人物単位に登録する処理し、また顔角度登録処理部303は広告看板に顔方向の角度が向いている人物として画像に含まれていた人物の顔方向の角度(顔角度)を該人物単位に登録する。また、注視深度率算出処理部304は、人物単位に、時刻とともに変化する顔角度を総和し、該総和を、顔角度を検出した時間と、注視と見なしうる顔角度(注視角閾値)とで除した注視深度率を算出する。また空注視率算出処理部305は、人物単位にみて、一時的に顔角度が注視角閾値を下回った区間を挟んで顔角度が注視角閾値以上となる区間が隣接する場合に、これらの区間合計に対する一時的に顔角度が注視角閾値を下回った区間の比率を算出する。この比率を空注視率といい、この値が所定値より以下の場合に該一時的に顔角度が注視角閾値を下回った区間においても実質的に広告看板を注視しているとみなすこととする。この場合に一時的に顔角度が注視角閾値を下回った区間を空注視区間という。また主制御部301は、通過検出時刻登録302、顔角度登録処理部303又は人物位置登録処理部312から出力される情報を記憶部306へ受け渡す処理を行い、若しくは操作部308が受け付け操作制御部307で所定入力信号に変換された所定操作信号の入力を契機として前述の各処理を実行し、前述の各処理の処理結果を表示制御部309を介して表示部310へ表示させる処理を実行する。   Next, the configuration of the aggregation center server 300 shown in FIG. 9 will be described. FIG. 11 is a functional block diagram showing the configuration of the aggregation center server 300 shown in FIG. As shown in the figure, the aggregation center server 300 includes a main control unit 301, a passage detection time registration unit 302, a face angle registration processing unit 303, a person position registration processing unit 312, and a gaze depth rate calculation processing unit. 304, an empty gaze rate calculation processing unit 305, a storage unit 306, an operation control unit 307 to which an operation unit 308 such as a keyboard is connected, a display control unit 309 to which a display unit 310 such as a display device is connected, And an I / F unit 311 for controlling data exchange with the outside. The main control unit 301 is a control unit that controls processing of the entire aggregation center server 300. Specifically, the main control unit 301 receives attribute data such as passage detection, position information of the person, and angle of face direction from the system server 200 via the I / F unit 311, and receives the passage detection time registration unit 302, person position Processing to deliver to the registration processing unit 312 or the face angle registration processing unit 303 is performed. When the attribute data is exchanged, the passage detection time registration unit 302 newly adds a record corresponding to a person included as a passerby in the image taken by the camera 150a, 150b, or 150c to the DB 306a, and also registers the person position. The processing unit 312 performs processing for registering the position of the person with respect to the advertising billboard for each person, and the face angle registration processing unit 303 includes the face of the person included in the image as a person whose face direction angle is facing the advertising billboard. The direction angle (face angle) is registered in the person unit. Also, the gaze depth rate calculation processing unit 304 sums up the face angles that change with time for each person, and the sum is calculated based on the time at which the face angle is detected and the face angle (gaze angle threshold) that can be regarded as gaze. Calculate the gaze depth ratio divided. In addition, the empty gaze rate calculation processing unit 305, when the section where the face angle is equal to or greater than the gaze angle threshold is adjacent to the section where the face angle temporarily falls below the gaze angle threshold, in the unit of person, A ratio of a section in which the face angle temporarily falls below the gaze angle threshold with respect to the total is calculated. This ratio is referred to as the empty gaze rate, and when this value is less than a predetermined value, it is considered that the advertisement signboard is substantially watched even in a section where the face angle temporarily falls below the gaze angle threshold. . In this case, a section in which the face angle temporarily falls below the gaze angle threshold is referred to as an empty gaze section. Further, the main control unit 301 performs processing for transferring information output from the passage detection time registration 302, the face angle registration processing unit 303, or the person position registration processing unit 312 to the storage unit 306, or the operation unit 308 performs reception operation control. The above-described processes are executed in response to the input of the predetermined operation signal converted into the predetermined input signal by the unit 307, and the process of displaying the processing results of the respective processes on the display unit 310 via the display control unit 309 is executed. To do.

通過検出時刻登録部302は、システムサーバ200から送信されてくる属性データに基づいて通行人物が検出されたことに応じてDB306aへ新規レコード追加処理を指示する。この追加処理指示は記憶部306へ受け渡される。また顔角度登録処理部303は、システムサーバ200から送信されてくる属性データから顔角度を登録指示する。この登録指示は記憶部306へ受け渡される。また人物位置登録処理部312は、システムサーバ200から送信されてくる属性データから広告看板に対する人物の位置を登録指示する。この登録指示は記憶部306へ受け渡される。なお、顔角度登録処理部303及び人物位置登録処理部312は、100ミリ秒毎に顔角度及び人物位置の登録指示を行う。即ち、100ミリ秒間の画像フレームに含まれる人物の顔角度を人物位置とともに登録指示する。該登録指示を受けた記憶部306はDB306aに人物の顔角度を人物位置とともに登録する。   The passage detection time registration unit 302 instructs the DB 306a to perform a new record addition process when a passerby is detected based on the attribute data transmitted from the system server 200. This additional processing instruction is transferred to the storage unit 306. The face angle registration processing unit 303 instructs to register the face angle from the attribute data transmitted from the system server 200. This registration instruction is transferred to the storage unit 306. The person position registration processing unit 312 instructs to register the position of the person with respect to the advertisement signboard from the attribute data transmitted from the system server 200. This registration instruction is transferred to the storage unit 306. Note that the face angle registration processing unit 303 and the person position registration processing unit 312 issue a registration instruction for the face angle and the person position every 100 milliseconds. That is, the user instructs registration of the face angle of the person included in the image frame of 100 milliseconds together with the person position. Receiving the registration instruction, the storage unit 306 registers the face angle of the person together with the person position in the DB 306a.

なお、実施例2における通過検出時刻登録処理部302は、DB306aへの新規レコード追加処理のみを行うこととし、通過検出時刻登録は省略することとするが、これに限らず、DB306aへの新規レコード追加処理時に通過検出時刻登録処理を行うこととしてもよい。   The passage detection time registration processing unit 302 according to the second embodiment performs only new record addition processing in the DB 306a and omits passage detection time registration. However, the present invention is not limited to this, and a new record in the DB 306a is performed. The passage detection time registration process may be performed during the additional process.

注視深度率算出処理部304は、100ミリ秒単位でDB306aに登録された顔角度を、該顔角度が検出された人物単位に合計し、(顔角度の合計)÷(顔角度が検出された位置の差分)÷(注視角閾値)を計算して注視深度率を算出する。なお、顔角度が検出された位置の差分とは、顔角度が顔角度検出基準以上となり検出対象として検出開始した位置から顔角度検出基準を下回り検出対象でなくなり検出終了した位置までの距離である。また、注視角閾値とは、顔角度が対象の広告看板を注視していると見なすことができる最低限の顔角度である。また、実施例2においては、顔角度の合計は、顔角度が人物位置Lに関する離散値である場合には、該離散値の合計とするが、顔角度が人物位置Lに関する連続関数で表現できる場合には、該連続関数を顔角度が検出された人物位置の区間で積分した積分値であるとする。   The gaze depth rate calculation processing unit 304 adds the face angles registered in the DB 306a in units of 100 milliseconds to the person unit from which the face angle is detected, and (total face angle) / (face angle detected). The gaze depth ratio is calculated by calculating (positional difference) / (gazing angle threshold). The difference in the position at which the face angle is detected is the distance from the position at which the face angle is equal to or greater than the face angle detection reference and the detection start as a detection target to the position at which the detection is no longer the detection target. . The gaze angle threshold is a minimum face angle at which the face angle can be regarded as gazing at the target advertising billboard. In the second embodiment, the total face angle is the sum of the discrete values when the face angle is a discrete value related to the person position L, but the face angle can be expressed by a continuous function related to the person position L. In this case, it is assumed that the continuous function is an integrated value obtained by integrating the continuous function in the section of the person position where the face angle is detected.

なお、上記計算式により算出された注視深度率が意味するところは、次の通りである。即ち、注視深度率=(顔角度の合計)÷(顔角度が検出された位置の差分)÷(注視角閾値)=(顔角度の合計)÷{(顔角度が検出された位置の差分)×(注視角閾値)}であるが、{(顔角度が検出された位置の差分)×(注視角閾値)}は、該顔角度が検出された位置の差分にわたって平均的に注視していたと見なしうる顔角度の合計値の最低限度である。即ち、(顔角度の合計)が{(顔角度が検出された位置の差分)×(注視角閾値)}以上であれば、顔角度が検出された位置の差分において平均的にみてコンテンツを注視していたと見なしうるのであり、(顔角度の合計)が{(顔角度が検出された位置の差分)×(注視角閾値)}を下回っていれば平均的にみてコンテンツを注視してはいなかったと見なしうるのである。換言すれば、注視深度率が1以上であれば平均的にみてコンテンツを注視していたと見なし、1より小であれば平均的にみてコンテンツを注視してはいなかったと見なしうるのである。   Note that the gaze depth rate calculated by the above formula is as follows. That is, gaze depth ratio = (total face angle) / (difference in position at which face angle is detected) / (gaze angle threshold) = (total face angle) / {(difference in position at which face angle is detected) X (gazing angle threshold)}, but {(difference in position where the face angle was detected) × (gazing angle threshold)} was averaged over the difference in the position where the face angle was detected. This is the minimum degree of the total face angle that can be considered. That is, if (the sum of face angles) is equal to or more than {(difference of position at which face angle is detected) × (gaze angle threshold)}, the content is watched on average in the difference in position at which face angle is detected. If (total face angle) is less than {(difference in position where face angle is detected) x (gazing angle threshold)}, the content is not watched on average. It can be considered. In other words, if the gaze depth rate is 1 or more, it can be considered that the content is watched on average, and if it is smaller than 1, it can be considered that the content is not watched on average.

記憶部306は、不揮発性の磁気的記録装置であり、100ミリ秒毎に通行人の顔角度を登録するDB306aを有する。100ミリ秒毎に1レコードが生成され、この1レコードに相当する100ミリ秒に含まれる画像のフレームに撮影されている通行人の顔角度及びその際の人物位置が登録されている。   The storage unit 306 is a non-volatile magnetic recording device and includes a DB 306a that registers the face angle of a passerby every 100 milliseconds. One record is generated every 100 milliseconds, and the face angle of the passerby and the person position at that time are registered in an image frame included in 100 milliseconds corresponding to the one record.

次に、図11に示した集計センタサーバ300の記憶部306のDB306aに格納される顔角度登録テーブルについて説明する。図12は、図11に示した集計センタサーバ300の記憶部306のDB306aに格納される顔角度登録テーブルのテーブルイメージ図である。同図に示すように、データベーステーブルは、「人物ID」、「人物位置(L)」及び「顔角度(Z)」のカラムを持つ。カメラ150a、150b又は150cにより撮影された人物で同一人物と見なされる人物単位にレコードが生成されている。例えば「人物ID」が“1”であるレコードは、人物が“1”[m]において10度の顔角度が検知された人物のレコードを含む。この時刻以降100ミリ秒毎にそれぞれ0度〜90度の顔角度が検知され登録されている。即ち、当該人物の広告看板注視エリアにおける存在及び顔角度の検知開始から終了まで、100ミリ秒毎に人物位置とともに顔角度を検知して登録することとなる。   Next, a face angle registration table stored in the DB 306a of the storage unit 306 of the aggregation center server 300 illustrated in FIG. 11 will be described. FIG. 12 is a table image diagram of a face angle registration table stored in the DB 306a of the storage unit 306 of the aggregation center server 300 shown in FIG. As shown in the figure, the database table has columns of “person ID”, “person position (L)”, and “face angle (Z)”. A record is generated for each person photographed by the camera 150a, 150b or 150c and regarded as the same person. For example, a record whose “person ID” is “1” includes a record of a person whose face angle of 10 degrees is detected when the person is “1” [m]. After this time, face angles of 0 to 90 degrees are detected and registered every 100 milliseconds. That is, from the start to the end of the presence and face angle detection of the person in the advertising signboard gaze area, the face angle is detected and registered every 100 milliseconds.

このようにデータベーステーブルを構成し、人物単位に「人物位置」及び「顔角度」の情報を記憶し、この記憶されたデータを分析することによって、次の効果が期待できる。即ち、「人物位置」に応じて異なる広告看板の提供情報が広告看板への注視に与える影響を統計的に把握することができる。また、広告看板自体の体裁やデザイン、若しくは広告看板の企画・構成が該広告看板への注視に与える影響の把握が可能となる。このような注視の評価により、広告看板への注意喚起をより促すような広告の提示方法を確立し、効果の立証を行うことが可能となる。   By configuring the database table in this way, storing information on “person position” and “face angle” for each person, and analyzing the stored data, the following effects can be expected. That is, it is possible to statistically grasp the influence of the information provided by the advertising billboard that differs depending on the “person position” on the attention to the advertising billboard. In addition, it is possible to grasp the influence of the appearance and design of the advertisement signboard itself or the planning / configuration of the advertisement signboard on the attention to the advertisement signboard. By such gaze evaluation, it is possible to establish a method of presenting an advertisement that further encourages attention to the advertising billboard, and to prove the effect.

なお、通過検出時刻登録処理部302が、DB306aへの新規レコード追加処理時に通過検出時刻登録処理を行うこととする場合には、図11に示したデータベーステーブルに「日時」(若しくは「日付」及び「時刻」)のカラムが追加されることになる。このようにすると、検出されDB306aに登録された人物が、何時、どの位置にいて、広告看板に対してどれだけの深度の注視を示したかが把握可能となる。   Note that when the passage detection time registration processing unit 302 performs the passage detection time registration processing at the time of new record addition processing to the DB 306a, the database table shown in FIG. "Time") column will be added. In this way, it is possible to grasp when the person detected and registered in the DB 306a is gazing at what position and at what depth the person is gazing at the advertisement signboard.

次に、図8及び9に示したコンテンツ注目評価装置及び評価方法における処理手順について説明する。図13は、図8及び9に示したコンテンツ注目評価装置及び評価方法における処理手順を示すフローチャートである。同図に示すように、システムサーバ200は、先ず動領域を検出する(ステップS111)。続いて、検出された動領域が人物であるか否かを判定し(ステップS112)、人物であると判定される場合に(ステップS112肯定)顔領域検出処理を実行する(ステップS113)。続いて顔領域検出か否かを判定し(ステップS114)、顔領域検出と判定された場合に(ステップS114肯定)顔角度検出処理を実行する(ステップS115)。なお、動領域が人物と判定されなかった場合(ステップS112否定)及び顔領域が検出されたと判定されなかった場合(ステップS114否定)には、ステップS117へ処理を移す。ステップS115に続き、人物位置(L)を検出し(ステップS116)、顔角度を検出した情報を集計センタサーバ300へ送信する(ステップS117)。続いてトラッキング終了か否かを判定し(ステップS118)、トラッキング終了と判定される場合には(ステップS118肯定)システムサーバ200における処理を終了し、トラッキング終了と判定されない場合には(ステップS118否定)ステップS111へ処理を移す。   Next, processing procedures in the content attention evaluation device and the evaluation method shown in FIGS. 8 and 9 will be described. FIG. 13 is a flowchart showing a processing procedure in the content attention evaluation device and the evaluation method shown in FIGS. As shown in the figure, the system server 200 first detects a moving area (step S111). Subsequently, it is determined whether or not the detected moving area is a person (step S112). If it is determined that the detected moving area is a person (Yes in step S112), face area detection processing is executed (step S113). Subsequently, it is determined whether or not the face area is detected (step S114). When it is determined that the face area is detected (Yes in step S114), face angle detection processing is executed (step S115). If the moving area is not determined to be a person (No at Step S112) and if it is not determined that a face area has been detected (No at Step S114), the process proceeds to Step S117. Subsequent to step S115, the person position (L) is detected (step S116), and information indicating the detected face angle is transmitted to the aggregation center server 300 (step S117). Subsequently, it is determined whether or not the tracking is finished (step S118). If it is determined that the tracking is finished (step S118 affirmative), the processing in the system server 200 is finished, and if the tracking is not judged to be finished (No in step S118). ) The process is moved to step S111.

一方集計センタサーバ300では、先ず全ての処理に先立って所定時間の計時を開始する計時開始処理(ステップS211)を行い、システムサーバ200からステップS117の処理により顔角度の情報が送信されてくると、人物位置・顔角度登録処理を実行する(ステップS212)。続いて所定時間(例えば100ミリ秒)経過したか否かを判定し(ステップS213)、所定時間経過と判定された場合に(ステップS213肯定)ステップS214へ処理を移し、所定時間経過と判定されなかった場合に(ステップS213否定)ステップS212へ処理を移す。ステップS214では、検知時刻・顔角度登録処理終了か否かを判定し、検知時刻・顔角度登録処理終了と判定される場合には(ステップS214肯定)集計センタサーバ300における処理を終了し、検知時刻・顔角度登録処理終了と判定されない場合には(ステップS214否定)ステップS201へ処理を移す。   On the other hand, the aggregation center server 300 first performs a timing start process (step S211) that starts timing for a predetermined time prior to all the processes, and when face angle information is transmitted from the system server 200 by the process of step S117. Then, a person position / face angle registration process is executed (step S212). Subsequently, it is determined whether or not a predetermined time (for example, 100 milliseconds) has elapsed (step S213). If it is determined that the predetermined time has elapsed (Yes in step S213), the process proceeds to step S214, and it is determined that the predetermined time has elapsed. If not (No at Step S213), the process proceeds to Step S212. In step S214, it is determined whether or not the detection time / face angle registration process is completed. If it is determined that the detection time / face angle registration process is completed (Yes in step S214), the process in the aggregation center server 300 is terminated and detected. If it is not determined that the time / face angle registration process has ended (No at step S214), the process proceeds to step S201.

次に、図8及び9に示したコンテンツ注目評価装置及び評価方法による顔角度検知の概要を説明する。図14は、図8及び9に示したコンテンツ注目評価装置及び評価方法による顔角度検知の概要を視覚的にグラフ化した説明図である。なお、ここでは、カメラ150a、150b又は150cにより撮影された画像の1フレームが100ミリ秒に相当する前提とする。図14は、広告看板100aに表示されるコンテンツを注視する顔角度について、人物位置(L[m])と顔角度(Z[deg])との相関を示すものである。同図によれば、フレーム1(最初の100ミリ秒)においては顔角度0度であり、フレーム2においては顔角度Z1である。そして、フレーム3〜6においては顔角度Z2である。なお、顔角度がZ2となって初めて注視角閾値Z0以上となったので、広告看板100aを注視ていると見なしうるものとなっている。注視角閾値Z0は、広告看板注視と見なしうる顔角度の最低値である。そして、フレーム7〜10では、顔角度がZ3となり、Z3がグラフにおける最大値であることから、最も広告看板を注視していると見なしうるものとなっている。そしてフレーム11では顔角度がZ4となり、フレーム12では顔角度がZ5となっている。Z5は注視角閾値Z0を下回るので、フレーム12において一時的に広告看板に対する注視が途切れたと見なしうる。しかし、フレーム13において顔角度は再びZ3となっており、広告看板に対する注視が再開したと見なしうる。そしてフレーム14では、顔角度はZ6へと遷移している。 Next, an outline of face angle detection by the content attention evaluation device and the evaluation method shown in FIGS. 8 and 9 will be described. FIG. 14 is an explanatory diagram in which the outline of the face angle detection by the content attention evaluation device and the evaluation method shown in FIGS. Here, it is assumed that one frame of an image taken by the camera 150a, 150b, or 150c corresponds to 100 milliseconds. FIG. 14 shows the correlation between the person position (L [m]) and the face angle (Z [deg]) with respect to the face angle at which the content displayed on the advertising billboard 100a is watched. According to the figure, the face angle is 0 degree in the frame 1 (first 100 milliseconds), and the face angle Z 1 in the frame 2. Then, the face angle Z 2 in the frame 3-6. Note that since the face angle becomes Z 2 and becomes the gaze angle threshold value Z 0 or more for the first time, it can be considered that the advertising signboard 100a is being watched. The gaze angle threshold value Z 0 is the minimum value of the face angle that can be regarded as an advertisement signboard gaze. In frames 7 to 10, the face angle is Z 3 , and Z 3 is the maximum value in the graph, so that it can be considered that the advertising signboard is most watched. The face angle in the frame 11 Z 4, and the face angle in the frame 12 is in the Z 5. Since Z 5 is below the gaze angle threshold value Z 0 , it can be considered that the gaze on the advertising signboard is temporarily interrupted in the frame 12. However, face angle in frame 13 has become a Z 3 again, watch for the billboards can be considered to have resumed. Then the frame 14, the face angle is transition to Z 6.

なお、図14のグラフのグラフにおいて、フレーム3からフレーム11にかかるa[m]は連続して全て顔角度が注視角閾値Z0以上となっており、連続する1回の注視区間と見ることができる。そして、フレーム12のd[m]において顔角度Z5が注視角閾値Z0を下回っているが、フレーム13のb[m]において再び顔角度Z3が注視角閾値Z0以上となっている。ここでc=d/(a+b+d)を「空注視率」という。ここで“d”は、空注視区間といい、広告看板に対する意識はあるが視線が該広告看板にない区間を指す。すなわち「空注視率」は、一時的に広告看板に対する注視が途切れたが、引き続き注視していると見なしうる区間の割合を示す。注視角閾値Z0を下回ると連続した注視と顔角度が見なされなくなるが、前述の注視深度を加味すると、空注視区間においても連続した注視と見なしうることとなる。 In the graph of FIG. 14, a [m] from frame 3 to frame 11 has all face angles equal to or greater than the gaze angle threshold value Z 0 , and should be regarded as one continuous gaze interval. Can do. The face angle Z 5 is lower than the gaze angle threshold value Z 0 at d [m] of the frame 12, but the face angle Z 3 is again greater than or equal to the gaze angle threshold value Z 0 at b [m] of the frame 13. . Here, c = d / (a + b + d) is referred to as “empty gaze rate”. Here, “d” is referred to as an empty gaze section, and refers to a section where there is a consciousness about the advertisement signboard but the line of sight is not on the advertisement signboard. That is, the “empty gazing rate” indicates a ratio of a section that can be regarded as being continuously watched, although the watch on the advertisement signboard is temporarily interrupted. Although continuous gaze and face angle and below the gaze angle threshold Z 0 is not considered, when considering the above gaze depth, so that the can be regarded as gaze that even continuous in empty gaze interval.

実施例2のようにコンテンツ注目の評価が可能であると、人物位置に応じて異なる広告看板に表示される情報のうちどの情報がより高い注視を集めたかが分析可能となる。例えば特定の情報を表示する場合に、該情報への注視が人物位置に応じてどのように異なるかが判断可能となる。このことから、本発明によれば、広告看板に表示する情報をどの位置に配置するとより高い注視を集めることが可能となるかを分析することが可能となる。また、広告効果が顕著であった場合に、高い注視を集めたと推定される情報が該広告効果に寄与したであろうと判断可能となる。   When content attention can be evaluated as in the second embodiment, it is possible to analyze which information gathered a higher gaze among the information displayed on different advertising signs depending on the person position. For example, when specific information is displayed, it can be determined how the gaze on the information differs depending on the person position. Therefore, according to the present invention, it is possible to analyze at which position the information to be displayed on the advertisement signboard can be collected to obtain a higher gaze. Further, when the advertising effect is remarkable, it can be determined that the information estimated to have attracted a high gaze has contributed to the advertising effect.

実施例2の広告看板が駅の自動改札の付近にある場合に、該自動改札利用時には顔角度が一時的に注視角閾値を下回ることがあるが、意識下では連続した注視効果が期待できる場合がある。本発明によれば、該注視効果を定量的に把握することが可能となり、広告の出稿主に対して、効果的な出稿方法を提示することが可能となる。また、空注視距離を加味した、意識下にある注目率の積算値を算出することができる。このように、注視判断となる顔角度の注視角閾値を超えないが、意識下では注視を継続している状態を示す「空注視」という概念を導入することにより、広告看板に対する注視の評価をより実態に即した形で行うことができる。   When the advertising billboard of Example 2 is in the vicinity of an automatic ticket gate in a station, the face angle may temporarily fall below the gaze angle threshold when using the automatic ticket gate, but a continuous gaze effect can be expected under consciousness There is. According to the present invention, the gaze effect can be grasped quantitatively, and an effective placement method can be presented to the advertisement publisher. In addition, it is possible to calculate the integrated value of the attention rate under consideration, taking into account the empty gaze distance. In this way, by introducing the concept of `` empty gaze '' that indicates that the gaze angle threshold of the face angle that is the gaze determination does not exceed the consciousness but continues to gaze, the evaluation of gaze on the advertising signboard can be evaluated It can be done in a more realistic way.

以上、本発明の実施例について実施例1及び2を説明したが、本発明は、これらに限られるものではなく、特許請求の範囲に記載した技術的思想の範囲内で、更に種々の異なる実施例で実施されてもよいものである。   The first and second embodiments of the present invention have been described above. However, the present invention is not limited to these embodiments, and various different implementations can be made within the scope of the technical idea described in the claims. It may be implemented by way of example.

本発明は、広告やTV放送番組などのコンテンツへの注目をより客観的な方法で評価する場合に有効であり、特に、広告媒体やTVのコンテンツ媒体をより注目されるように効率よくデザイン・設置する設置手法を調査したい場合に有用である。   INDUSTRIAL APPLICABILITY The present invention is effective in evaluating attention to contents such as advertisements and TV broadcast programs by a more objective method. In particular, the present invention can be efficiently designed to attract attention to advertisement media and TV content media. This is useful when you want to investigate the installation method.

実施例1に係るコンテンツ注目評価装置及び評価方法の概念を説明するための説明図である。It is explanatory drawing for demonstrating the concept of the content attention evaluation apparatus and evaluation method which concern on Example 1. FIG. 図1に示したコンテンツ注目評価装置及び評価方法のシステム構成の概略を示すシステム構成図である。FIG. 2 is a system configuration diagram illustrating an outline of a system configuration of a content attention evaluation device and an evaluation method illustrated in FIG. 1. 図2に示したシステムサーバ200の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the system server 200 shown in FIG. 図2に示した集計センタサーバ300の構成を示す機能ブロック図である。FIG. 3 is a functional block diagram illustrating a configuration of a totaling center server 300 illustrated in FIG. 2. 図4に示した集計センタサーバ300の記憶部306のDB306aに格納される顔角度登録テーブルのテーブルイメージ図である。FIG. 5 is a table image diagram of a face angle registration table stored in a DB 306a of the storage unit 306 of the aggregation center server 300 illustrated in FIG. 図1及び2に示したコンテンツ注目評価装置及び評価方法における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in the content attention evaluation apparatus and evaluation method shown in FIG. 図1及び2に示したコンテンツ注目評価装置及び評価方法による顔角度検知の概要を視覚的にグラフ化した説明図である。It is explanatory drawing which made the outline of the face angle detection by the content attention evaluation apparatus and evaluation method shown in FIG. 実施例2に係るコンテンツ注目評価装置及び評価方法の概念を説明するための説明図である。It is explanatory drawing for demonstrating the concept of the content attention evaluation apparatus and evaluation method which concern on Example 2. FIG. 実施例2のコンテンツ注目評価装置及びコンテンツ注目評価システムのシステム構成を説明するための説明図である。It is explanatory drawing for demonstrating the system configuration | structure of the content attention evaluation apparatus and content attention evaluation system of Example 2. FIG. 図9に示したシステムサーバ200の構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the system server 200 shown in FIG. 図9に示した集計センタサーバ300の構成を示す機能ブロック図である。FIG. 10 is a functional block diagram illustrating a configuration of the aggregation center server 300 illustrated in FIG. 9. 図11に示した集計センタサーバ300の記憶部306のDB306aに格納される顔角度登録テーブルのテーブルイメージ図である。It is a table image figure of the face angle registration table stored in DB306a of the memory | storage part 306 of the total center server 300 shown in FIG. 図8及び9に示したコンテンツ注目評価装置及び評価方法における処理手順を示すフローチャートである。10 is a flowchart showing a processing procedure in the content attention evaluation device and the evaluation method shown in FIGS. 8 and 9. 図8及び9に示したコンテンツ注目評価装置及び評価方法による顔角度検知の概要を視覚的にグラフ化した説明図である。It is explanatory drawing which made the outline of the face angle detection by the content attention evaluation apparatus and evaluation method shown in FIG.

符号の説明Explanation of symbols

100a 広告看板
100t TV画面
150、150a、150b、150c カメラ
200 システムサーバ
201 主制御部
202 通行人物検出部
202a 動領域検出処理部
202b 人物検出処理部
202c 人物位置検出処理部
203 注視人物検出処理部
203a 顔検出処理部
203b 顔角度検出処理部
204 記憶部
300 集計センタサーバ
301 主制御部
302 通過検出時刻登録部
303 顔角度登録処理部
304 注視深度率算出処理部
305 空注視率算出処理部
306 記憶部
306a DB
312 人物位置登録処理部
100a advertising billboard 100t TV screen 150, 150a, 150b, 150c camera 200 system server 201 main control unit 202 passer-by person detection unit 202a moving area detection processing unit 202b person detection processing unit 202c person position detection processing unit 203 gaze person detection processing unit 203a Face detection processing unit 203b Face angle detection processing unit 204 Storage unit 300 Aggregation center server 301 Main control unit 302 Passing detection time registration unit 303 Face angle registration processing unit 304 Gaze depth rate calculation processing unit 305 Sky gaze rate calculation processing unit 306 Storage unit 306a DB
312 Person position registration processing unit

Claims (12)

コンテンツ媒体の前面に存在する人物を撮像装置が撮像した画像に基づいて、該コンテンツ媒体の前面に存在する人物の該コンテンツに対する注目を評価するコンテンツ注目評価装置であって、
前記画像に撮像された人物を検出する人物検出手段と、
前記人物検出手段により検出された人物の顔を検出する顔検出手段と、
前記顔検出手段により顔が検出された人物の顔方向の角度を検出する顔角度検出手段と、
前記顔角度検出手段により検出された前記顔方向の角度を、時刻の経過とともに記憶する顔角度記憶手段と
を備えたことを特徴とするコンテンツ注目評価装置。
A content attention evaluation device that evaluates the attention of a person existing in front of the content medium to the content based on an image captured by the imaging device of the person existing in front of the content medium,
Person detecting means for detecting a person imaged in the image;
Face detection means for detecting the face of the person detected by the person detection means;
Face angle detection means for detecting the angle of the face direction of the person whose face is detected by the face detection means;
A content attention evaluation apparatus comprising: a face angle storage unit that stores an angle of the face direction detected by the face angle detection unit as time passes.
前記時刻は、前記顔角度検出手段により前記顔方向の角度が検出された時刻であることを特徴とする請求項1に記載のコンテンツ注目評価装置。   2. The content attention evaluation apparatus according to claim 1, wherein the time is a time when the face direction angle is detected by the face angle detection unit. 前記顔角度記憶手段は、前記人物検出手段により検出された人物単位に、前記顔角度検出手段により時刻の経過とともに前記顔方向の角度を記憶することを特徴とする請求項1又は2に記載のコンテンツ注目評価装置。   The face angle storage unit stores the angle of the face direction with the passage of time by the face angle detection unit for each person detected by the person detection unit. Content attention evaluation device. 前記顔角度記憶手段に記憶される前記顔方向の角度を前記人物検出手段により検出された人物単位で総和し、該総和を該顔方向の角度の検出が開始されてから終了するまでの時間と該顔方向の角度が前記コンテンツを注視する角度であると見なしうる角度閾値とで除した注視深度率を算出する注視深度率算出手段をさらに備えたことを特徴とする請求項2又は3に記載のコンテンツ注目評価装置。   The face direction angle stored in the face angle storage means is summed up in units of persons detected by the person detection means, and the total time is a time from the start of detection of the face direction angle to the end. 4. The gaze depth rate calculating means for calculating a gaze depth rate by dividing the angle of the face direction by an angle threshold that can be regarded as an angle at which the content is gazeed. Content attention evaluation device. 前記顔角度記憶手段に記憶される前記顔方向の角度が前記コンテンツを注視する角度であると見なしうる角度閾値を一時的に下回っていた間の時間を、前記顔方向の角度の検出が開始されてから終了するまでの時間で除した空注視率を算出する空注視率算出手段をさらに備えたことを特徴とする請求項2、3又は4に記載のコンテンツ注目評価装置。   The detection of the angle of the face direction is started during the time during which the angle of the face direction stored in the face angle storage means is temporarily below an angle threshold that can be regarded as an angle at which the content is watched. 5. The content attention evaluation device according to claim 2, further comprising: an empty gaze rate calculating unit that calculates an empty gaze rate divided by a time from the start to the end. 前記人物検出手段により検出された人物の位置を検出する人物位置検出手段をさらに備え、
前記時刻の経過は、前記人物位置検出手段により検出される人物の位置の変化に対応することを特徴とする請求項1に記載のコンテンツ注目評価装置。
Further comprising a person position detecting means for detecting the position of the person detected by the person detecting means,
2. The content attention evaluation apparatus according to claim 1, wherein the passage of time corresponds to a change in the position of a person detected by the person position detecting unit.
前記顔角度記憶手段は、前記人物検出手段により検出された人物単位に、前記顔角度検出手段により検出された前記顔方向の角度を、前記人物位置検出手段により検出された該人物の位置とともに記憶することを特徴とする請求項6に記載のコンテンツ注目評価装置。   The face angle storage means stores, for each person detected by the person detection means, the angle of the face direction detected by the face angle detection means together with the position of the person detected by the person position detection means. The content attention evaluation device according to claim 6, wherein: 前記顔角度記憶手段に記憶される前記顔方向の角度を前記人物検出手段により検出された人物単位で総和し、該総和を該顔方向の角度の検出が開始されてから終了するまでの該人物の移動距離と該顔方向の角度が前記コンテンツを注視する角度であると見なしうる角度閾値とで除した移動注視深度率を算出する移動注視深度率算出手段をさらに備えたことを特徴とする請求項6又は7に記載のコンテンツ注目評価装置。   The face direction angle stored in the face angle storage means is summed up in units of persons detected by the person detection means, and the sum is detected until the face direction angle detection starts and ends. And a moving gaze depth rate calculating means for calculating a moving gaze depth rate divided by an angle threshold that can be considered that the angle of the face direction and the angle of the face direction is an angle at which the content is gazed. Item 6. The content attention evaluation device according to Item 6 or 7. 前記顔角度記憶手段に記憶される前記顔方向の角度が前記コンテンツを注視する角度であると見なしうる角度閾値を一時的に下回っていた間に人物が移動した移動距離を、前記顔方向の角度の検出が開始されてから終了するまでに該人物が移動した移動距離で除した移動空注視率を算出する移動空注視率算出手段をさらに備えたことを特徴とする請求項6、7又は8に記載のコンテンツ注目評価装置。   The movement distance that the person has moved while the angle of the face direction stored in the face angle storage means is temporarily below an angle threshold that can be regarded as the angle at which the content is watched is expressed as the angle of the face direction. 9. A moving air gaze rate calculating means for calculating a moving air gaze rate divided by a moving distance traveled by the person from the start to the end of detection of the image is further provided. Content attention evaluation device described in 1. 前記コンテンツ注目評価装置は、前記撮像装置が接続される画像分析装置と、少なくとも一つの前記画像分析装置と通信可能に接続されたコンテンツ注目評価分析装置とから構成され、
前記画像分析装置は、前記画像に含まれる人物を特定不可能なデータを前記コンテンツ注目評価分析装置へ送信し、
前記コンテンツ注目評価分析装置は、前記人物を特定不可能なデータを記憶する前記顔角度記憶手段を有することを特徴とする請求項1〜9のいずれか一つに記載のコンテンツ注目評価装置。
The content attention evaluation device includes an image analysis device to which the imaging device is connected, and a content attention evaluation analysis device connected to be communicable with at least one of the image analysis devices,
The image analysis device transmits data that cannot identify a person included in the image to the content attention evaluation analysis device,
The content attention evaluation device according to claim 1, wherein the content attention evaluation analysis device includes the face angle storage unit that stores data in which the person cannot be specified.
コンテンツ媒体の前面に存在する人物を撮像装置が撮像した画像に基づいて、該コンテンツ媒体の前面に存在する人物の該コンテンツに対する注目を評価するコンテンツ注目評価方法であって、
前記画像に撮像された人物を検出する人物検出工程と、
前記人物検出工程により検出された人物の顔を検出する顔検出工程と、
前記顔検出工程により顔が検出された人物の顔方向の角度を検出する顔方向検出工程と、
前記顔方向検出工程により検出された前記顔方向の角度を、該検出の時刻とともに記憶する顔角度記憶工程と
を含んだことを特徴とするコンテンツ注目評価方法。
A content attention evaluation method for evaluating the attention of a person existing in front of a content medium to the content based on an image obtained by imaging an image of a person existing in front of the content medium,
A person detection step of detecting a person imaged in the image;
A face detection step of detecting the face of the person detected by the person detection step;
A face direction detecting step of detecting an angle of the face direction of the person whose face is detected by the face detecting step;
A content attention evaluation method comprising: a face angle storage step of storing the angle of the face direction detected by the face direction detection step together with a time of the detection.
コンテンツ媒体の前面に存在する人物を撮像方法が撮像した画像に基づいて、該コンテンツ媒体の前面に存在する人物の該コンテンツに対する注目を評価するコンテンツ注目評価方法であって、
前記画像に撮像された人物を検出する人物検出工程と、
前記人物検出工程により検出された人物の位置を検出する人物位置検出工程と、
前記人物検出工程により検出された人物の顔を検出する顔検出工程と、
前記顔検出工程により顔が検出された人物の顔方向の角度を検出する顔方向検出工程と、
前記顔方向検出工程により検出された前記顔方向の角度を、前記人物位置検出工程により検出された該人物の位置とともに記憶する顔角度記憶工程と
を含んだことを特徴とするコンテンツ注目評価方法。
A content attention evaluation method for evaluating the attention of a person existing in front of the content medium to the content based on an image captured by the imaging method of a person existing in front of the content medium,
A person detection step of detecting a person imaged in the image;
A person position detecting step of detecting the position of the person detected by the person detecting step;
A face detection step of detecting the face of the person detected by the person detection step;
A face direction detecting step of detecting an angle of the face direction of the person whose face is detected by the face detecting step;
A content attention evaluation method comprising: a face angle storage step of storing the face direction angle detected by the face direction detection step together with the position of the person detected by the person position detection step.
JP2005379269A 2005-12-28 2005-12-28 Content attention evaluation apparatus and evaluation method Expired - Fee Related JP4603975B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005379269A JP4603975B2 (en) 2005-12-28 2005-12-28 Content attention evaluation apparatus and evaluation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005379269A JP4603975B2 (en) 2005-12-28 2005-12-28 Content attention evaluation apparatus and evaluation method

Publications (2)

Publication Number Publication Date
JP2007181071A true JP2007181071A (en) 2007-07-12
JP4603975B2 JP4603975B2 (en) 2010-12-22

Family

ID=38305736

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005379269A Expired - Fee Related JP4603975B2 (en) 2005-12-28 2005-12-28 Content attention evaluation apparatus and evaluation method

Country Status (1)

Country Link
JP (1) JP4603975B2 (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009176254A (en) * 2008-01-28 2009-08-06 Nec Corp Display system, display method, display effect measuring system, and display effect measuring method
JP2009301085A (en) * 2008-06-10 2009-12-24 Nippon Telegr & Teleph Corp <Ntt> Advertisement effect measurement device, advertisement effect measurement method, advertisement effect measurement program and recording medium recording the program
JP2010108257A (en) * 2008-10-30 2010-05-13 Nippon Telegr & Teleph Corp <Ntt> Apparatus, method and program for measuring degree of attention of media information and recording medium with the program recorded thereon
JP2010113693A (en) * 2008-11-10 2010-05-20 Nec Software Kyushu Ltd Face image extraction device, method, electronic advertisement device and program
JP2010146282A (en) * 2008-12-18 2010-07-01 Yamaha Motor Co Ltd Advertisement effect measuring apparatus
JP2010211485A (en) * 2009-03-10 2010-09-24 Nippon Telegr & Teleph Corp <Ntt> Gaze degree measurement device, gaze degree measurement method, gaze degree measurement program and recording medium with the same program recorded
JP2010238185A (en) * 2009-03-31 2010-10-21 Sogo Keibi Hosho Co Ltd Device and method for generating information
JP2011070629A (en) * 2009-08-25 2011-04-07 Dainippon Printing Co Ltd Advertising effect measurement system and advertising effect measurement device
JP2011128885A (en) * 2009-12-17 2011-06-30 Toshiba Corp Information display apparatus and method
JP2012195633A (en) * 2011-03-15 2012-10-11 Olympus Imaging Corp Audio video information notification system and control method thereof
WO2013140702A1 (en) * 2012-03-22 2013-09-26 Necカシオモバイルコミュニケーションズ株式会社 Image processing device, image processing method, and program
JP2014059788A (en) * 2012-09-19 2014-04-03 Fujitsu Ltd Gazing action estimation device, gazing action estimation method and gazing action estimation program
KR101380130B1 (en) * 2007-10-25 2014-04-07 에스케이플래닛 주식회사 Mobile communication terminal generating information about advertising exposure, system and method for mobile advertisement using the same
JP2018538591A (en) * 2015-10-14 2018-12-27 フェイスブック,インク. Presenting content selected by the online system, along with additional content presented by the application, through content presented by the application
CN109767273A (en) * 2019-04-10 2019-05-17 深兰人工智能芯片研究院(江苏)有限公司 A kind of advertisement sending method, device, advertisement playback terminal and storage medium
CN111353461A (en) * 2020-03-11 2020-06-30 京东数字科技控股有限公司 Method, device and system for detecting attention of advertising screen and storage medium
JP2021502618A (en) * 2018-09-28 2021-01-28 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド Gaze point determination method and devices, electronic devices and computer storage media
CN113506132A (en) * 2021-07-06 2021-10-15 树蛙信息科技(南京)有限公司 Method and device for determining offline attention degree

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09251342A (en) * 1996-03-15 1997-09-22 Toshiba Corp Device and method for estimating closely watched part and device, information display device/method using the same
JPH11328406A (en) * 1998-05-11 1999-11-30 Nec Corp Statistical system by image pattern recognition
JP2000209578A (en) * 1999-01-20 2000-07-28 Nri & Ncc Co Ltd Advertisement media evaluation system and advertisement medium evaluation method
JP2002032553A (en) * 2000-07-18 2002-01-31 Minolta Co Ltd System and method for management of customer information and computer readable recording medium with customer information management program recorded therein
JP2003216938A (en) * 2002-01-23 2003-07-31 Sanyo Electric Co Ltd Information collecting device
JP2003281297A (en) * 2002-03-22 2003-10-03 National Institute Of Advanced Industrial & Technology Information presenting device and information presenting method
JP2004348618A (en) * 2003-05-26 2004-12-09 Nec Soft Ltd Customer information collection and management method and system therefor
JP2005501348A (en) * 2001-08-23 2005-01-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for assessing interest in exhibited products
JP2005182452A (en) * 2003-12-19 2005-07-07 Tokai Rika Co Ltd Device for detecting direction of face

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09251342A (en) * 1996-03-15 1997-09-22 Toshiba Corp Device and method for estimating closely watched part and device, information display device/method using the same
JPH11328406A (en) * 1998-05-11 1999-11-30 Nec Corp Statistical system by image pattern recognition
JP2000209578A (en) * 1999-01-20 2000-07-28 Nri & Ncc Co Ltd Advertisement media evaluation system and advertisement medium evaluation method
JP2002032553A (en) * 2000-07-18 2002-01-31 Minolta Co Ltd System and method for management of customer information and computer readable recording medium with customer information management program recorded therein
JP2005501348A (en) * 2001-08-23 2005-01-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and apparatus for assessing interest in exhibited products
JP2003216938A (en) * 2002-01-23 2003-07-31 Sanyo Electric Co Ltd Information collecting device
JP2003281297A (en) * 2002-03-22 2003-10-03 National Institute Of Advanced Industrial & Technology Information presenting device and information presenting method
JP2004348618A (en) * 2003-05-26 2004-12-09 Nec Soft Ltd Customer information collection and management method and system therefor
JP2005182452A (en) * 2003-12-19 2005-07-07 Tokai Rika Co Ltd Device for detecting direction of face

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101380130B1 (en) * 2007-10-25 2014-04-07 에스케이플래닛 주식회사 Mobile communication terminal generating information about advertising exposure, system and method for mobile advertisement using the same
WO2009096428A1 (en) * 2008-01-28 2009-08-06 Nec Corporation Display system, system for measuring display effect, display method, method for measuring display effect, and recording medium
JP2009176254A (en) * 2008-01-28 2009-08-06 Nec Corp Display system, display method, display effect measuring system, and display effect measuring method
JP2009301085A (en) * 2008-06-10 2009-12-24 Nippon Telegr & Teleph Corp <Ntt> Advertisement effect measurement device, advertisement effect measurement method, advertisement effect measurement program and recording medium recording the program
JP2010108257A (en) * 2008-10-30 2010-05-13 Nippon Telegr & Teleph Corp <Ntt> Apparatus, method and program for measuring degree of attention of media information and recording medium with the program recorded thereon
JP2010113693A (en) * 2008-11-10 2010-05-20 Nec Software Kyushu Ltd Face image extraction device, method, electronic advertisement device and program
JP2010146282A (en) * 2008-12-18 2010-07-01 Yamaha Motor Co Ltd Advertisement effect measuring apparatus
JP2010211485A (en) * 2009-03-10 2010-09-24 Nippon Telegr & Teleph Corp <Ntt> Gaze degree measurement device, gaze degree measurement method, gaze degree measurement program and recording medium with the same program recorded
JP2010238185A (en) * 2009-03-31 2010-10-21 Sogo Keibi Hosho Co Ltd Device and method for generating information
JP2011070629A (en) * 2009-08-25 2011-04-07 Dainippon Printing Co Ltd Advertising effect measurement system and advertising effect measurement device
JP2011128885A (en) * 2009-12-17 2011-06-30 Toshiba Corp Information display apparatus and method
JP2012195633A (en) * 2011-03-15 2012-10-11 Olympus Imaging Corp Audio video information notification system and control method thereof
WO2013140702A1 (en) * 2012-03-22 2013-09-26 Necカシオモバイルコミュニケーションズ株式会社 Image processing device, image processing method, and program
JPWO2013140702A1 (en) * 2012-03-22 2015-08-03 Necカシオモバイルコミュニケーションズ株式会社 Image processing apparatus, image processing method, and program
JP2014059788A (en) * 2012-09-19 2014-04-03 Fujitsu Ltd Gazing action estimation device, gazing action estimation method and gazing action estimation program
JP2018538591A (en) * 2015-10-14 2018-12-27 フェイスブック,インク. Presenting content selected by the online system, along with additional content presented by the application, through content presented by the application
JP2021502618A (en) * 2018-09-28 2021-01-28 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド Gaze point determination method and devices, electronic devices and computer storage media
US11295474B2 (en) 2018-09-28 2022-04-05 Beijing Sensetime Technology Development Co., Ltd. Gaze point determination method and apparatus, electronic device, and computer storage medium
CN109767273A (en) * 2019-04-10 2019-05-17 深兰人工智能芯片研究院(江苏)有限公司 A kind of advertisement sending method, device, advertisement playback terminal and storage medium
CN111353461A (en) * 2020-03-11 2020-06-30 京东数字科技控股有限公司 Method, device and system for detecting attention of advertising screen and storage medium
CN111353461B (en) * 2020-03-11 2024-01-16 京东科技控股股份有限公司 Attention detection method, device and system of advertising screen and storage medium
CN113506132A (en) * 2021-07-06 2021-10-15 树蛙信息科技(南京)有限公司 Method and device for determining offline attention degree

Also Published As

Publication number Publication date
JP4603975B2 (en) 2010-12-22

Similar Documents

Publication Publication Date Title
JP4603975B2 (en) Content attention evaluation apparatus and evaluation method
JP4794453B2 (en) Method and system for managing an interactive video display system
US20080059994A1 (en) Method for Measuring and Selecting Advertisements Based Preferences
US20100232644A1 (en) System and method for counting the number of people
JP4603974B2 (en) Content attention evaluation apparatus and content attention evaluation method
CN109670860B (en) Advertisement putting method and device, electronic equipment and computer readable storage medium
JP5217922B2 (en) Electronic advertisement system, electronic advertisement distribution apparatus, and program
US20070282682A1 (en) Method for metered advertising based on face time
US20090158309A1 (en) Method and system for media audience measurement and spatial extrapolation based on site, display, crowd, and viewership characterization
JP2007512729A5 (en)
JP2010113313A (en) Electronic advertisement apparatus, electronic advertisement method and program
CN104718749A (en) Image processing system, image processing method, and program
WO2007125285A1 (en) System and method for targeting information
US20110264534A1 (en) Behavioral analysis device, behavioral analysis method, and recording medium
JP2012252613A (en) Customer behavior tracking type video distribution system
KR20170050034A (en) Digital signage advertising due to the eye-tracking ad viewing audience analysis apparatus and method
KR20130052883A (en) Advertisement of providing system and the method
CN110324683B (en) Method for playing advertisement on digital signboard
US9013401B2 (en) Method and apparatus for measuring audience size for a digital sign
KR20220021689A (en) System for artificial intelligence digital signage and operating method thereof
CN111160945A (en) Advertisement accurate delivery method and system based on video technology
KR20220039871A (en) Apparatus for providing smart interactive advertisement
KR20220039872A (en) Apparatus for providing smart interactive advertisement
KR20220115643A (en) Digital signage system for providing targeting advertising
CN111160946A (en) Advertisement accurate delivery privacy protection method and system based on video technology

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100820

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100907

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101004

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131008

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees