JP2012118581A - Advertisement effect measurement device and advertisement effect measurement system - Google Patents

Advertisement effect measurement device and advertisement effect measurement system Download PDF

Info

Publication number
JP2012118581A
JP2012118581A JP2010264871A JP2010264871A JP2012118581A JP 2012118581 A JP2012118581 A JP 2012118581A JP 2010264871 A JP2010264871 A JP 2010264871A JP 2010264871 A JP2010264871 A JP 2010264871A JP 2012118581 A JP2012118581 A JP 2012118581A
Authority
JP
Japan
Prior art keywords
person
information
unit
time
advertisement effect
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010264871A
Other languages
Japanese (ja)
Inventor
Tomohiro Asami
知弘 浅見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2010264871A priority Critical patent/JP2012118581A/en
Publication of JP2012118581A publication Critical patent/JP2012118581A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an advertisement effect measurement device and an advertisement effect measurement system for increasing the accuracy of advertisement effect measurement by detecting only an original customer as the target of advertisement.SOLUTION: An advertisement effect measurement device 1 includes: a face featured value extraction part 103 for extracting the face featured value of a person; an identical person specification part 115 for specifying an identical person from the face featured values, and for outputting the person information of the person; a time analysis part 108 for generating time information relating to an appearance time included in the person information from the identical person specification part 115; a time information evaluation part 109 for evaluating the time information from the time analysis part 108, and for generating customer information by selecting the person as a customer based on the evaluation; and an advertisement effect analysis part 110 for analyzing the customer information from the time information evaluation part 109, and for generating advertisement effect information.

Description

本発明は、広告の設置領域を通過する人物の観察に基づき広告の効果を測定する広告効果測定装置、及び広告効果測定システムに関するものである。   The present invention relates to an advertisement effect measuring device and an advertisement effect measuring system for measuring the effect of an advertisement based on observation of a person passing through an advertisement installation area.

広告の効果を測定する方法として、広告の設置領域をカメラで撮影し、撮影した画像から人物の顔を検出し、さらに検出した顔の視線方向を検出することにより、広告設置領域における人物の滞留時間や視聴時間、視聴人数等を計測する技術が知られている。   As a method of measuring the effectiveness of advertisements, the area where the advertisement is placed is photographed with a camera, the face of the person is detected from the captured image, and the direction of the detected face is detected, so that the person stays in the advertisement placement area. Techniques for measuring time, viewing time, number of viewers, etc. are known.

例えば、特許文献1には、広告表示装置を設置したエリアを撮影し、撮影されたエリアに存在する人物の顔画像を認識し、認識した顔画像から人物の視線方向を抽出し、抽出した人物の視線方向と人物のエリアにおける座標位置情報に基づき、表示されている広告コンテンツを視聴している人数を計測する広告効果測定装置が提案されている。   For example, in Patent Literature 1, an area where an advertisement display device is installed is photographed, a face image of a person existing in the photographed area is recognized, a person's line-of-sight direction is extracted from the recognized face image, and the extracted person An advertising effect measurement device has been proposed that measures the number of people viewing the displayed advertising content based on the viewing direction of the user and the coordinate position information in the area of the person.

特開2008−112401号公報JP 2008-112401 A 特開2007−257221号公報JP 2007-257221 A 特開2003−242486号公報JP 2003-242486 A 特開2007−286995号公報JP 2007-286995 A

しかしながら、広告設置領域を撮影した画像から人物の顔を検出して広告効果を測定する方法では、例えば広告が設置されている店舗の従業員等、広告が対象とする本来の顧客以外の人物まで含めて検出される。特に店舗の従業員等は本来の顧客よりも広告設置領域を通過する頻度が高いことが考えられるため、本来の顧客以外の人物まで含めて検出することにより、広告効果測定の精度が低下してしまうことが課題であった。   However, in the method of detecting a person's face from an image of the advertisement installation area and measuring the advertisement effect, for example, to a person other than the original customer targeted by the advertisement, such as an employee of a store where the advertisement is installed Are detected. In particular, store employees, etc., are likely to pass through the advertisement installation area more frequently than the original customers, so the detection of even people other than the original customers reduces the accuracy of the advertising effectiveness measurement. It was a problem.

そこで、本発明は、広告の設置領域を通過する人物の観察に基づき、広告が対象とする本来の顧客のみを検出することにより、広告効果測定の精度を高めることができる広告効果測定装置、及び広告効果測定システムを提供することを目的とする。   Therefore, the present invention is based on the observation of a person passing through the advertisement installation area, and by detecting only the original customer targeted by the advertisement, the advertisement effect measurement apparatus capable of increasing the accuracy of the advertisement effect measurement, and An object is to provide an advertising effectiveness measurement system.

上記目的を達成するため、本発明に係る広告効果測定装置(1)の第1の特徴は、人物の顔特徴量を抽出する顔特徴量抽出部(103)と、前記顔特徴量から同一人物を特定し、その人物の人物情報を出力する同一人物特定部(115)と、前記同一人物特定部(115)からの前記人物情報に含まれる出現時刻に関する時間情報を生成する時刻分析部(108)と、前記時刻分析部(108)からの前記時間情報を評価し、その評価に基づいて顧客とする前記人物を選択した顧客情報を生成する時間情報評価部(109)と、前記時間情報評価部(109)からの前記顧客情報を分析し、広告効果情報を生成する広告効果分析部(110)と、を備えることにある。   In order to achieve the above object, the first feature of the advertisement effect measuring apparatus (1) according to the present invention is a face feature amount extraction unit (103) for extracting a person's face feature amount, and the same person from the face feature amount. The same person specifying unit (115) for outputting the person information of the person, and the time analyzing unit (108) for generating time information regarding the appearance time included in the person information from the same person specifying unit (115) ), A time information evaluation unit (109) that evaluates the time information from the time analysis unit (108), and generates customer information that selects the person as a customer based on the evaluation, and the time information evaluation An advertisement effect analysis unit (110) that analyzes the customer information from the unit (109) and generates advertisement effect information.

また、上記目的を達成するため、本発明に係る広告効果測定装置の第2の特徴は、前記広告効果測定装置(1)において、前記時刻分析部(108)は、前記人物情報から前記人物の出現頻度を計算する出現頻度計算部(108a)と、前記人物情報から前記人物の出現日率を計算する出現日率計算部(108b)と、記人物情報から前記人物の出現時刻分散を計算する出現時刻分散計算部(108c)と、うちの少なくとも一つを備えることにある。   In order to achieve the above object, a second feature of the advertising effectiveness measuring device according to the present invention is that, in the advertising effectiveness measuring device (1), the time analysis unit (108) An appearance frequency calculation unit (108a) that calculates an appearance frequency, an appearance date rate calculation unit (108b) that calculates the appearance date rate of the person from the person information, and an appearance time variance of the person from the character information There is an appearance time distribution calculation unit (108c) and at least one of them.

また、上記目的を達成するため、本発明に係る広告効果測定システム(9)の特徴は、人物の顔特徴量を含む人物情報を送信する人物情報収集装置(10a〜10c)と、前記人物情報収集装置(10a〜10c)から送信される前記人物情報を受信する広告効果測定装置(11)と、がネットワーク(901)を介して接続される広告効果測定システム(9)であって、前記広告効果測定装置(11)は、前記顔特徴量から同一人物を特定し、その人物の人物情報を出力する同一人物特定部(1115)と、前記同一人物特定部(1115)からの前記人物情報に含まれる出現時刻に関する時間情報を生成する時刻分析部(1108)と、前記時刻分析部(1108)からの前記時間情報を評価し、その評価に基づいて顧客とする前記人物を選択した顧客情報を生成する時間情報評価部(1109)と、前記時間情報評価部(109)からの前記顧客情報を分析し、広告効果情報を生成する広告効果分析部(1110)と、を備えることにある。   In order to achieve the above object, the advertising effectiveness measurement system (9) according to the present invention is characterized by a person information collecting device (10a to 10c) that transmits person information including a face feature amount of a person, and the person information. An advertisement effect measurement system (9) connected via a network (901) to an advertisement effect measurement device (11) that receives the person information transmitted from a collection device (10a to 10c), wherein the advertisement The effect measuring device (11) specifies the same person from the facial feature quantity, outputs the person information of the person, and the person information from the same person specifying unit (1115). A time analysis unit (1108) that generates time information relating to the appearance time included, and the person who evaluates the time information from the time analysis unit (1108) and makes a customer based on the evaluation A time information evaluation unit (1109) for generating selected customer information; and an advertisement effect analysis unit (1110) for analyzing the customer information from the time information evaluation unit (109) and generating advertisement effect information. There is.

本発明の広告効果測定装置、及び広告効果測定システムによれば、広告が対象とする本来の顧客のみを検出することにより、広告効果測定の精度を高めることができる。   According to the advertisement effect measuring device and the advertisement effect measuring system of the present invention, it is possible to improve the accuracy of the advertisement effect measurement by detecting only the original customer targeted by the advertisement.

本発明の実施例1である広告効果測定装置の構成例を示した図である。It is the figure which showed the example of a structure of the advertising effectiveness measuring apparatus which is Example 1 of this invention. 本発明の実施例1である広告効果測定装置における人物情報記憶部に記憶される人物情報2の構成例を示した図である。It is the figure which showed the structural example of the person information 2 memorize | stored in the person information storage part in the advertising effectiveness measuring apparatus which is Example 1 of this invention. 本発明の実施例1である広告効果測定装置における時間情報評価部が生成する顧客情報3の構成例を示した図である。It is the figure which showed the structural example of the customer information 3 which the time information evaluation part in the advertising effectiveness measuring apparatus which is Example 1 of this invention produces | generates. 本発明の実施例1である広告効果測定装置の人物情報収集部において、予め定められた時間間隔で定期的に動作している人物情報収集処理のうちの1周期分の主要な処理を示したフローチャートである。In the human information collecting unit of the advertising effectiveness measuring apparatus according to the first embodiment of the present invention, the main processing for one cycle of the human information collecting processing that is periodically operated at a predetermined time interval is shown. It is a flowchart. (a),(b)、それぞれ、本発明の実施例1である広告効果測定装置の同一人物特定部において、予め定められた時間間隔で定期的に動作している同一人物特定処理のうちの1周期分の主要な処理を示したフローチャート、時刻分析部における時刻分析処理を示したフローチャートである。(A), (b), in the same person specifying unit of the advertisement effect measuring apparatus which is Embodiment 1 of the present invention, respectively, of the same person specifying process periodically operating at a predetermined time interval. It is the flowchart which showed the main processing for 1 period, and the flowchart which showed the time analysis process in a time analysis part. 本発明の実施例1である広告効果測定装置の時間情報評価部における時間情報評価処理を示したフローチャートである。It is the flowchart which showed the time information evaluation process in the time information evaluation part of the advertising effectiveness measuring apparatus which is Example 1 of this invention. 本発明の実施例2である広告効果測定装置の時間情報評価部における時間情報評価処理を示したフローチャートである。It is the flowchart which showed the time information evaluation process in the time information evaluation part of the advertising effectiveness measuring apparatus which is Example 2 of this invention. 本発明の実施例2である広告効果測定装置の時間情報評価部におけるクラスタ分析処理を示したフローチャートである。It is the flowchart which showed the cluster analysis process in the time information evaluation part of the advertising effectiveness measuring apparatus which is Example 2 of this invention. 本発明の実施例3である広告効果測定システム9の構成例を示した図である。It is the figure which showed the structural example of the advertising effectiveness measurement system 9 which is Example 3 of this invention. 本発明の実施例3である広告効果測定システムにおける人物情報収集装置10の構成例を示した図である。It is the figure which showed the structural example of the person information collection apparatus 10 in the advertising effectiveness measurement system which is Example 3 of this invention. 本発明の実施例3である広告効果測定システムにおける広告効果測定装置11の構成例を示した図である。It is the figure which showed the structural example of the advertising effectiveness measuring apparatus 11 in the advertising effectiveness measuring system which is Example 3 of this invention. 本発明の実施例3の広告効果測定装置における人物情報記憶部に記憶される人物情報12の構成例を示した図である。It is the figure which showed the structural example of the person information 12 memorize | stored in the person information storage part in the advertising effectiveness measuring apparatus of Example 3 of this invention. 本発明の実施例3の広告効果測定装置における時間情報評価部が生成する顧客情報13の構成例を示した図である。It is the figure which showed the structural example of the customer information 13 which the time information evaluation part in the advertising effectiveness measuring apparatus of Example 3 of this invention produces | generates.

以下、本発明を実施するための形態について、実施例を示して詳細に説明する。   Hereinafter, the form for implementing this invention is demonstrated in detail, showing an Example.

本発明の実施例1では、広告の効果を測定する広告効果測定装置について説明する。   In the first embodiment of the present invention, an advertisement effect measuring apparatus that measures the effect of an advertisement will be described.

<広告効果測定装置の構成>
図1は、本発明の実施例1である広告効果測定装置1の構成例を示した図である。
<Configuration of advertising effect measurement device>
FIG. 1 is a diagram illustrating a configuration example of an advertisement effect measuring apparatus 1 that is Embodiment 1 of the present invention.

図1において、広告効果測定装置1は、カメラ101と、顔検出部102と、顔特徴量抽出部103と、視線検出部104と、属性推定部105と、人物情報収集部106と、人物情報記憶部107と、同一人物特定部115と、時刻分析部108と、時間情報評価部109と、広告効果分析部110と、広告効果情報記憶部111と、広告効果情報送信部112とを有している。   In FIG. 1, the advertisement effect measuring apparatus 1 includes a camera 101, a face detection unit 102, a face feature amount extraction unit 103, a gaze detection unit 104, an attribute estimation unit 105, a person information collection unit 106, and person information. A storage unit 107; an identical person identification unit 115; a time analysis unit 108; a time information evaluation unit 109; an advertisement effect analysis unit 110; an advertisement effect information storage unit 111; and an advertisement effect information transmission unit 112. ing.

カメラ101は、広告の設置領域を撮影するものである。そして、撮影した画像を顔検出部102、顔特徴量抽出部103、視線検出部104、及び属性推定部105に供給する。   The camera 101 captures an advertisement installation area. The captured image is supplied to the face detection unit 102, the face feature amount extraction unit 103, the line-of-sight detection unit 104, and the attribute estimation unit 105.

顔検出部102は、人物情報収集部106の指示によりカメラ101から供給される画像を解析し、顔検出処理を行う。そして、画像から検出された顔の位置と大きさの情報を人物情報収集部106に供給する。   The face detection unit 102 analyzes an image supplied from the camera 101 according to an instruction from the person information collection unit 106 and performs face detection processing. Then, information on the position and size of the face detected from the image is supplied to the person information collection unit 106.

顔特徴量抽出部103は、人物情報収集部106から顔の位置と大きさの情報が供給されると、カメラ101から供給される画像を解析し、人物情報収集部106から供給された顔の位置と大きさの情報により特定される人物の顔特徴量を抽出する。そして、抽出された人物の顔特徴量を人物情報収集部106に供給する。   When face information and face size information is supplied from the person information collection unit 106, the face feature amount extraction unit 103 analyzes the image supplied from the camera 101 and analyzes the face supplied from the person information collection unit 106. The facial feature amount of the person specified by the position and size information is extracted. Then, the extracted facial feature amount of the person is supplied to the person information collection unit 106.

視線検出部104は、人物情報収集部106から顔の位置と大きさの情報が供給されると、カメラ101から供給される画像を解析し、人物情報収集部106から供給された顔の位置と大きさの情報により特定される人物の視線を検出し、検出された人物の視線角度を人物情報収集部106に供給する。   When the information on the face position and size is supplied from the person information collection unit 106, the line-of-sight detection unit 104 analyzes the image supplied from the camera 101, and determines the face position supplied from the person information collection unit 106. The line of sight of the person specified by the size information is detected, and the detected line of sight angle of the person is supplied to the person information collecting unit 106.

属性推定部105は、人物情報収集部106から顔の位置と大きさの情報が供給されると、カメラ101から供給される画像を解析し、人物情報収集部106から供給された顔の位置と大きさの情報により特定される人物の属性、すなわち年齢及び性別を推定し、推定された人物の属性を人物情報収集部106に供給する。   When the face position and size information is supplied from the person information collection unit 106, the attribute estimation unit 105 analyzes the image supplied from the camera 101, and determines the face position supplied from the person information collection unit 106. The attributes of the person specified by the size information, that is, the age and gender are estimated, and the estimated person attributes are supplied to the person information collecting unit 106.

人物情報収集部106は、例えば1秒等の予め定められた時間間隔で動作し、人物情報収集処理を行う。具体的には、顔検出部102に顔検出を指示する。また、顔特徴量抽出部103に顔特徴量抽出を指示する。また、視線検出部104に視線検出を指示する。また、属性推定部105に属性推定を指示する。そして、顔特徴量抽出部103から供給される顔特徴量、視線検出部104から供給される視線角度、及び属性推定部105から供給される属性を人物情報として人物情報記憶部107に記憶させる。   The person information collection unit 106 operates at a predetermined time interval such as 1 second, for example, and performs person information collection processing. Specifically, the face detection unit 102 is instructed to detect a face. Also, the face feature amount extraction unit 103 is instructed to extract a face feature amount. Further, it instructs the line-of-sight detection unit 104 to detect line-of-sight. Further, it instructs the attribute estimation unit 105 to estimate the attribute. Then, the face feature amount supplied from the face feature amount extraction unit 103, the line-of-sight angle supplied from the line-of-sight detection unit 104, and the attribute supplied from the attribute estimation unit 105 are stored in the person information storage unit 107 as person information.

人物情報記憶部107は、例えばハードディスク等の記憶装置により構成され、次の図2に示すような人物情報2を記憶する。   The person information storage unit 107 is configured by a storage device such as a hard disk, for example, and stores person information 2 as shown in FIG.

図2は、本発明の実施例1である広告効果測定装置1における人物情報記憶部107に記憶される人物情報2の構成例を示した図である。   FIG. 2 is a diagram illustrating a configuration example of the person information 2 stored in the person information storage unit 107 in the advertisement effect measuring apparatus 1 that is Embodiment 1 of the present invention.

図2において、人物情報2は、顔特徴量202と、視線角度203と、属性204とを、人物情報2を収集した時刻201と関連付けたものである。また、属性204は、年齢204aと、性別204bとを有している。   In FIG. 2, the person information 2 is obtained by associating the face feature amount 202, the line-of-sight angle 203, and the attribute 204 with the time 201 at which the person information 2 is collected. The attribute 204 has an age 204a and a gender 204b.

図1に戻り、同一人物特定部115は、例えば、1日等の予め定められた時間間隔で動作し、同一人物特定処理を行う。具体的には、人物情報記憶部107から人物情報2を読み出し、同一人物をグループ化して人物グループを生成し、読み出した人物情報2と、生成した人物グループとを時刻分析部108に供給する。   Returning to FIG. 1, the same person specifying unit 115 operates at a predetermined time interval such as one day, and performs the same person specifying process. Specifically, the person information 2 is read from the person information storage unit 107, the same person is grouped to generate a person group, and the read person information 2 and the generated person group are supplied to the time analysis unit 108.

時刻分析部108は、同一人物特定部115から人物情報2及び人物グループが供給されると、出現時刻分析処理を行う。具体的には、人物情報2に含まれる時刻201を分析し、各人物グループに関する時間情報を生成して時間情報評価部109に供給する。ここで、時刻分析部108は、その機能上、出現頻度計算部108aと、出現日率計算部108bと、出現時刻分散計算部108cとを有している。   When the person information 2 and the person group are supplied from the same person specifying unit 115, the time analysis unit 108 performs an appearance time analysis process. Specifically, the time 201 included in the person information 2 is analyzed, and time information related to each person group is generated and supplied to the time information evaluation unit 109. Here, the time analysis unit 108 has an appearance frequency calculation unit 108a, an appearance date rate calculation unit 108b, and an appearance time variance calculation unit 108c in terms of its functions.

出現頻度計算部108aは、人物グループの出現頻度を計算する。   The appearance frequency calculation unit 108a calculates the appearance frequency of the person group.

出現日率計算部108bは、人物グループの出現日率を計算する。   The appearance date rate calculation unit 108b calculates the appearance date rate of the person group.

出現時刻分散計算部108cは、人物グループの出現時刻分散を計算する。   The appearance time variance calculation unit 108c calculates the appearance time variance of the person group.

時間情報評価部109は、時刻分析部108から人物情報2及び各人物グループの時間情報が供給されると、時間情報評価処理を行う。具体的には、時間情報評価部109は、各人物グループの時間情報を評価し、その評価に基づいて顧客に該当する人物グループを選択して、選択された人物グループに対する顧客情報を生成し、生成した顧客情報を広告効果分析部110に供給する。つまり、時間情報評価部109は、各人物グループの時間情報を評価し、その評価に基づいて顧客に該当する人物グループを選択し、顧客以外の従業員等は、顧客として選択しないようにしたことを特徴とする。   When the person information 2 and the time information of each person group are supplied from the time analysis unit 108, the time information evaluation unit 109 performs a time information evaluation process. Specifically, the time information evaluation unit 109 evaluates time information of each person group, selects a person group corresponding to the customer based on the evaluation, generates customer information for the selected person group, The generated customer information is supplied to the advertisement effect analysis unit 110. That is, the time information evaluation unit 109 evaluates the time information of each person group, selects a person group corresponding to the customer based on the evaluation, and prevents employees other than the customer from being selected as customers. It is characterized by.

図3は、本発明の実施例1である広告効果測定装置1における時間情報評価部109が生成する顧客情報3の構成例を示した図である。   FIG. 3 is a diagram illustrating a configuration example of the customer information 3 generated by the time information evaluation unit 109 in the advertisement effect measuring apparatus 1 that is Embodiment 1 of the present invention.

図3において、顧客情報3は、顧客ID305と、時刻201と、視線角度203と、属性204とが関連付けられたものである。これらのうち、時刻201と、視線角度203と、属性204とは、図2の人物情報22における同一符号が付された情報と同一である。顧客ID305は、顧客を一意に識別する番号である。   In FIG. 3, customer information 3 is obtained by associating customer ID 305, time 201, line-of-sight angle 203, and attribute 204. Among these, the time 201, the line-of-sight angle 203, and the attribute 204 are the same as the information with the same reference numerals in the person information 22 of FIG. The customer ID 305 is a number that uniquely identifies the customer.

図1に戻り、広告効果分析部110は、時間情報評価部109から供給される顧客情報3を分析し、広告効果情報を生成する。ここで生成する広告効果情報は、顧客情報3を統計的に分析して得られる広告の効果を示す情報である。具体的には、例えば、広告設置領域における顧客の滞留時間、及び広告視聴時間等である。また、それらの滞留時間や広告視聴時間等を顧客の属性毎に算出したもの等である。そして、生成した広告効果情報を広告効果情報記憶部111に記憶させる。   Returning to FIG. 1, the advertisement effect analysis unit 110 analyzes the customer information 3 supplied from the time information evaluation unit 109 and generates advertisement effect information. The advertisement effect information generated here is information indicating the effect of the advertisement obtained by statistically analyzing the customer information 3. Specifically, for example, the residence time of the customer in the advertisement installation area, the advertisement viewing time, and the like. In addition, the residence time, advertisement viewing time, and the like are calculated for each customer attribute. Then, the generated advertisement effect information is stored in the advertisement effect information storage unit 111.

広告効果情報記憶部111は、例えばハードディスク等の記憶装置により構成され、広告効果情報を記憶する。   The advertisement effect information storage unit 111 is configured by a storage device such as a hard disk, and stores advertisement effect information.

広告効果情報送信部112は、広告効果測定装置1によって測定された広告効果を広告効果測定装置1の外部で利用するためのものである。具体的には、広告効果情報送信部112は、ネットワークに接続する機能を備え、ネットワークに接続する外部機器から広告効果情報が要求されると、広告効果情報記憶部111から広告効果情報を読み出し、読み出した広告効果情報を外部機器に送信する。   The advertisement effect information transmitting unit 112 is for using the advertisement effect measured by the advertisement effect measuring device 1 outside the advertisement effect measuring device 1. Specifically, the advertisement effect information transmission unit 112 has a function of connecting to the network, and when the advertisement effect information is requested from an external device connected to the network, the advertisement effect information storage unit 111 reads the advertisement effect information, The read advertisement effect information is transmitted to the external device.

なお、本発明の実施例1である広告効果測定装置1は、広告設置領域を撮影した画像から人物に関する人物情報2を生成する構成として、視線検出部104と、属性推定部105とを備える構成としているが、人物情報2を生成する構成はこれらに限定されない。人物の顔画像からこれ以外の人物情報2を生成する構成を備えてもよいし、人物の顔以外の部分から人物情報2を生成する構成を備えてもよい。   The advertisement effect measuring apparatus 1 according to the first embodiment of the present invention includes a line-of-sight detection unit 104 and an attribute estimation unit 105 as a configuration for generating person information 2 related to a person from an image obtained by shooting an advertisement installation area. However, the configuration for generating the person information 2 is not limited to these. A configuration for generating other person information 2 from the face image of the person may be provided, or a configuration for generating the person information 2 from a portion other than the face of the person may be provided.

また、本発明の実施例1である広告効果測定装置1における時刻分析部108は、出現頻度計算部108aと、出現日率計算部108bと、出現時刻分散計算部108cとを備える構成としているが、時刻を分析する構成はこれらに限定されない。つまり、時刻分析部108は、出現頻度計算部108aと、出現日率計算部108bと、出現時刻分散計算部108cとのうちいずれかの手段を備えない構成としてもよいし、顧客を選択するために有効なその他の時刻分析手段を備える構成としてもよい。   In addition, the time analysis unit 108 in the advertisement effect measuring apparatus 1 that is Embodiment 1 of the present invention is configured to include the appearance frequency calculation unit 108a, the appearance date rate calculation unit 108b, and the appearance time variance calculation unit 108c. The configuration for analyzing the time is not limited to these. That is, the time analysis unit 108 may be configured not to include any of the appearance frequency calculation unit 108a, the appearance date rate calculation unit 108b, and the appearance time distribution calculation unit 108c, or to select a customer. It is good also as a structure provided with the other time analysis means effective.

また、本発明の実施例1である広告効果測定装置1は、人物情報記憶部107と、広告効果情報記憶部111とを別々の記憶装置として構成しているが、各々の記憶部を部分的に共用したり、全ての記憶部を1つの記憶装置で共用したりする構成としてもよい。   In addition, in the advertising effectiveness measuring apparatus 1 that is Embodiment 1 of the present invention, the person information storage unit 107 and the advertising effectiveness information storage unit 111 are configured as separate storage devices, but each storage unit is partially configured. It is good also as a structure shared by all, or sharing all the memory | storage parts with one memory | storage device.

<実施例1の広告効果測定装置1の動作>
本発明の実施例1である広告効果測定装置1は、主に、人物情報収集処理と、同一人物特定処理と、時刻分析処理と、時間情報評価処理とを行う。よって以下に、これらの処理について詳細に説明する。
<Operation | movement of the advertising effectiveness measuring apparatus 1 of Example 1>
The advertisement effect measuring apparatus 1 according to the first embodiment of the present invention mainly performs a person information collection process, a same person identification process, a time analysis process, and a time information evaluation process. Therefore, these processes will be described in detail below.

≪人物情報収集処理≫
本発明の実施例1である広告効果測定装置1の人物情報収集部106における人物情報収集処理について説明する。
≪Personal information collection process≫
A person information collection process in the person information collection unit 106 of the advertisement effect measuring apparatus 1 according to the first embodiment of the present invention will be described.

図4は、本発明の実施例1である広告効果測定装置1の人物情報収集部106において、予め定められた時間間隔で定期的に動作している人物情報収集処理のうちの1周期分の主要な処理を示したフローチャートである。   FIG. 4 shows one period of human information collection processing that is periodically operating at a predetermined time interval in the human information collection unit 106 of the advertising effect measurement apparatus 1 that is Embodiment 1 of the present invention. It is the flowchart which showed the main processes.

人物情報収集部106は、人物情報収集処理を開始すると、顔検出部102に顔検出処理を実行させる(ステップS401)。顔検出部102は、顔検出を、カメラ101から供給される画像に対して、例えば、特許文献3に記載されている公知の属性推定処理の顔領域検出行程の方法で行う。顔検出部102は、検出された0個、1個、または2個以上の顔領域の位置と大きさの情報を人物情報収集部106に供給する。   When the person information collection unit 106 starts the person information collection process, the person information collection unit 106 causes the face detection unit 102 to execute the face detection process (step S401). The face detection unit 102 performs face detection on the image supplied from the camera 101 using, for example, a known attribute estimation process face area detection process described in Patent Document 3. The face detection unit 102 supplies information on the position and size of the detected 0, 1 or 2 or more face regions to the person information collection unit 106.

次に、人物情報収集部106は、ステップS401で検出された顔の数を変数Nに代入し、変数iに0を代入する(ステップS402)。   Next, the person information collection unit 106 substitutes the number of faces detected in step S401 into a variable N and substitutes 0 into a variable i (step S402).

次に、人物情報収集部106は、変数iの値が変数Nの値より小さいか否かを判定する(ステップS403)。人物情報収集部106は、変数Nの値より小さいと判定した場合(ステップS403“YES”)、ステップS404の処理へ移行する一方、変数Nの値より小さくない、すなわち変数Nの値以上であると判定した場合(ステップS403“NO”)、人物情報収集処理を終了する。   Next, the person information collection unit 106 determines whether or not the value of the variable i is smaller than the value of the variable N (step S403). If the person information collection unit 106 determines that the value is smaller than the value of the variable N (“YES” in step S403), the process proceeds to step S404, but is not smaller than the value of the variable N, that is, is equal to or greater than the value of the variable N. (Step S403 “NO”), the personal information collection process is terminated.

つまり、人物情報収集部106は、ステップS403において、変数iの値が変数Nの値より小さいと判定した場合(ステップS403“YES”)、変数iの値に1を加算して変数iに代入する(ステップS404)。   That is, when it is determined in step S403 that the value of variable i is smaller than the value of variable N (step S403 “YES”), person information collection unit 106 adds 1 to the value of variable i and substitutes it for variable i. (Step S404).

次に、人物情報収集部106は、顔特徴量抽出部103に、ステップS401で顔が検出されたi番目の人物の顔特徴量抽出処理を実行させる(ステップS405)。具体的には、人物情報収集部106は、ステップS401で顔検出部102から供給されたi番目の人物の顔領域の位置と大きさを顔特徴量抽出部103に供給すると、顔特徴量抽出部103は、カメラ101から供給される画像に対して、例えば、特許文献2に記載されている公知の特徴量抽出部における特徴量抽出処理を行う。そして、抽出されたi番目の人物の顔特徴量が顔特徴量抽出部103から人物情報収集部106に供給される。   Next, the person information collection unit 106 causes the face feature amount extraction unit 103 to execute the face feature amount extraction process of the i-th person whose face is detected in step S401 (step S405). Specifically, when the person information collection unit 106 supplies the position and size of the face area of the i-th person supplied from the face detection unit 102 in step S401 to the face feature amount extraction unit 103, the face feature amount extraction is performed. The unit 103 performs, for example, a feature amount extraction process in a known feature amount extraction unit described in Patent Document 2 on the image supplied from the camera 101. Then, the extracted facial feature quantity of the i-th person is supplied from the facial feature quantity extraction unit 103 to the person information collection unit 106.

次に、人物情報収集部106は、視線検出部104に、ステップS401で顔が検出されたi番目の人物の視線検出処理を実行させる(ステップS406)。具体的には、人物情報収集部106は、ステップS401で顔検出部102から供給されたi番目の人物の顔領域の位置と大きさを視線検出部104に供給する。視線検出部104は、カメラ101から供給される画像に対して、例えば、特許文献4に記載されている公知の視線方向計測部における視線方向計測処理を行う。そして、視線検出部104は、顔領域の位置から設置されている広告の中心に向かう方向を0°とし、広告の中心からのずれの角度を視線角度として求め、求めたi番目の人物の視線角度を人物情報収集部106に供給する。   Next, the person information collection unit 106 causes the line-of-sight detection unit 104 to perform the line-of-sight detection process for the i-th person whose face is detected in step S401 (step S406). Specifically, the person information collection unit 106 supplies the line-of-sight detection unit 104 with the position and size of the face area of the i-th person supplied from the face detection unit 102 in step S401. The line-of-sight detection unit 104 performs, for example, a line-of-sight direction measurement process in a known line-of-sight direction measurement unit described in Patent Document 4 on the image supplied from the camera 101. Then, the line-of-sight detection unit 104 sets the direction from the position of the face area toward the center of the advertisement installed as 0 °, obtains the angle of deviation from the center of the advertisement as the line-of-sight angle, and obtains the line of sight of the i-th person The angle is supplied to the person information collecting unit 106.

次に、人物情報収集部106は、属性推定部105に、ステップS401で顔が検出されたi番目の人物の属性推定処理を実行させる(ステップS407)。具体的には、人物情報収集部106は、ステップS401で顔検出部102から供給されたi番目の人物の顔領域の位置と大きさを属性推定部105に供給する。属性推定部105は、カメラ101から供給される画像に対して、例えば、特許文献3に記載されている属性推定処理の特徴ベクトル作成工程、顔向き推定工程、類似者判別工程、性別推定工程、及び年代推定工程の方法で行うことにより、人物の属性、すなわち年齢及び性別を推定する。そして、推定されたi番目の人物の属性が属性推定部105から人物情報収集部106に供給される。   Next, the person information collection unit 106 causes the attribute estimation unit 105 to execute attribute estimation processing of the i-th person whose face is detected in step S401 (step S407). Specifically, the person information collection unit 106 supplies the position and size of the face area of the i-th person supplied from the face detection unit 102 in step S401 to the attribute estimation unit 105. The attribute estimation unit 105 performs, for example, a feature vector creation process, a face orientation estimation process, a similar person determination process, a gender estimation process described in Patent Document 3 on an image supplied from the camera 101. Then, by performing the method of the age estimation process, the attributes of the person, that is, the age and sex are estimated. Then, the estimated attribute of the i-th person is supplied from the attribute estimation unit 105 to the person information collection unit 106.

次に、人物情報収集部106は、ステップS401で顔が検出されたi番目の人物の人物情報2を人物情報記憶部107に記憶させる(ステップS408)。具体的には、人物情報収集部106は、現在時刻と、ステップS405で顔特徴量抽出部103から供給されたi番目の人物の顔特徴量と、ステップS406で視線検出部104から供給されたi番目の人物の視線角度と、ステップS407で属性推定部105から供給されたi番目の人物の属性、すなわち年齢及び性別とを図2で示すような人物情報22として記憶させる。   Next, the person information collection unit 106 stores the person information 2 of the i-th person whose face is detected in step S401 in the person information storage unit 107 (step S408). Specifically, the person information collection unit 106 supplies the current time, the face feature amount of the i-th person supplied from the face feature amount extraction unit 103 in step S405, and the eye feature detection unit 104 supplied in step S406. The line-of-sight angle of the i-th person and the attributes of the i-th person supplied from the attribute estimation unit 105 in step S407, that is, age and sex, are stored as person information 22 as shown in FIG.

≪同一人物特定処理≫
次に、本発明の実施例1である広告効果測定装置1の同一人物特定部115における同一人物特定処理について説明する。
≪Identical person identification process≫
Next, the same person specifying process in the same person specifying unit 115 of the advertisement effect measuring apparatus 1 according to the first embodiment of the present invention will be described.

図5(a)は、本発明の実施例1である広告効果測定装置1の同一人物特定部115において、予め定められた時間間隔で定期的に動作している同一人物特定処理のうちの1周期分の主要な処理を示したフローチャートである。   FIG. 5A illustrates one of the same person specifying processes that are periodically operated at predetermined time intervals in the same person specifying unit 115 of the advertising effectiveness measuring apparatus 1 according to the first embodiment of the present invention. It is the flowchart which showed the main processing for the period.

同一人物特定部115は、同一人物特定処理を開始すると、人物情報記憶部107から人物情報2を読み出す(ステップS501)。   When the same person specifying unit 115 starts the same person specifying process, the same person specifying unit 115 reads out the person information 2 from the person information storage unit 107 (step S501).

次に、同一人物特定部115は、ステップS501で読み出した人物情報2における同一人物を特定する(ステップS502)。具体的には、人物情報2に含まれる顔特徴量について、例えば、特許文献2に記載されている認識部における特徴量の比較方法により各人物同士の顔特徴量を比較し、同一人物を特定する。そして、同一人物同士をまとめて人物グループを生成する。   Next, the same person specifying unit 115 specifies the same person in the person information 2 read in step S501 (step S502). Specifically, for the face feature amount included in the person information 2, for example, the face feature amount of each person is compared by the feature amount comparison method described in Patent Document 2 to identify the same person. To do. Then, the same person is grouped to generate a person group.

≪時刻分析処理≫
次に、本発明の実施例1である広告効果測定装置1の時刻分析部108における時刻分析処理について説明する。
≪Time analysis process≫
Next, time analysis processing in the time analysis unit 108 of the advertisement effect measuring apparatus 1 that is Embodiment 1 of the present invention will be described.

図5(b)は、本発明の実施例1である広告効果測定装置1の時刻分析部108における時刻分析処理を示したフローチャートである。   FIG. 5B is a flowchart showing time analysis processing in the time analysis unit 108 of the advertisement effect measuring apparatus 1 according to the first embodiment of the present invention.

時刻分析部108は、同一人物特定部115から人物情報2、及び人物グループが供給されると時刻分析処理を開始する。先ず、時刻分析部108における出現頻度計算部108aが、各人物グループの出現頻度を計算する(ステップS503)。具体的には、出現頻度計算部108aは、各人物グループに含まれる人物の数をその人物グループの出現頻度とする。   When the person information 2 and the person group are supplied from the same person specifying unit 115, the time analysis unit 108 starts the time analysis process. First, the appearance frequency calculation unit 108a in the time analysis unit 108 calculates the appearance frequency of each person group (step S503). Specifically, the appearance frequency calculation unit 108a sets the number of persons included in each person group as the appearance frequency of the person group.

次に、時刻分析部108における出現日率計算部108bは、各人物グループの出現日率を計算する(ステップS504)。具体的には、出現日率計算部108bは、人物情報記憶部107に記憶されている人物情報22の時刻201(図2参照。)の範囲を日数単位で表したもの、すなわち、人物情報記憶部107に人物情報22を記憶し始めてから現在までに経過した日数をDとするとき、計算対象の人物グループgに対する出現日率Rgを、以下の(数式1)によって求める。   Next, the appearance date rate calculation unit 108b in the time analysis unit 108 calculates the appearance date rate of each person group (step S504). Specifically, the appearance date rate calculation unit 108b represents the range of the time 201 (see FIG. 2) of the person information 22 stored in the person information storage unit 107 in units of days, that is, the person information storage. When the number of days that have elapsed since the beginning of storing the person information 22 in the unit 107 is D, the appearance date rate Rg for the calculation target person group g is obtained by the following (Formula 1).

Figure 2012118581
Figure 2012118581

ここで、exist(g,d)は、人物グループgに該当する人物情報22の時刻201のうち、人物情報記憶部107に人物情報22を記憶し始めてからd日目の0時から24時までの範囲に含まれるものが存在するか否か、すなわち、d日目に人物グループgが出現したか否かを示すものである。exist(g,d)は、以下の(数式2)に示すように、d日目に出現した場合は「1」、出現しなかった場合は「0」を返す関数である。   Here, exist (g, d) is the time 201 of the person information 22 corresponding to the person group g, from 0 o'clock to 24 o'clock on the d day after starting to store the person information 22 in the person information storage unit 107. Indicates whether or not there is an object included in the range, that is, whether or not a person group g appears on the d-th day. Exist (g, d) is a function that returns “1” if it appears on the d day and “0” if it does not appear, as shown in (Formula 2) below.

Figure 2012118581
Figure 2012118581

次に、時刻分析部108における出現時刻分散計算部108cは、出現時刻分散を計算する(ステップS505)。具体的には、出現時刻分散計算部108cは、計算対象の人物グループgに対して、人物グループgに該当する人物情報22の数をNg、人物グループgに該当するi番目の人物情報22に含まれる時刻201をTgiとするとき、出現時刻分散Vgを以下の(数式3)によって求める。   Next, the appearance time variance calculation unit 108c in the time analysis unit 108 calculates the appearance time variance (step S505). Specifically, the appearance time distribution calculation unit 108c sets the number of person information 22 corresponding to the person group g to Ng and the i-th person information 22 corresponding to the person group g for the person group g to be calculated. When the included time 201 is Tgi, the appearance time variance Vg is obtained by the following (Equation 3).

Figure 2012118581
Figure 2012118581

ここで、dsec(Tgi)は、時刻Tgiの含まれる日付の0時からの経過時間を秒単位で返す関数である。例えば、時刻Tgiが2009年10月13日16時17分28秒である場合、dsec(Tgi)は2009年10月13日0時0分0秒からの経過時間である「58648」を返す。また、Egは人物グループgに該当する人物情報22に含まれる時刻201の日付部分を省いた時間の平均であり、以下の(数式4)によって求める。   Here, dsec (Tgi) is a function that returns the elapsed time from 0:00 of the date included in time Tgi in seconds. For example, when the time Tgi is 2009/10/13 16:17:28, dsec (Tgi) returns “58648” which is the elapsed time from 00: 00: 00: 00 on October 13, 2009. Eg is an average of the time excluding the date portion of the time 201 included in the person information 22 corresponding to the person group g, and is obtained by the following (Equation 4).

Figure 2012118581
Figure 2012118581

≪時間情報評価処理≫
次に、本発明の実施例1である広告効果測定装置1の時間情報評価部109における時間情報評価処理について説明する。
≪Time information evaluation process≫
Next, the time information evaluation process in the time information evaluation unit 109 of the advertisement effect measuring apparatus 1 that is Embodiment 1 of the present invention will be described.

図6は、本発明の実施例1である広告効果測定装置1の時間情報評価部109における時間情報評価処理を示したフローチャートである。   FIG. 6 is a flowchart showing the time information evaluation process in the time information evaluation unit 109 of the advertisement effect measuring apparatus 1 which is Embodiment 1 of the present invention.

時間情報評価部109は、時刻分析部108から人物情報2、及び各人物グループの時間情報、すなわち出現頻度、出現日率、及び出現時刻分散が供給されると時間情報評価処理を開始し、供給された人物グループの数を変数Nに代入し、変数iに0を代入する(ステップS601)。   The time information evaluation unit 109 starts the time information evaluation process when the time information of the person information 2 and each person group, that is, the appearance frequency, the appearance date rate, and the appearance time distribution are supplied from the time analysis unit 108. The number of person groups thus assigned is substituted into a variable N, and 0 is substituted into a variable i (step S601).

次に、時間情報評価部109は、変数iの値が変数Nの値より小さいか否かを判定する(ステップS602)。ここで、時間情報評価部109は、変数Nの値より小さいと判定した場合(ステップS602“YES”)、ステップS603の処理へ移行する一方、変数Nの値より小さくない、すなわち変数Nの値以上であると判定した場合(ステップS602“NO”)、ステップS613の処理へ移行する。   Next, the time information evaluation unit 109 determines whether or not the value of the variable i is smaller than the value of the variable N (step S602). Here, if the time information evaluation unit 109 determines that the value is smaller than the value of the variable N (step S602 “YES”), the process proceeds to step S603, but is not smaller than the value of the variable N, that is, the value of the variable N. When it determines with it being above (step S602 "NO"), it transfers to the process of step S613.

つまり、時間情報評価部109は、ステップS602において、変数iの値が変数Nの値より小さいと判定した場合(ステップS602“YES”)、変数iの値に1を加算して変数iに代入する(ステップS603)。   That is, when the time information evaluation unit 109 determines in step S602 that the value of the variable i is smaller than the value of the variable N (step S602 “YES”), the time information evaluation unit 109 adds 1 to the value of the variable i and assigns it to the variable i. (Step S603).

次に、時間情報評価部109は、i番目の人物グループに対する評価値を0とする(ステップS604)。   Next, the time information evaluation unit 109 sets the evaluation value for the i-th person group to 0 (step S604).

次に、時間情報評価部109は、時刻分析部108から供給された時間情報に含まれるi番目の人物グループに対する出現頻度の値が、予め定められた閾値以下か否かを判定する(ステップS605)。ここで、時間情報評価部109は、閾値以下であると判定した場合(ステップS605“YES”)、ステップS606の処理へ移行する。一方、閾値以下ではない、すなわち閾値より大きいと判定した場合(ステップS605“NO”)、ステップS606の処理を行わず、ステップS607の処理へ移行する。なお、ここで用いる閾値は、広告の設置領域における顧客の出現頻度と、従業員等の顧客以外の人物の出現頻度とを考慮して適切に定める。   Next, the time information evaluation unit 109 determines whether the value of the appearance frequency for the i-th person group included in the time information supplied from the time analysis unit 108 is equal to or less than a predetermined threshold (step S605). ). If the time information evaluation unit 109 determines that the time information evaluation unit 109 is equal to or less than the threshold (step S605 “YES”), the process proceeds to step S606. On the other hand, if it is determined that it is not less than the threshold value, that is, greater than the threshold value (step S605 “NO”), the process proceeds to step S607 without performing the process in step S606. The threshold used here is appropriately determined in consideration of the appearance frequency of customers in the advertisement installation area and the appearance frequency of persons other than customers such as employees.

つまり、時間情報評価部109は、ステップS605において、出現頻度の値が閾値以下であると判定した場合(ステップS605“YES”)、i番目の人物グループに対する評価値に予め定められた値Sfを加算する(ステップS606)。ここで用いる値Sfは、出現頻度による判定を顧客選択に反映させる度合いを考慮して適切に定める。   That is, when the time information evaluation unit 109 determines in step S605 that the value of the appearance frequency is equal to or less than the threshold value (step S605 “YES”), the time information evaluation unit 109 uses a predetermined value Sf as the evaluation value for the i-th person group. Addition is performed (step S606). The value Sf used here is appropriately determined in consideration of the degree to which the determination based on the appearance frequency is reflected in the customer selection.

次に、時間情報評価部109は、時刻分析部108から供給された時間情報に含まれるi番目の人物グループに対する出現日率の値が、予め定められた閾値以下か否かを判定する(ステップS607)。ここで、時間情報評価部109は、閾値以下であると判定した場合(ステップS607“YES”)、ステップS608の処理へ移行する。一方、閾値以下ではない、すなわち閾値より大きいと判定した場合(ステップS607“NO”)、ステップS608の処理を行わず、ステップS609の処理へ移行する。なお、ここで用いる閾値は、広告の設置領域における顧客の出現日率と、従業員等の顧客以外の人物の出現日率とを考慮して適切に定める。   Next, the time information evaluation unit 109 determines whether or not the value of the appearance date rate for the i-th person group included in the time information supplied from the time analysis unit 108 is equal to or less than a predetermined threshold (step). S607). Here, if the time information evaluation unit 109 determines that the time information is equal to or less than the threshold (step S607 “YES”), the process proceeds to the process of step S608. On the other hand, when it is determined that it is not less than the threshold value, that is, greater than the threshold value (step S607 “NO”), the process proceeds to step S609 without performing the process in step S608. The threshold used here is appropriately determined in consideration of the appearance date rate of customers in the advertisement installation area and the appearance date rate of persons other than customers such as employees.

つまり、時間情報評価部109は、ステップS607において、出現日率の値が閾値以下であると判定した場合(ステップS607“YES”)、i番目の人物グループに対する評価値に予め定められた値Sdを加算する(ステップS608)。ここで用いる値Sdは、出現日率による判定を顧客選択に反映させる度合いを考慮して適切に定める。   That is, if the time information evaluation unit 109 determines in step S607 that the value of the appearance date rate is equal to or less than the threshold value (step S607 “YES”), the time information evaluation unit 109 has a predetermined value Sd as the evaluation value for the i-th person group. Are added (step S608). The value Sd used here is appropriately determined in consideration of the degree to which the determination by the appearance date rate is reflected in the customer selection.

次に、時間情報評価部109は、時刻分析部108から供給された時間情報に含まれるi番目の人物グループに対する出現時刻分散の値が、予め定められた閾値以下か否かを判定する(ステップS609)。ここで、時間情報評価部109は、閾値以下であると判定した場合(ステップS609“YES”)、ステップS610の処理へ移行する。一方、閾値以下ではない、すなわち閾値より大きいと判定した場合(ステップS609“NO”)、ステップS610の処理を行わず、ステップS611の処理へ移行する。なお、ここで用いる閾値は、広告の設置領域における顧客の出現時刻分散と、従業員等の顧客以外の人物の出現時刻分散とを考慮して適切に定める。   Next, the time information evaluation unit 109 determines whether or not the value of the appearance time variance for the i-th person group included in the time information supplied from the time analysis unit 108 is equal to or less than a predetermined threshold (step). S609). If the time information evaluation unit 109 determines that the time information evaluation unit 109 is equal to or less than the threshold (step S609 “YES”), the process proceeds to step S610. On the other hand, if it is determined that it is not less than the threshold value, that is, greater than the threshold value (step S609 “NO”), the process proceeds to step S611 without performing the process in step S610. Note that the threshold used here is appropriately determined in consideration of the distribution of the appearance times of customers in the advertisement installation area and the distribution of the appearance times of persons other than customers such as employees.

つまり、時間情報評価部109は、ステップS609において、出現時刻分散の値が閾値以下であると判定した場合(ステップS609“YES”)、i番目の人物グループに対する評価値に予め定められた値Svを加算する(ステップS610)。ここで用いる値Svは、出現時刻分散による判定を顧客選択に反映させる度合いを考慮して適切に定める。   That is, when the time information evaluation unit 109 determines in step S609 that the value of the appearance time variance is equal to or less than the threshold value (step S609 “YES”), the time information evaluation unit 109 has a predetermined value Sv as the evaluation value for the i-th person group. Are added (step S610). The value Sv used here is appropriately determined in consideration of the degree to which the determination based on the dispersion of appearance times is reflected in the customer selection.

次に、時間情報評価部109は、i番目の人物グループに対する評価値が予め定められた閾値以上であるか否かを判定する(ステップS611)。ここで、時間情報評価部109は、閾値以上であると判定した場合(ステップS611“YES”)、ステップS612の処理へ移行する。一方、閾値以上ではない、すなわち閾値より小さいと判定した場合(ステップS611“NO”)、ステップS612の処理を行わずに、ステップS602の処理へ戻る。なお、ここで用いる閾値は、以上のステップによって求められる評価値について、顧客の評価値と、従業員等の顧客以外の人物の評価値とを考慮して適切に定める。   Next, the time information evaluation unit 109 determines whether or not the evaluation value for the i-th person group is greater than or equal to a predetermined threshold (step S611). Here, if the time information evaluation unit 109 determines that the time information is equal to or greater than the threshold value (step S611 “YES”), the process proceeds to the process of step S612. On the other hand, when it is determined that it is not equal to or greater than the threshold, that is, smaller than the threshold (step S611 “NO”), the process returns to step S602 without performing the process in step S612. Note that the threshold value used here is appropriately determined for the evaluation value obtained by the above steps in consideration of the evaluation value of the customer and the evaluation value of a person other than the customer such as an employee.

つまり、時間情報評価部109は、ステップS611において、評価値が閾値以上であると判定した場合(ステップS611“YES”)、出現頻度計算部108から供給されたi番目の人物グループに該当する人物情報2に顧客IDを付加する(ステップS612)。具体的には、時間情報評価部109は、i番目の人物グループを顧客として選択し、選択された顧客を識別する一意のIDを生成する。そして、時間情報評価部109は、出現頻度計算部108から供給された各人物情報2のうち、i番目の人物グループに該当する人物情報2に生成した顧客IDを付加して顧客情報を生成する。そして、ステップS611の処理後は、ステップS602の処理へ移行する。   That is, if the time information evaluation unit 109 determines in step S611 that the evaluation value is greater than or equal to the threshold (step S611 “YES”), the person corresponding to the i-th person group supplied from the appearance frequency calculation unit 108 A customer ID is added to information 2 (step S612). Specifically, the time information evaluation unit 109 selects the i-th person group as a customer, and generates a unique ID for identifying the selected customer. Then, the time information evaluation unit 109 generates customer information by adding the generated customer ID to the person information 2 corresponding to the i-th person group among the individual information 2 supplied from the appearance frequency calculation unit 108. . And after the process of step S611, it transfers to the process of step S602.

一方、時間情報評価部109は、ステップS602において、変数iの値が変数Nの値以上であると判定した場合(ステップS602“NO”)、ステップS612で生成した顧客情報を広告効果分析部110に供給する(ステップS613)。   On the other hand, when the time information evaluation unit 109 determines in step S602 that the value of the variable i is greater than or equal to the value of the variable N (step S602 “NO”), the customer information generated in step S612 is used as the advertisement effect analysis unit 110. (Step S613).

従って、実施例1の広告効果測定装置1によれば、出現する人物と、出現時刻に関する時間情報を関連付けて評価する時間情報評価部109を備え、時間情報評価部109は、時間情報として出現頻度、出現日率、出現時刻分散の3つの値で総合的に評価するようにしたので、従業員等を除外して、本来の顧客のみで広告効果を測定することができ、広告効果測定の精度を高めることが可能となる。   Therefore, according to the advertisement effect measuring apparatus 1 of the first embodiment, the time information evaluation unit 109 that evaluates the person who appears and the time information about the appearance time in association with each other is evaluated. Since the overall evaluation is based on the three values of appearance date rate and appearance time variance, it is possible to measure the advertising effectiveness only with the original customer, excluding employees, etc., and the accuracy of advertising effectiveness measurement Can be increased.

なお、上述した本発明の実施例1である広告効果測定装置1は、コンピュータ装置にインストールした広告効果測定プログラムを実行させることにより実現することもできる。この広告効果測定プログラムは、例えば、広告効果測定プログラムが記憶された記録媒体から読み出され、CPUで実行されることにより広告効果測定装置1を構成するようにしてもよいし、通信ネットワークを介して伝送されてインストールされ、CPUで実行されることにより広告効果測定装置1を構成するようにしてもよい。   The above-described advertisement effect measuring apparatus 1 that is Embodiment 1 of the present invention can also be realized by executing an advertisement effect measuring program installed in a computer device. The advertisement effect measurement program may be configured to configure the advertisement effect measurement device 1 by being read from a recording medium storing the advertisement effect measurement program and executed by the CPU or via a communication network, for example. The advertisement effect measuring apparatus 1 may be configured by being transmitted, installed, and executed by the CPU.

本発明の実施例2は、実施例1の広告効果測定装置1において、時間情報評価部109の作用が実施例1とは異なるものである。よって、実施例2の時間情報評価部109の作用について説明する。なお、その説明も、図1に示す実施例1の広告効果測定装置1の構成を参照して、説明するものとする。   The second embodiment of the present invention is different from the first embodiment in the operation of the time information evaluation unit 109 in the advertisement effect measuring apparatus 1 of the first embodiment. Therefore, the operation of the time information evaluation unit 109 according to the second embodiment will be described. In addition, the description shall be demonstrated with reference to the structure of the advertising effectiveness measuring apparatus 1 of Example 1 shown in FIG.

<広告効果測定装置の作用>
≪時間情報評価処理≫
図7は、本発明の実施例2である広告効果測定装置1の時間情報評価部109における時間情報評価処理を示したフローチャートである。
<Advertising effect measuring device>
≪Time information evaluation process≫
FIG. 7 is a flowchart showing the time information evaluation process in the time information evaluation unit 109 of the advertisement effect measuring apparatus 1 according to the second embodiment of the present invention.

図7に示す実施例2の時間情報評価部109による時間情報評価処理における各ステップのうち、図6の本発明の実施例1である広告効果測定装置1の時間情報評価部109における時間情報評価処理の各ステップと同一符号を付したステップは、それぞれ図6の同一符号が付されたステップと同一であるので、説明を省略する。   Of the steps in the time information evaluation process by the time information evaluation unit 109 of Example 2 shown in FIG. 7, the time information evaluation in the time information evaluation unit 109 of the advertisement effect measuring apparatus 1 that is Example 1 of the present invention in FIG. 6. Steps denoted by the same reference numerals as the steps of the processing are the same as the steps denoted by the same reference numerals in FIG.

つまり、図7に示すように、実施例2の時間情報評価部109は、時間情報評価処理を開始すると、まず、ステップS714において、時間情報評価部109は、時刻分析部108から供給された時間情報に含まれる出現頻度を利用し、公知の技術であるクラスタ分析処理を実行する。ここで、クラスタとは、1つまたは2つ以上の人物グループを含むものである。そして、クラスタ分析処理により、各人物グループは出現頻度が大きいクラスタと小さいクラスタの2つのクラスタに分類されるとともに、2つのクラスタの出現頻度の平均の差が計算される。   That is, as illustrated in FIG. 7, when the time information evaluation unit 109 according to the second embodiment starts the time information evaluation process, first, in step S <b> 714, the time information evaluation unit 109 receives the time supplied from the time analysis unit 108. A cluster analysis process, which is a known technique, is executed using the appearance frequency included in the information. Here, the cluster includes one or more person groups. Then, by the cluster analysis process, each person group is classified into two clusters, a cluster having a high appearance frequency and a cluster having a small appearance frequency, and an average difference between the appearance frequencies of the two clusters is calculated.

次に、実施例2の時間情報評価部109は、時刻分析部108から供給された時間情報に含まれる出現日率を利用し、公知の技術であるクラスタ分析処理を実行する(ステップS715)。そして、クラスタ分析処理により、各人物グループは出現日率が大きいクラスタと小さいクラスタの2つのクラスタに分類されるとともに、2つのクラスタの出現日率の平均の差が計算される。   Next, the time information evaluation unit 109 according to the second embodiment performs cluster analysis processing, which is a known technique, using the appearance date rate included in the time information supplied from the time analysis unit 108 (step S715). Then, by the cluster analysis process, each person group is classified into two clusters, a cluster having a large appearance date rate and a cluster having a small appearance date rate, and an average difference between the appearance date rates of the two clusters is calculated.

次に、実施例2の時間情報評価部109は、時刻分析部108から供給された時間情報に含まれる出現時刻分散を利用し、公知の技術であるクラスタ分析処理を実行する(ステップS716)。そして、クラスタ分析処理により、各人物グループは出現時刻分散が大きいクラスタと小さいクラスタの2つのクラスタに分類されるとともに、2つのクラスタの出現時刻分散の平均の差が計算される。   Next, the time information evaluation unit 109 according to the second embodiment performs cluster analysis processing, which is a known technique, using the appearance time dispersion included in the time information supplied from the time analysis unit 108 (step S716). Then, by the cluster analysis process, each person group is classified into two clusters, a cluster having a large appearance time variance and a cluster having a small appearance time, and an average difference between the appearance time variances of the two clusters is calculated.

実施例2では、このステップS716の後、前述した実施例1の図6に示すステップS601〜S604の処理を実行し、その後、ステップS717の処理へ以降する。   In the second embodiment, after step S716, the processing of steps S601 to S604 shown in FIG. 6 of the first embodiment described above is executed, and thereafter, the processing proceeds to step S717.

そして、実施例2の時間情報評価部109は、ステップS717において、ステップS714で計算された2つのクラスタの出現頻度の平均の差が、予め定められた閾値以上であるか否かを判定する。ここで、実施例2の時間情報評価部109は、2つのクラスタの出現頻度の平均の差が閾値以上であると判定した場合(ステップS717“YES”)、ステップS705の処理へ移行する。一方、閾値以上ではない、すなわち閾値より小さいと判定した場合(ステップS717“NO”)、ステップS606の処理へ移行する。なお、ここで用いる閾値は、対象の人物グループが2つのクラスタのいずれに含まれるかに係わらず評価値を加算することにより、時間情報評価に出現頻度を反映させないように、適切な値に定める。なぜなら、2つのクラスタの出現頻度の平均の差が小さい場合、時間情報評価において出現頻度が有効ではないと考えられるからである。   In step S717, the time information evaluation unit 109 according to the second embodiment determines whether the average difference between the appearance frequencies of the two clusters calculated in step S714 is equal to or greater than a predetermined threshold. If the time information evaluation unit 109 according to the second embodiment determines that the average difference between the appearance frequencies of the two clusters is greater than or equal to the threshold (step S717 “YES”), the process proceeds to step S705. On the other hand, when it is determined that it is not equal to or greater than the threshold value, that is, smaller than the threshold value (step S717 “NO”), the process proceeds to step S606. The threshold used here is set to an appropriate value so that the appearance frequency is not reflected in the time information evaluation by adding the evaluation value regardless of which of the two clusters the target person group is included in. . This is because when the average difference between the appearance frequencies of the two clusters is small, it is considered that the appearance frequency is not effective in the time information evaluation.

つまり、実施例2の時間情報評価部109は、ステップS717において、2つのクラスタの出現頻度の平均の差が閾値以上であると判定した場合(ステップS717“YES”)、続いてi番目の人物グループがステップS714で分類された出現頻度が小さいクラスタに含まれるか否かを判定する(ステップS705)。ここで、実施例2の時間情報評価部109は、出現頻度が小さいクラスタに含まれると判定した場合(ステップS705“YES”)、実施例1と同様のステップS606の処理へ移行する。一方、出現頻度が小さいクラスタに含まれない、すなわち出現頻度が大きいクラスタに含まれると判定した場合(ステップS705“NO”)、ステップS606の処理を行わず、ステップS718の処理へ移行する。   That is, when the time information evaluation unit 109 of Example 2 determines in step S717 that the average difference between the appearance frequencies of the two clusters is greater than or equal to the threshold (step S717 “YES”), the i th person continues. It is determined whether or not the group is included in a cluster with a low appearance frequency classified in step S714 (step S705). If the time information evaluation unit 109 according to the second embodiment determines that the time information evaluation unit 109 is included in a cluster with a low appearance frequency (“YES” in step S705), the process proceeds to the process of step S606 similar to that in the first embodiment. On the other hand, when it is determined that the cluster is not included in the cluster with the low appearance frequency, that is, is included in the cluster with the high appearance frequency (“NO” in step S705), the process proceeds to the process in step S718 without performing the process in step S606.

つまり、実施例2の時間情報評価部109は、ステップS718において、ステップS715で計算された2つのクラスタの出現日率の平均の差が、予め定められた閾値以上であるか否かを判定する。ここで、実施例2の時間情報評価部109は、2つのクラスタの出現日率の平均の差が閾値以上であると判定した場合(ステップS718“YES”)、ステップS707の処理へ移行する。一方、閾値以上ではない、すなわち閾値より小さいと判定した場合(ステップS718“NO”)、実施例1と同様のステップS608の処理へ移行する。なお、ここで用いる閾値は、対象の人物グループが2つのクラスタのいずれに含まれるかに係わらず評価値を加算することにより、時間情報評価に出現日率を反映させないように、適切な値に定める。なぜなら、2つのクラスタの出現日率の平均の差が小さい場合、時間情報評価において出現日率が有効ではないと考えられるからである。   That is, in step S718, the time information evaluation unit 109 according to the second embodiment determines whether the average difference between the appearance date rates of the two clusters calculated in step S715 is equal to or greater than a predetermined threshold. . Here, when the time information evaluation unit 109 according to the second embodiment determines that the average difference between the appearance date rates of the two clusters is equal to or greater than the threshold (step S718 “YES”), the process proceeds to step S707. On the other hand, if it is determined that the value is not equal to or greater than the threshold value, that is, smaller than the threshold value (step S718 “NO”), the process proceeds to step S608 similar to that in the first embodiment. Note that the threshold used here is set to an appropriate value so that the appearance date rate is not reflected in the time information evaluation by adding the evaluation value regardless of which of the two clusters the target person group is included in. Determine. This is because when the average difference between the appearance dates of the two clusters is small, it is considered that the appearance date rate is not effective in the time information evaluation.

つまり、実施例2の時間情報評価部109は、ステップS718において、2つのクラスタの出現日率の平均の差が閾値以上であると判定した場合(ステップS718“YES”)、続いてi番目の人物グループがステップS715で分類された出現日率が小さいクラスタに含まれるか否かを判定する(ステップS707)。ここで、実施例2の時間情報評価部109は、出現日率が小さいクラスタに含まれると判定した場合(ステップS707“YES”)、ステップS608の処理へ移行する。一方、出現日率が小さいクラスタに含まれない、すなわち出現日率が大きいクラスタに含まれると判定した場合(ステップS707“NO”)、ステップS709の処理へ移行する。   That is, when the time information evaluation unit 109 of Example 2 determines in step S718 that the average difference between the appearance dates of the two clusters is equal to or greater than the threshold (step S718 “YES”), the i th It is determined whether or not the person group is included in a cluster with a small appearance date rate classified in step S715 (step S707). Here, when the time information evaluation unit 109 according to the second embodiment determines that it is included in a cluster having a small appearance date rate (step S707 “YES”), the processing proceeds to step S608. On the other hand, when it is determined that the cluster is not included in the cluster having a small appearance date rate, that is, the cluster is included in a cluster having a large appearance date rate (step S707 “NO”), the process proceeds to step S709.

つまり、実施例2の時間情報評価部109は、ステップS719において、ステップS716で計算された2つのクラスタの出現時刻分散の平均の差が、予め定められた閾値以上であるか否かを判定する。ここで、実施例2の時間情報評価部109は、2つのクラスタの出現時刻分散の平均の差が閾値以上であると判定した場合(ステップS719“YES”)、ステップS709の処理へ移行する。一方、閾値以上ではない、すなわち閾値より小さいと判定した場合(ステップS719“NO”)、実施例1と同様のステップS610の処理へ移行する。なお、ここで用いる閾値は、対象の人物グループが2つのクラスタのいずれに含まれるかに係わらず評価値を加算することにより、時間情報評価に出現時刻分散を反映させないように、適切な値に定める。なぜなら、2つのクラスタの出現時刻分散の平均の差が小さい場合、時間情報評価において出現時刻分散が有効ではないと考えられるからである。   That is, in step S719, the time information evaluation unit 109 according to the second embodiment determines whether the average difference between the appearance time variances of the two clusters calculated in step S716 is equal to or greater than a predetermined threshold value. . Here, when the time information evaluation unit 109 according to the second embodiment determines that the average difference between the appearance time variances of the two clusters is greater than or equal to the threshold (“YES” in step S719), the process proceeds to step S709. On the other hand, when it is determined that it is not equal to or greater than the threshold value, that is, smaller than the threshold value (step S719 “NO”), the process proceeds to step S610 similar to that in the first embodiment. The threshold value used here is set to an appropriate value so that the time information evaluation does not reflect the appearance time dispersion by adding the evaluation value regardless of which of the two clusters the target person group is included in. Determine. This is because, when the difference between the averages of the appearance time dispersions of the two clusters is small, it is considered that the appearance time dispersion is not effective in the time information evaluation.

つまり、実施例2の時間情報評価部109は、ステップS719において、2つのクラスタの出現時刻分散の平均の差が閾値以上であると判定した場合(ステップS719“YES”)、続いてi番目の人物グループがステップS716で分類された出現時刻分散が小さいクラスタに含まれるか否かを判定する(ステップS709)。ここで、実施例2の時間情報評価部109は、出現時刻分散が小さいクラスタに含まれると判定した場合(ステップS709“YES”)、実施例1と同様のステップS610の処理へ移行する。一方、出現時刻分散が小さいクラスタに含まれない、すなわち出現時刻分散が大きいクラスタに含まれると判定した場合(ステップS709“NO”)、実施例1と同様のステップS611〜S613の処理へ移行して、終了する。   In other words, if the time information evaluation unit 109 of Example 2 determines in step S719 that the average difference between the appearance time variances of the two clusters is greater than or equal to the threshold value (step S719 “YES”), then the i th It is determined whether the person group is included in a cluster with a small appearance time variance classified in step S716 (step S709). If the time information evaluation unit 109 according to the second embodiment determines that the time information evaluation unit 109 is included in a cluster having a small appearance time variance (“YES” in step S709), the process proceeds to the process of step S610 similar to the first embodiment. On the other hand, when it is determined that it is not included in a cluster having a small appearance time variance, that is, a cluster having a large appearance time variance (“NO” in step S709), the processing proceeds to steps S611 to S613 similar to those in the first embodiment. And exit.

≪クラスタ分析処理≫
次に、図7の時間情報評価処理のステップS714、S715、及びS716におけるクラスタ分析処理の詳細について説明する。
≪Cluster analysis process≫
Next, details of the cluster analysis processing in steps S714, S715, and S716 of the time information evaluation processing of FIG. 7 will be described.

図8は、本発明の実施例2である広告効果測定装置1の時間情報評価部109におけるステップS714、S715、及びS716のクラスタ分析処理を示したフローチャートである。   FIG. 8 is a flowchart showing the cluster analysis processing of steps S714, S715, and S716 in the time information evaluation unit 109 of the advertisement effect measurement apparatus 1 that is Embodiment 2 of the present invention.

実施例2の時間情報評価部109は、クラスタ分析処理を開始すると、各人物グループをクラスタとする(ステップS801)。すなわち、1つの人物グループを含むクラスタが人物グループと同じ数だけ生成される。   When starting the cluster analysis process, the time information evaluation unit 109 according to the second embodiment sets each person group as a cluster (step S801). That is, the same number of clusters including one person group is generated as the number of person groups.

次に、実施例2の時間情報評価部109は、ステップS801で生成されたクラスタの数を変数nに代入する(ステップS802)。   Next, the time information evaluation unit 109 according to the second embodiment substitutes the number of clusters generated in step S801 for a variable n (step S802).

次に、実施例2の時間情報評価部109は、変数nの値が2より大きいか否かを判定する(ステップS803)。変数nの値が2より大きいと判定した場合(ステップS803“YES”)、ステップS804の処理へ移行する。一方、2より大きくない、すなわち2以下であると判定した場合(ステップS803“NO”)、ステップS807の処理へ移行する。   Next, the time information evaluation part 109 of Example 2 determines whether the value of the variable n is larger than 2 (step S803). If it is determined that the value of the variable n is greater than 2 (“YES” in step S803), the process proceeds to step S804. On the other hand, if it is determined that it is not greater than 2, that is, 2 or less (“NO” in step S803), the process proceeds to step S807.

つまり、実施例2の時間情報評価部109は、ステップS803において、変数nの値が2より大きいと判定した場合(ステップS803“YES”)、各クラスタに含まれる人物グループの値の平均を計算する(ステップS804)。ここで用いる人物グループの値は、ステップS714におけるクラスタ分析の場合は出現頻度であり、ステップS715におけるクラスタ分析の場合は出現日率であり、ステップS716におけるクラスタ分析の場合は出現時刻分散である。   That is, if the time information evaluation unit 109 of Example 2 determines in step S803 that the value of the variable n is greater than 2 (step S803 “YES”), the average of the values of the person groups included in each cluster is calculated. (Step S804). The value of the person group used here is the appearance frequency in the case of the cluster analysis in step S714, the appearance date rate in the case of the cluster analysis in step S715, and the appearance time distribution in the case of the cluster analysis in step S716.

次に、実施例2の時間情報評価部109は、ステップS804で求めた平均値の差が最小となる2つのクラスタを選択し、選択された2つのクラスタを統合する(ステップS805)。すなわち、実施例2の時間情報評価部109は、選択された2つのクラスタそれぞれに含まれる人物グループを全て含むクラスタを新たに生成し、選択された2つのクラスタを破棄する。   Next, the time information evaluation unit 109 according to the second embodiment selects two clusters that minimize the difference between the average values obtained in step S804, and integrates the two selected clusters (step S805). That is, the time information evaluation unit 109 according to the second embodiment newly generates a cluster including all the person groups included in each of the two selected clusters, and discards the two selected clusters.

次に、実施例2の時間情報評価部109は、変数nの値から1を減算して変数nに代入する(ステップS806)。そして、ステップS803の処理へ戻る。   Next, the time information evaluation unit 109 according to the second embodiment subtracts 1 from the value of the variable n and substitutes it for the variable n (step S806). Then, the process returns to step S803.

これに対し、実施例2の時間情報評価部109は、ステップS803において、変数nの値が2以下であると判定した場合(ステップS803“NO”)、各クラスタ、すなわち2つのクラスタに含まれる人物グループの値の平均を計算し、それらの平均の差を計算する(ステップS807)。ここで用いる人物グループの値は、ステップS714におけるクラスタ分析の場合は出現頻度であり、ステップS715におけるクラスタ分析の場合は出現日率であり、ステップS716におけるクラスタ分析の場合は出現時刻分散である。   On the other hand, when the time information evaluation unit 109 according to the second embodiment determines in step S803 that the value of the variable n is 2 or less (“NO” in step S803), the time information evaluation unit 109 is included in each cluster, that is, two clusters. The average of the values of the person group is calculated, and the difference between the averages is calculated (step S807). The value of the person group used here is the appearance frequency in the case of the cluster analysis in step S714, the appearance date rate in the case of the cluster analysis in step S715, and the appearance time distribution in the case of the cluster analysis in step S716.

実施例2の時間情報評価部109は、以上のクラスタ分析処理を含む顧客分析処理により、実施例1の広告効果測定装置1の時間情報評価部109における時間情報分析処理のように予め閾値を設定することなく、人物グループを出現頻度、出現日率、または出現時刻分散が大きいクラスタと小さいクラスタの2つに分類する。そして、それら2つのクラスタの出現頻度、出現日率、または出現時刻分散の平均の差を計算することができる。   The time information evaluation unit 109 according to the second embodiment sets a threshold value in advance as in the time information analysis process performed by the time information evaluation unit 109 of the advertisement effect measuring apparatus 1 according to the first embodiment by the customer analysis process including the cluster analysis process described above. Without classifying, the person group is classified into two, a cluster having a large appearance frequency, an appearance date rate, or an appearance time variance and a small cluster. Then, an average difference between the appearance frequency, appearance date rate, or appearance time variance of the two clusters can be calculated.

従って、実施例2の広告効果測定装置1によっても、実施例1の広告効果測定装置1と同様に、従業員等を除外して、本来の顧客のみで広告効果を測定することができ、広告効果測定の精度を高めることが可能となる。   Therefore, the advertising effectiveness measuring apparatus 1 of the second embodiment can also measure the advertising effectiveness only with the original customer, excluding employees, etc., as in the advertising effectiveness measuring apparatus 1 of the first embodiment. It becomes possible to increase the accuracy of effect measurement.

また、実施例2の広告効果測定装置1では、時間情報の値をクラスタ分析で2つのクラスタに分類し、時間情報の値の低い方のクラスタを顧客として選択するので、予め閾値等のパラメータを設定することなく、顧客を選択することが可能となる。   In the advertisement effect measuring apparatus 1 of the second embodiment, the time information values are classified into two clusters by cluster analysis, and the cluster having the lower time information value is selected as a customer. Customers can be selected without setting.

特に、実施例2の広告効果測定装置1では、2つのクラスタの時間情報の値の差が大きい場合に顧客選択に反映させる一方、小さい場合に反映させないようにしたので、有効な時間情報を使って効果的に顧客を選択することが可能となる。   In particular, in the advertising effectiveness measuring apparatus 1 according to the second embodiment, when the difference between the time information values of the two clusters is large, it is reflected in the customer selection, but not reflected when the value is small. This makes it possible to select customers effectively.

本発明の実施例3では、広告の効果を測定する広告効果測定システムについて説明する。   In the third embodiment of the present invention, an advertisement effect measurement system for measuring the effect of an advertisement will be described.

<広告効果測定システムの構成>
図9は、本発明の実施例3である広告効果測定システム9の構成例を示した図である。
<Advertising effect measurement system configuration>
FIG. 9 is a diagram illustrating a configuration example of an advertisement effect measurement system 9 that is Embodiment 3 of the present invention.

図9において、広告効果測定システム9は、複数の人物情報収集装置10a〜10cと、広告効果測定装置11とが、ネットワーク901を介して接続される。   In FIG. 9, the advertisement effect measurement system 9 includes a plurality of person information collection devices 10 a to 10 c and an advertisement effect measurement device 11 connected via a network 901.

人物情報収集装置10a〜10cは、広告設置領域を通過する人物の人物情報2を収集し、収集した人物情報2をネットワーク901を介して広告効果測定装置11に送信するものである。   The person information collection devices 10 a to 10 c collect the person information 2 of the person passing through the advertisement installation area, and transmit the collected person information 2 to the advertisement effect measurement apparatus 11 via the network 901.

広告効果測定装置11は、人物情報収集装置10a〜10cから送信される人物情報2を受信して記憶するものである。そして、広告効果測定装置11は、記憶した人物情報2から顧客に該当する人物情報2を選択して顧客情報を生成し、生成した顧客情報を分析し、広告効果情報を生成する。   The advertisement effect measuring apparatus 11 receives and stores the person information 2 transmitted from the person information collecting apparatuses 10a to 10c. Then, the advertisement effect measuring apparatus 11 selects the person information 2 corresponding to the customer from the stored person information 2, generates customer information, analyzes the generated customer information, and generates advertisement effect information.

<人物情報収集装置の構成>
次に、広告効果測定システム9における人物情報収集装置10aの構成について説明する。なお、広告効果測定システム9における人物情報収集装置10b及び10cの構成は、人物情報収集装置10aの構成と同一であるので、説明を省略する。
<Configuration of person information collection device>
Next, the configuration of the person information collection device 10a in the advertisement effect measurement system 9 will be described. In addition, since the structure of the person information collection apparatuses 10b and 10c in the advertisement effect measurement system 9 is the same as the structure of the person information collection apparatus 10a, description is abbreviate | omitted.

図10は、本発明の実施例3である広告効果測定システム9における人物情報収集装置10aの構成例を示した図である。   FIG. 10 is a diagram illustrating a configuration example of the person information collection device 10a in the advertisement effect measurement system 9 which is Embodiment 3 of the present invention.

図10において、人物情報収集装置10aは、カメラ101と、顔検出部102と、顔特徴量抽出部103と、視線検出部104と、属性推定部105と、人物情報収集部1006と、人物情報送信部1013とを有している。   In FIG. 10, a person information collection device 10a includes a camera 101, a face detection unit 102, a face feature amount extraction unit 103, a line-of-sight detection unit 104, an attribute estimation unit 105, a person information collection unit 1006, and person information. And a transmission unit 1013.

ここで、本実施例の人物情報収集装置10aに備えられた構成のうち、カメラ101と、顔検出部102と、顔特徴量抽出部103と、視線検出部104と、属性推定部105とは、それぞれ本発明の実施例1である広告効果測定装置1に備えられた同一符号が付された構成と同一であるので、説明を省略する。   Here, among the configurations provided in the person information collecting apparatus 10a of the present embodiment, the camera 101, the face detection unit 102, the face feature amount extraction unit 103, the line-of-sight detection unit 104, and the attribute estimation unit 105 are as follows. These are the same as the configurations with the same reference numerals provided in the advertisement effect measuring apparatus 1 according to the first embodiment of the present invention, and the description thereof will be omitted.

人物情報収集部1006は、生成した人物情報2を人物情報送信部1013に供給する点を除き、本発明の実施例1である広告効果測定装置1に備えられた人物情報収集部106と同一である。   The person information collecting unit 1006 is the same as the person information collecting unit 106 provided in the advertisement effect measuring apparatus 1 according to the first embodiment of the present invention, except that the generated person information 2 is supplied to the person information transmitting unit 1013. is there.

人物情報送信部1013は、ネットワーク901を介して広告効果測定装置10に接続し、通信を行うものである。そして、人物情報送信部1013は、人物情報収集部1006から人物情報2が供給されると、供給された人物情報2をネットワーク901を介して広告効果測定装置10に送信する。   The person information transmitting unit 1013 is connected to the advertisement effect measuring apparatus 10 via the network 901 and performs communication. When the person information 2 is supplied from the person information collection unit 1006, the person information transmission unit 1013 transmits the supplied person information 2 to the advertisement effect measurement apparatus 10 via the network 901.

<広告効果測定装置の構成>
次に、広告効果測定システム9における広告効果測定装置10の構成について説明する。
<Configuration of advertising effect measurement device>
Next, the configuration of the advertisement effect measuring device 10 in the advertisement effect measuring system 9 will be described.

図11は、本発明の実施例3である広告効果測定システム9における広告効果測定装置11の構成例を示した図である。   FIG. 11 is a diagram illustrating a configuration example of the advertisement effect measuring device 11 in the advertisement effect measuring system 9 that is Embodiment 3 of the present invention.

図11において、広告効果測定装置11は、人物情報記憶部1107と、同一人物特定部1115と、時刻分析部1108と、時間情報評価部1109と、広告効果分析部1110と、広告効果情報記憶部111と、広告効果情報送信部112と、人物情報受信部1114とを有している。   In FIG. 11, the advertisement effect measuring apparatus 11 includes a person information storage unit 1107, a same person specifying unit 1115, a time analysis unit 1108, a time information evaluation unit 1109, an advertisement effect analysis unit 1110, and an advertisement effect information storage unit. 111, an advertisement effect information transmission unit 112, and a person information reception unit 1114.

ここで、本実施例の広告効果測定装置11に備えられた構成のうち、広告効果情報記憶部111と、広告効果情報送信部112とは、それぞれ本発明の実施例1である広告効果測定装置1に備えられた同一符号が付された構成と同一であるので、説明を省略する。   Here, among the configurations provided in the advertisement effect measurement device 11 of the present embodiment, the advertisement effect information storage unit 111 and the advertisement effect information transmission unit 112 are respectively the advertisement effect measurement device according to the first embodiment of the present invention. Since the configuration is the same as that of FIG.

人物情報記憶部1107は、記憶する人物情報12の内容が異なる点を除き、本発明の実施例1である広告効果測定装置1に備えられた人物情報記憶部107と同一である。   The person information storage unit 1107 is the same as the person information storage unit 107 provided in the advertising effect measurement apparatus 1 according to the first embodiment of the present invention, except that the content of the stored person information 12 is different.

図12は、本発明の実施例3の広告効果測定装置11における人物情報記憶部1107に記憶される人物情報12の構成例を示した図である。   FIG. 12 is a diagram illustrating a configuration example of the person information 12 stored in the person information storage unit 1107 in the advertisement effect measuring apparatus 11 according to the third embodiment of the present invention.

図12において、実施例3の人物情報12は、収集装置ID1206と、時刻201と、顔特徴量202と、視線角度203と、属性204とを関連付けたものである。これらの情報のうち、時刻201と、顔特徴量202と、視線角度203と、属性204とは、本発明の実施例1である広告効果測定装置1に備えられた人物情報記憶部107に記憶された人物情報2(図2参照。)における同一符号が付された情報と同一である。そして、収集装置ID1206は、人物情報収集装置10b及び10cを一意に識別する番号である。   In FIG. 12, the person information 12 of the third embodiment is obtained by associating the collection device ID 1206, the time 201, the face feature amount 202, the line-of-sight angle 203, and the attribute 204. Among these pieces of information, the time 201, the face feature amount 202, the line-of-sight angle 203, and the attribute 204 are stored in the person information storage unit 107 provided in the advertising effect measurement device 1 that is Embodiment 1 of the present invention. The information is the same as the information given the same reference numerals in the person information 2 (see FIG. 2). The collection device ID 1206 is a number that uniquely identifies the person information collection devices 10b and 10c.

図11に戻り、同一人物特定部1115は、人物情報記憶部1107から読み出す人物情報2に収集装置ID1206が含まれる点を除き、本発明の実施例1である広告効果測定装置1に備えられた同一人物特定部115と同一である。   Returning to FIG. 11, the same person identifying unit 1115 is provided in the advertising effectiveness measuring device 1 that is Embodiment 1 of the present invention, except that the collection device ID 1206 is included in the person information 2 read from the person information storage unit 1107. The same as the same person specifying unit 115.

時刻分析部1108は、同一人物特定部1115から供給される人物情報2に収集装置ID1206が含まれる点を除き、本発明の実施例1である広告効果測定装置1に備えられた時刻分析部108と同一である。   The time analysis unit 1108 is the time analysis unit 108 provided in the advertising effect measurement device 1 according to the first embodiment of the present invention, except that the collection device ID 1206 is included in the person information 2 supplied from the same person specifying unit 1115. Is the same.

時間情報評価部1109は、時刻分析部1108から供給される人物情報2に収集装置ID1206が含まれる点と、生成する顧客情報13の内容が異なる点を除き、本発明の実施例1、または実施例2である広告効果測定装置1に備えられた時間情報評価部109と同一である。   The time information evaluation unit 1109 is the first example or implementation of the present invention except that the personal information 2 supplied from the time analysis unit 1108 includes the collection device ID 1206 and the content of the customer information 13 to be generated is different. This is the same as the time information evaluation unit 109 provided in the advertisement effect measuring apparatus 1 which is Example 2.

図13は、本発明の実施例3の広告効果測定装置11における時間情報評価部1109が生成する顧客情報13の構成例を示した図である。顧客情報13は、収集装置ID1206と、顧客ID305と、時刻201と、視線角度203と、属性204とが関連付けられたものである。これらの構成のうち、顧客ID305と、時刻201と、視線角度203と、属性204とは、本発明の実施例1である広告効果測定装置1に備えられた時間情報評価部109が生成する顧客情報3(図3参照。)における同一符号が付された構成と同一である。そして、収集装置ID1206は、図12の人物情報212における同一符号が付された構成と同一である。   FIG. 13 is a diagram illustrating a configuration example of the customer information 13 generated by the time information evaluation unit 1109 in the advertisement effect measuring apparatus 11 according to the third embodiment of the present invention. The customer information 13 is obtained by associating a collection device ID 1206, a customer ID 305, a time 201, a line-of-sight angle 203, and an attribute 204. Among these configurations, the customer ID 305, the time 201, the line-of-sight angle 203, and the attribute 204 are the customers generated by the time information evaluation unit 109 provided in the advertisement effect measuring apparatus 1 according to the first embodiment of the present invention. It is the same as the structure to which the same code | symbol in the information 3 (refer FIG. 3) was attached | subjected. The collection device ID 1206 is the same as the configuration with the same reference numerals in the person information 212 of FIG.

図11に戻り、広告効果分析部1110は、時間情報評価部1109から供給される顧客情報13に収集装置ID1206が含まれる異なる点を除き、本発明の実施例1である広告効果測定装置1に備えられた広告効果分析部110と同一である。なお、分析する顧客情報13に収集装置ID1206が含まれるが、全ての顧客情報13をまとめて分析して広告効果情報を生成するようにしてもよいし、人物情報収集装置10a〜10c毎に顧客情報13を分析して広告効果情報を生成するようにしてもよい。   Returning to FIG. 11, the advertising effect analysis unit 1110 includes the advertising information measuring device 1 according to the first embodiment of the present invention, except that the collection information ID 1206 is included in the customer information 13 supplied from the time information evaluation unit 1109. This is the same as the advertisement effect analysis unit 110 provided. Although the collection device ID 1206 is included in the customer information 13 to be analyzed, the advertisement effect information may be generated by analyzing all the customer information 13 collectively, or for each person information collection device 10a to 10c. Information 13 may be analyzed to generate advertisement effect information.

人物情報受信部1114は、ネットワーク901を介して人物情報収集装置10a〜10cと接続し、通信を行うものである。そして、人物情報受信部1114は、人物情報収集装置10a〜10cから送信される人物情報2をネットワーク901を介して受信し、収集装置ID1206を付加して人物情報記憶部1107に記憶させる。   The person information receiving unit 1114 is connected to and communicates with the person information collecting apparatuses 10a to 10c via the network 901. Then, the person information receiving unit 1114 receives the person information 2 transmitted from the person information collecting devices 10a to 10c via the network 901, adds the collecting device ID 1206, and stores it in the person information storage unit 1107.

従って、実施例3の広告効果測定システム9によっても、実施例1,2の広告効果測定装置1と同様に、従業員等を除外して、本来の顧客のみで広告効果を測定することができ、広告効果測定の精度を高めることが可能となる。   Therefore, the advertising effectiveness measuring system 9 of the third embodiment can also measure the advertising effectiveness only with the original customer, excluding employees, etc., as in the advertising effectiveness measuring device 1 of the first and second embodiments. It becomes possible to improve the accuracy of the advertisement effect measurement.

なお、本発明の実施例3の広告効果測定装置11は、人物情報記憶部1107と、広告効果情報記憶部111とを別々の記憶装置として構成しているが、各々の記憶部を部分的に共用したり、全ての記憶部を1つの記憶装置で共用したりする構成としてもよい。   In the advertisement effect measuring apparatus 11 according to the third embodiment of the present invention, the person information storage unit 1107 and the advertisement effect information storage unit 111 are configured as separate storage devices. It is good also as a structure shared, or sharing all the memory | storage parts with one memory | storage device.

また、上述した本発明の実施例3の人物情報収集装置10aは、コンピュータ装置にインストールした人物情報収集プログラムを実行させることにより実現することもできる。この人物情報収集プログラムは、例えば、人物情報収集プログラムが記憶された記録媒体から読み出され、CPUで実行されることにより人物情報収集装置10aを構成するようにしてもよいし、通信ネットワークを介して伝送されてインストールされ、CPUで実行されることにより人物情報収集装置10aを構成するようにしてもよい。   The above-described personal information collection device 10a according to the third embodiment of the present invention can also be realized by executing a personal information collection program installed in a computer device. For example, the personal information collection program may be read from a recording medium in which the personal information collection program is stored and executed by the CPU to constitute the personal information collection device 10a, or via a communication network. The person information collecting apparatus 10a may be configured by being transmitted, installed, and executed by the CPU.

また、上述した本発明の実施例3の広告効果測定装置11は、コンピュータ装置にインストールした広告効果測定プログラムを実行させることにより実現することもできる。この広告効果測定プログラムは、例えば、広告効果測定プログラムが記憶された記録媒体から読み出され、CPUで実行されることにより広告効果測定装置11を構成するようにしてもよいし、通信ネットワークを介して伝送されてインストールされ、CPUで実行されることにより広告効果測定装置11を構成するようにしてもよい。   In addition, the above-described advertisement effect measuring apparatus 11 according to the third embodiment of the present invention can be realized by executing an advertisement effect measuring program installed in a computer device. This advertisement effect measurement program may be configured to configure the advertisement effect measurement device 11 by being read from a recording medium storing the advertisement effect measurement program and executed by the CPU, or via a communication network. The advertisement effect measuring apparatus 11 may be configured by being transmitted, installed, and executed by the CPU.

1 広告効果測定装置
101 カメラ
102 顔検出部
103 顔特徴量抽出部
104 視線検出部
105 属性推定部
106 人物情報収集部
107 人物情報記憶部
108 時刻分析部
108a 出現頻度計算部
108b 出現日率計算部
108c 出現時刻分散計算部
109 時間情報評価部
110 広告効果分析部
111 広告効果情報記憶部
112 広告効果情報送信部
115 同一人物特定部
2 人物情報
201 時刻
202 顔特徴量
203 視線角度
204 属性
204a 年齢
204b 性別
3 顧客情報
305 顧客ID
9 広告効果測定システム
901 ネットワーク
10a〜10c 人物情報収集装置
1006 人物情報収集部
1013 人物情報送信部
11 広告効果測定装置
1107 人物情報記憶部
1108 時刻分析部
1109 時間情報評価部
1110 広告効果分析部
1114 人物情報受信部
1115 同一人物特定部
12 人物情報
1206 収集装置ID
13 顧客情報
DESCRIPTION OF SYMBOLS 1 Advertisement effect measuring apparatus 101 Camera 102 Face detection part 103 Face feature-value extraction part 104 Eye-gaze detection part 105 Attribute estimation part 106 Person information collection part 107 Person information storage part 108 Time analysis part 108a Appearance frequency calculation part 108b Appearance day rate calculation part 108c Appearance time distribution calculation unit 109 Time information evaluation unit 110 Advertisement effect analysis unit 111 Advertisement effect information storage unit 112 Advertisement effect information transmission unit 115 Same person identification unit 2 Person information 201 Time 202 Face feature amount 203 Gaze angle 204 Attribute 204a Age 204b Gender 3 Customer information 305 Customer ID
DESCRIPTION OF SYMBOLS 9 Advertisement effect measurement system 901 Network 10a-10c Person information collection apparatus 1006 Person information collection part 1013 Person information transmission part 11 Advertisement effect measurement apparatus 1107 Person information storage part 1108 Time analysis part 1109 Time information evaluation part 1110 Advertisement effect analysis part 1114 Person Information receiving unit 1115 Same person specifying unit 12 Person information 1206 Collection device ID
13 Customer information

Claims (3)

人物の顔特徴量を抽出する顔特徴量抽出部と、
前記顔特徴量から同一人物を特定し、その人物の人物情報を出力する同一人物特定部と、
前記同一人物特定部からの前記人物情報に含まれる出現時刻に関する時間情報を生成する時刻分析部と、
前記時刻分析部からの前記時間情報を評価し、その評価に基づいて顧客とする前記人物を選択した顧客情報を生成する時間情報評価部と、
前記時間情報評価部からの前記顧客情報を分析し、広告効果情報を生成する広告効果分析部と、
を備える広告効果測定装置。
A face feature amount extracting unit for extracting a person's face feature amount;
An identical person identifying unit that identifies the same person from the facial feature amount and outputs personal information of the person;
A time analysis unit that generates time information related to an appearance time included in the person information from the same person specifying unit;
A time information evaluation unit that evaluates the time information from the time analysis unit and generates customer information that selects the person as a customer based on the evaluation; and
Analyzing the customer information from the time information evaluation unit, and generating an advertising effect information; and
An advertisement effect measuring device comprising:
前記時刻分析部は、
前記人物情報から前記人物の出現頻度を計算する出現頻度計算部と、
前記人物情報から前記人物の出現日率を計算する出現日率計算部と、
前記人物情報から前記人物の出現時刻分散を計算する出現時刻分散計算部と、
のうちの少なくとも一つを備えることを特徴とする請求項1記載の広告効果測定装置。
The time analysis unit
An appearance frequency calculation unit for calculating the appearance frequency of the person from the person information;
An appearance date rate calculating unit for calculating an appearance date rate of the person from the person information;
An appearance time distribution calculating unit for calculating the appearance time distribution of the person from the person information;
The advertisement effect measuring device according to claim 1, comprising at least one of the following.
人物の顔特徴量を含む人物情報を送信する人物情報収集装置と、
前記人物情報収集装置から送信される前記人物情報を受信する広告効果測定装置と、
がネットワークを介して接続される広告効果測定システムであって、
前記広告効果測定装置は、
前記顔特徴量から同一人物を特定し、その人物の人物情報を出力する同一人物特定部と、
前記同一人物特定部からの前記人物情報に含まれる出現時刻に関する時間情報を生成する時刻分析部と、
前記時刻分析部からの前記時間情報を評価し、その評価に基づいて顧客とする前記人物を選択した顧客情報を生成する時間情報評価部と、
前記時間情報評価部からの前記顧客情報を分析し、広告効果情報を生成する広告効果分析部と、
を備えることを特徴とする広告効果測定システム。
A person information collecting device for transmitting person information including the face feature amount of the person;
An advertisement effect measuring device for receiving the person information transmitted from the person information collecting device;
Is an advertising effectiveness measurement system connected via a network,
The advertisement effect measuring device includes:
An identical person identifying unit that identifies the same person from the facial feature amount and outputs personal information of the person;
A time analysis unit that generates time information related to an appearance time included in the person information from the same person specifying unit;
A time information evaluation unit that evaluates the time information from the time analysis unit and generates customer information that selects the person as a customer based on the evaluation; and
Analyzing the customer information from the time information evaluation unit, and generating an advertising effect information; and
An advertising effectiveness measurement system comprising:
JP2010264871A 2010-11-29 2010-11-29 Advertisement effect measurement device and advertisement effect measurement system Pending JP2012118581A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010264871A JP2012118581A (en) 2010-11-29 2010-11-29 Advertisement effect measurement device and advertisement effect measurement system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010264871A JP2012118581A (en) 2010-11-29 2010-11-29 Advertisement effect measurement device and advertisement effect measurement system

Publications (1)

Publication Number Publication Date
JP2012118581A true JP2012118581A (en) 2012-06-21

Family

ID=46501370

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010264871A Pending JP2012118581A (en) 2010-11-29 2010-11-29 Advertisement effect measurement device and advertisement effect measurement system

Country Status (1)

Country Link
JP (1) JP2012118581A (en)

Similar Documents

Publication Publication Date Title
US10846537B2 (en) Information processing device, determination device, notification system, information transmission method, and program
JP5603403B2 (en) Object counting method, object counting apparatus, and object counting program
JP7448065B2 (en) Store equipment, store systems, store management methods, programs
WO2015029801A1 (en) Information processing device, information processing method, and information processing system
JP2021140830A (en) Store device, store management method, and program
US9727791B2 (en) Person detection system, method, and non-transitory computer readable medium
US10592731B2 (en) Facial recognition system, facial recognition server, and facial recognition method
JP2008112401A (en) Advertisement effect measurement apparatus
JP2015215787A (en) Information processing device, waiting time estimation system, information processing method and program
JP5780348B1 (en) Information presentation program and information processing apparatus
US20210081649A1 (en) Face authentication apparatus
JP7299692B2 (en) Image processing device, image processing system, image processing device control method, and program
JP2010108257A (en) Apparatus, method and program for measuring degree of attention of media information and recording medium with the program recorded thereon
JP2020091595A (en) Information processing system, method for managing authentication object, and program
JP2010211485A (en) Gaze degree measurement device, gaze degree measurement method, gaze degree measurement program and recording medium with the same program recorded
JP5385845B2 (en) Content attention level calculation device, content attention level calculation method, and content attention level calculation program
JP6516702B2 (en) People count system, number count method, and view method of number count result
CN108334820B (en) Information processing apparatus, information processing method, and storage medium
US20190122228A1 (en) Examination device
JP6399096B2 (en) Information processing apparatus, display method, and computer program
JP2017017488A (en) Monitoring system, imaging control method, and program
JP2012118581A (en) Advertisement effect measurement device and advertisement effect measurement system
JP6734487B2 (en) Regional smile level display system, regional smile level display method and program
JP6815667B1 (en) Information processing equipment, information processing methods, programs and camera systems
JP2012173903A (en) Rack monitoring device