JP2023148447A - Advertising effectiveness estimation server, advertising effectiveness estimation method, and advertising effectiveness estimation program - Google Patents

Advertising effectiveness estimation server, advertising effectiveness estimation method, and advertising effectiveness estimation program Download PDF

Info

Publication number
JP2023148447A
JP2023148447A JP2022056467A JP2022056467A JP2023148447A JP 2023148447 A JP2023148447 A JP 2023148447A JP 2022056467 A JP2022056467 A JP 2022056467A JP 2022056467 A JP2022056467 A JP 2022056467A JP 2023148447 A JP2023148447 A JP 2023148447A
Authority
JP
Japan
Prior art keywords
advertising
estimation
expanded
information
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022056467A
Other languages
Japanese (ja)
Inventor
康充 高井
Yasumitsu Takai
敬士 田島
Takashi Tajima
佳紀 稲田
Yoshiki Inada
光彦 金森
Mitsuhiko Kanamori
武雲 大西
Mukumo Onishi
優太 黒沢
Yuta Kurosawa
貴光 齋藤
Takamitsu Saito
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2022056467A priority Critical patent/JP2023148447A/en
Publication of JP2023148447A publication Critical patent/JP2023148447A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To more accurately estimate advertising effectiveness of advertisements outside a sensing range of a camera.SOLUTION: An advertising effectiveness estimation server includes: an acquisition unit that acquires a captured video captured by at least one camera capturing a capturing area including at least a part of a viewing area where advertising media can be viewed and first detection information regarding a person detected from the captured video; a model creation unit that creates an expanded estimation model that estimates advertising effectiveness of the advertising media in the viewing area based on the first detection information and second detection information regarding a person in the viewing area; and an advertising effectiveness estimation unit that estimates and outputs the advertising effectiveness using the expanded estimation model and the first detection information.SELECTED DRAWING: Figure 1

Description

本開示は、広告効果推計サーバ、広告効果推計方法および広告効果推計プログラムに関する。 The present disclosure relates to an advertising effectiveness estimation server, an advertising effectiveness estimation method, and an advertising effectiveness estimation program.

特許文献1には、視聴情報を生成するシステムが開示されている。システムは、第1広告に基づく1又は複数の第1画像に係る第1視聴情報と、属性情報に基づいて選択された第2広告に基づく1又は複数の第2画像に係る第2視聴情報と、を生成する。第1の画像は、第1広告により影響を受ける可能性のある位置にいる1又は複数の人を撮像した撮像画像である。第2の画像は、第2広告により影響を受ける可能性のある位置にいる1又は複数の人を撮像した撮像画像である。視聴情報は、各広告影響位置にいる人のうち、特定の1又は複数の属性情報を有する人々の情報を含んで生成される。 Patent Document 1 discloses a system that generates viewing information. The system includes first viewing information regarding one or more first images based on the first advertisement, and second viewing information regarding one or more second images based on the second advertisement selected based on the attribute information. , generates. The first image is a captured image of one or more people in a position that may be affected by the first advertisement. The second image is a captured image of one or more people in a position that may be affected by the second advertisement. Viewing information is generated including information on people who have one or more specific attribute information among the people at each advertising influence position.

特開2020-144895号公報Japanese Patent Application Publication No. 2020-144895

本開示は、上述した従来の事情に鑑みて案出され、カメラの検知範囲外における広告の広告効果をより高精度に推計する広告効果推計サーバ、広告効果推計方法および広告効果推計プログラムを提供することを目的とする。 The present disclosure has been devised in view of the conventional circumstances described above, and provides an advertising effectiveness estimation server, an advertising effectiveness estimation method, and an advertising effectiveness estimation program that more accurately estimate the advertising effectiveness of advertisements outside the detection range of a camera. The purpose is to

本開示は、広告媒体を視聴可能な視聴エリアの少なくとも一部を含む撮像エリアを撮像する少なくとも1つのカメラにより撮像された撮像映像と、前記撮像映像から検出された人物に関する第1の検出情報とを取得する取得部と、前記第1の検出情報と前記視聴エリアの人物に関する第2の検出情報とに基づいて、前記視聴エリアにおける前記広告媒体の広告効果を推計する拡大推計モデルを作成するモデル作成部と、前記拡大推計モデルと前記第1の検出情報とを用いて、前記広告効果を推計して出力する広告効果推計部と、を備える、広告効果推計サーバを提供する。 The present disclosure includes a captured video captured by at least one camera that captures an imaging area including at least a part of a viewing area where an advertising medium can be viewed, and first detection information regarding a person detected from the captured video. and a model that creates an expanded estimation model that estimates advertising effectiveness of the advertising medium in the viewing area based on the first detection information and second detection information regarding the person in the viewing area. An advertising effectiveness estimation server is provided, comprising: a creation unit; and an advertising effectiveness estimation unit that estimates and outputs the advertising effectiveness using the expanded estimation model and the first detection information.

また、本開示は、広告媒体を視聴可能な視聴エリアの少なくとも一部を含む撮像エリアを撮像する少なくとも1つのカメラとの間で通信可能な1以上のコンピュータが実行する広告効果推計方法であって、前記カメラにより撮像された撮像映像と、前記撮像映像から検出された人物に関する第1の検出情報とを取得し、前記第1の検出情報と前記視聴エリアの人物に関する第2の検出情報とに基づいて、前記視聴エリアにおける前記広告媒体の広告効果を推計する拡大推計モデルを作成し、作成された前記拡大推計モデルと前記第1の検出情報とを用いて、前記広告効果を推計して出力する、広告効果推計方法を提供する。 The present disclosure also provides an advertising effectiveness estimation method executed by one or more computers capable of communicating with at least one camera that captures an imaging area that includes at least a portion of a viewing area where advertising media can be viewed. , acquiring a captured video captured by the camera and first detection information regarding a person detected from the captured video, and combining the first detection information and second detection information regarding the person in the viewing area. an expanded estimation model for estimating the advertising effectiveness of the advertising medium in the viewing area based on the above information, and uses the created expanded estimation model and the first detection information to estimate and output the advertising effectiveness. We provide a method for estimating advertising effectiveness.

また、本開示は、広告媒体を視聴可能な視聴エリアの少なくとも一部を含む撮像エリアを撮像する少なくとも1つのカメラとの間で通信可能な1以上のコンピュータにより実行される広告効果推計プログラムであって、前記カメラにより撮像された撮像映像と、前記撮像映像から検出された人物に関する第1の検出情報とを取得するステップと、前記第1の検出情報と前記視聴エリアの人物に関する第2の検出情報とに基づいて、前記視聴エリアにおける前記広告媒体の広告効果を推計する拡大推計モデルを作成するステップと、作成された前記拡大推計モデルと前記第1の検出情報とを用いて、前記広告効果を推計して出力するステップと、を実現させるための、広告効果推計プログラムを提供する。 The present disclosure also provides an advertising effectiveness estimation program executed by one or more computers capable of communicating with at least one camera that captures an imaging area that includes at least a portion of a viewing area where advertising media can be viewed. the step of acquiring a captured video captured by the camera and first detection information regarding a person detected from the captured video; and second detection regarding the first detection information and a person in the viewing area. creating an expanded estimation model for estimating the advertising effectiveness of the advertising medium in the viewing area based on the information; and using the created expanded estimation model and the first detection information to estimate the advertising effectiveness. To provide an advertising effectiveness estimation program for realizing the steps of estimating and outputting.

本開示によれば、カメラの検知範囲外における広告の広告効果をより高精度に推計できる。 According to the present disclosure, it is possible to estimate the advertising effect of an advertisement outside the detection range of the camera with higher accuracy.

実施の形態1に係る広告効果推計システムの全体構成例を示すブロック図A block diagram showing an example of the overall configuration of an advertising effectiveness estimation system according to Embodiment 1. 視認者の定義例を説明する図Diagram explaining an example of defining a viewer カメラが広告媒体近傍に配置される場合の第1の検出エリアおよび第2の検出エリアを説明する図A diagram illustrating the first detection area and the second detection area when the camera is placed near the advertising medium. カメラが広告媒体近傍に配置されない場合の第1の検出エリアおよび第2の検出エリアを説明する図A diagram illustrating the first detection area and the second detection area when the camera is not placed near the advertising medium. 実施の形態1に係るサーバの制御部の機能構成例を説明するブロック図A block diagram illustrating an example of a functional configuration of a control unit of a server according to Embodiment 1. 実施の形態1に係る広告効果推計システムの動作手順例を示すフローチャートFlowchart showing an example of the operation procedure of the advertising effectiveness estimation system according to Embodiment 1 実施の形態1に係る広告効果推計システムの拡大推計モデル作成手順例を示すフローチャートFlowchart showing an example of the procedure for creating an expanded estimation model of the advertising effectiveness estimation system according to the first embodiment 広告効果の実測値と推測値とを比較する推計結果画面の一例を説明する図Diagram illustrating an example of an estimation result screen that compares the actual value and estimated value of advertising effectiveness 広告効果の属性別推計結果画面の一例を説明する図Diagram illustrating an example of an attribute-based estimation result screen for advertising effectiveness 広告効果の駅・曜日別推計結果画面の一例を説明する図Diagram illustrating an example of the advertising effect estimation result screen by station and day of the week

以下、適宜図面を参照しながら、本開示に係る広告効果推計サーバ、広告効果推計方法および広告効果推計プログラムの構成および作用を具体的に開示した各実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるものであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 EMBODIMENT OF THE INVENTION Hereinafter, each embodiment which specifically disclosed the structure and operation of the advertising effectiveness estimation server, the advertising effectiveness estimation method, and the advertising effectiveness estimation program according to this disclosure will be described in detail with reference to the drawings as appropriate. However, more detailed explanation than necessary may be omitted. For example, detailed explanations of well-known matters or redundant explanations of substantially the same configurations may be omitted. This is to avoid unnecessary redundancy in the following description and to facilitate understanding by those skilled in the art. The accompanying drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter recited in the claims.

(実施の形態1)
まず、図1を参照して、実施の形態1に係る広告効果推計システム100の全体構成について説明する。図1は、実施の形態1に係る広告効果推計システム100の全体構成例を示すブロック図である。
(Embodiment 1)
First, with reference to FIG. 1, the overall configuration of an advertising effectiveness estimation system 100 according to Embodiment 1 will be described. FIG. 1 is a block diagram showing an example of the overall configuration of an advertising effectiveness estimation system 100 according to the first embodiment.

広告効果推計システム100は、所定の場所に設置された広告媒体に対する広告効果として、設置された少なくとも1つの広告媒体に接触した人数(以降、「広告接触可能者数」と表記)、広告媒体を視認した人数(以降、「広告視認者数」と表記)、あるいは広告媒体を注視した人数(以降、「広告注視者数」と表記)、広告媒体を注視した時間(以降、「広告注視時間」と表記)等を推計可能なシステムである。 The advertising effectiveness estimation system 100 calculates the advertising effectiveness of advertising media installed at a predetermined location by calculating the number of people who came into contact with at least one installed advertising medium (hereinafter referred to as the "number of people who can contact the advertisement"), The number of people who viewed the advertisement (hereinafter referred to as "number of advertisement viewers"), the number of people who watched the advertising medium (hereinafter referred to as "number of advertisement viewers"), the time spent gazing at the advertising medium (hereinafter referred to as "ad viewing time") This is a system that can estimate the following:

なお、上述した広告接触可能者数、広告視認者数、広告注視者数、あるいは広告注視時間等の推計対象は、一例であり、これに限定されない。推計対象は、広告効果を示すものであって、ユーザにより任意に定義,設定されてよい。さらに、推計対象は、広告効果を推計するための指標,要素として用いられてもよい。つまり、広告効果推計システム100は、2以上の推計対象の推計結果を用いて、所定の広告効果(例えば、広告接触可能者数を広告視認者数で除算して得られる視認率等)を推計してもよい。 Note that the above-mentioned estimation targets such as the number of people who can contact the advertisement, the number of people who view the advertisement, the number of people who gaze at the advertisement, or the advertisement gaze time are merely examples, and are not limited thereto. The estimation target indicates advertising effectiveness and may be arbitrarily defined and set by the user. Furthermore, the estimation target may be used as an index or element for estimating advertising effectiveness. In other words, the advertising effectiveness estimation system 100 estimates a predetermined advertising effectiveness (for example, the visibility rate obtained by dividing the number of people who can contact the advertisement by the number of people who view the advertisement) using the estimation results of two or more estimation targets. You may.

広告効果推計システム100は、1以上のカメラによって、広告媒体に接触可能、あるいは広告媒体を視認可能な少なくとも一部の範囲(例えば、図3および図4に示す第1の検出エリアAR11,AR21)を撮像し、撮像された撮像画像(撮像映像)に映る人物の人物情報や人数に基づいて、少なくとも1つの広告媒体に対する広告接触可能者数、広告視認者数、あるいは広告注視者数等を推計可能な拡大推計モデルを作成する。このとき、撮影画像(撮像映像)に映る人物の人物情報や人数は、作業者による目視での計測によって生成される。ここでは、撮像画像(撮像映像)から人物の人物情報や人数を生成しているが、撮像画像(撮像映像)に限定されるものではなく、現地にて広告媒体に接触可能、あるいは広告媒体を視認可能な範囲にいる人物を目視で計測してもよい。また、学習は、人物情報は必須ではないが、性別や年齢といった人物情報を利用することで、人数だけでなく人物の特徴の傾向も推定することができる。広告効果推計システム100は、作成された拡大推計モデルを用いて広告媒体ごとの広告効果を推測(推計)し、推計された広告効果(推計結果)を出力する。 The advertising effectiveness estimation system 100 uses one or more cameras to detect at least a part of the range where the advertising medium can be contacted or viewed (for example, first detection areas AR11 and AR21 shown in FIGS. 3 and 4). and estimate the number of people who can contact the advertisement, the number of people who view the advertisement, the number of people who look at the advertisement, etc. for at least one advertising medium based on the person information and number of people appearing in the captured image (captured video). Create a possible expanded estimation model. At this time, the person information and the number of people appearing in the captured image (captured video) are generated by visual measurement by the operator. Here, personal information and the number of people are generated from captured images (captured videos), but this is not limited to captured images (captured videos), and it is possible to contact advertising media at the site or use advertising media. A person within a visible range may be visually measured. Further, although human information is not essential for learning, by using human information such as gender and age, it is possible to estimate not only the number of people but also trends in the characteristics of the people. The advertising effectiveness estimation system 100 estimates (estimates) advertising effectiveness for each advertising medium using the created expanded estimation model, and outputs the estimated advertising effectiveness (estimation result).

広告効果推計システム100は、1以上のカメラC1,…と、端末装置P1と、ネットワークNWと、サーバS1と、表示装置MNとを含んで構成される。なお、端末装置P1により実現される機能がカメラC1,…により実現可能である場合には、端末装置P1は省略されてよい。あるいは、端末装置P1により実現される機能は、サーバS1に集約されてもよい。 The advertising effectiveness estimation system 100 includes one or more cameras C1, . . . , a terminal device P1, a network NW, a server S1, and a display device MN. Note that if the functions realized by the terminal device P1 can be realized by the cameras C1, . . . , the terminal device P1 may be omitted. Alternatively, the functions realized by the terminal device P1 may be integrated into the server S1.

1以上のカメラC1,…のそれぞれは、少なくとも1つの広告媒体に接触可能、あるいは広告媒体を視認可能な範囲(例えば、図3および図4に示す第2の検出エリア)の少なくとも一部を撮像可能な位置に設置され、いずれかの広告媒体の視認範囲の少なくとも一部を含む撮像範囲(例えば、図3および図4に示す第1の検出エリア)を撮像する。カメラC1,…のそれぞれは、少なくともレンズ(不図示)とイメージセンサ(不図示)とを有して構成される。カメラC1,…のそれぞれは、例えば、広角レンズ,魚眼レンズ等の広範囲を撮像可能にするレンズが使用されてよい。イメージセンサは、例えばCCD(Charged-Coupled Device)あるいはCMOS(Complementary Metal-Oxide-Semiconductor)等の固体撮像素子であり、撮像面に結像した光学像を電気信号に変換する。カメラC1,…のそれぞれは、撮像された撮像画像(撮像映像)を端末装置P1、あるいはサーバS1に送信する。なお、カメラC1,…によって撮像された撮像画像(撮像映像)は、後述するようにネットワークNWを介して、サーバS1に送信されるが、ローカルでつながれた端末装置や外付けHDD(Hard Disk Drive)等に保存され、必要なタイミングで別の端末装置やPCからネットワークNWを介して端末装置P1に送信されてもよい。 Each of the one or more cameras C1,... captures an image of at least a portion of a range where at least one advertising medium can be contacted or visible (for example, the second detection area shown in FIGS. 3 and 4). is installed at a possible position, and images an imaging range (for example, the first detection area shown in FIGS. 3 and 4) that includes at least a part of the visible range of any advertising medium. Each of the cameras C1, . . . includes at least a lens (not shown) and an image sensor (not shown). Each of the cameras C1, . . . may use a lens capable of capturing a wide range of images, such as a wide-angle lens or a fisheye lens. The image sensor is a solid-state imaging device such as a CCD (Charged-Coupled Device) or a CMOS (Complementary Metal-Oxide-Semiconductor), and converts an optical image formed on an imaging surface into an electrical signal. Each of the cameras C1, . . . transmits a captured image (captured video) to the terminal device P1 or the server S1. The captured images (captured videos) captured by the cameras C1, . ), etc., and may be transmitted from another terminal device or PC to the terminal device P1 via the network NW at a necessary timing.

端末装置P1は、カメラC1,…のそれぞれと、ネットワークNWを介したサーバS1との間で無線通信や有線通信によって接続される。ここでいう無線通信は、例えばWi-Fi(登録商標)などの無線LAN(Local Area Network)を介した通信である。端末装置P1は、カメラC1,…のそれぞれから送信された撮像映像に映る人物を検出し、検出された人物の検出情報をサーバS1に送信する。端末装置P1は、通信部10と、制御部11と、メモリ14と、入力部16とを含んで構成される。 The terminal device P1 is connected to each of the cameras C1, . . . and the server S1 via the network NW by wireless communication or wired communication. The wireless communication referred to here is, for example, communication via a wireless LAN (Local Area Network) such as Wi-Fi (registered trademark). The terminal device P1 detects a person appearing in the captured video transmitted from each of the cameras C1, . . . and transmits detection information of the detected person to the server S1. The terminal device P1 includes a communication section 10, a control section 11, a memory 14, and an input section 16.

通信部10は、1以上のカメラC1,…のそれぞれと、ネットワークNWとの間で無線通信あるいは有線通信可能に接続されて、データの送受信を実行する。通信部10は、1以上のカメラC1,…のそれぞれから送信された撮像映像を制御部11に出力する。また、通信部10は、制御部11により検出された検出情報と、撮像映像とを対応付けて、ネットワークNWを介してサーバS1に送信する。 The communication unit 10 is connected to each of the one or more cameras C1, . . . and the network NW so as to enable wireless or wired communication, and executes data transmission and reception. The communication unit 10 outputs captured images transmitted from each of the one or more cameras C1, . . . to the control unit 11. Further, the communication unit 10 associates the detection information detected by the control unit 11 with the captured video, and transmits the associated information to the server S1 via the network NW.

制御部11は、例えばCPU(Central Processing Unit)、DSP(Digital Signal Processor)またはFPGA(Field Programmable Gate Array)を用いて構成され、端末装置P1の各部の動作を制御する。制御部11は、メモリ14と協働して、メモリ14に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。なお、ここでいう各部は、人物検出部12である。 The control unit 11 is configured using, for example, a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or an FPGA (Field Programmable Gate Array), and controls the operation of each part of the terminal device P1. The control unit 11 cooperates with the memory 14, refers to programs and data held in the memory 14, and executes the programs to implement the functions of each unit. Note that each unit referred to here is the person detection unit 12.

また、制御部11は、カメラC1,…のそれぞれおよび端末装置P1の各部の動作情報(死活情報)を監視したり、広告効果推計システム100の利用者(例えば、広告主,広告媒体の管理者等)あるいはカメラC1,…のそれぞれの作業者等との間で締結された広告効果推計システム100の利用状況の管理等を実行したりする。制御部11は、死活情報の監視あるいは広告効果推計システム100の利用契約状況の管理等を定期的または継続的に実行し、監視結果、あるいは広告効果推計システム100の利用契約状況等を通信部10に出力し、サーバS1に送信させる。 In addition, the control unit 11 monitors operation information (death and death information) of each of the cameras C1, ... and each part of the terminal device P1, and monitors the operation information (death and death information) of each of the cameras C1, ... and the terminal device P1, etc.) or manage the usage status of the advertising effectiveness estimation system 100 concluded with the operators of the cameras C1, . . . , etc.). The control unit 11 regularly or continuously monitors life and death information or manages the usage contract status of the advertising effectiveness estimation system 100, and transmits the monitoring results or the usage contract status of the advertising effectiveness estimation system 100 to the communication unit 10. and send it to the server S1.

人物検出部12は、撮像映像(つまり、撮像映像を構成する複数の撮像画像のそれぞれ)に画像解析処理を実行し、人物を検出する。人物検出部12は、検出された検出情報と、撮像映像とを対応付けて、通信部10に出力し、サーバS1に送信させる。人物検出部12は、顔検出部13Aと、人検出部13Bとを含んで構成される。なお、人物検出部12ではなく、入力部16から各撮像映像に対する人物の情報を受付けてもよい。この場合、入力部16から受け付ける各撮像映像に対する人物の情報は、人の作業によって撮像映像を確認して入力されるものであり、拡大推計モデル作成部22に送られるものである。なお、各撮像映像に対する人物の情報は、端末装置P1以外の他の端末装置(例えば、ユーザが使用する端末装置等)から取得されて、拡大推計モデル作成部22に出力されてもよい。 The person detection unit 12 performs image analysis processing on the captured video (that is, each of the plurality of captured images forming the captured video) to detect a person. The person detecting unit 12 associates the detected detection information with the captured video, outputs the associated information to the communication unit 10, and causes the communication unit 10 to transmit the information to the server S1. The person detection unit 12 includes a face detection unit 13A and a person detection unit 13B. Note that the information on the person for each captured video may be received from the input unit 16 instead of the person detection unit 12. In this case, the information on the person for each captured video received from the input unit 16 is input by checking the captured video manually, and is sent to the expanded estimation model creation unit 22. Note that the person information for each captured video may be acquired from a terminal device other than the terminal device P1 (for example, a terminal device used by a user, etc.) and output to the expanded estimation model creation section 22.

ここで、図2~図4のそれぞれを参照して、広告効果を示す視認者の一例としての広告接触可能者数、広告視認者数および広告注視者数のそれぞれに該当する人物について説明する。なお、以下で説明する広告接触可能者数、広告視認者数および広告注視者数のそれぞれの定義は一例であって、これに限定されないことは言うまでもない。 Here, with reference to each of FIGS. 2 to 4, a description will be given of persons corresponding to the number of people who can contact an advertisement, the number of people who view an advertisement, and the number of people who look at an advertisement as examples of viewers who indicate advertising effectiveness. It should be noted that the definitions of the number of people who can contact an advertisement, the number of people who view an advertisement, and the number of people who watch an advertisement described below are examples, and it goes without saying that the definitions are not limited thereto.

図2は、視認者の定義例を説明する図である。図3は、カメラC11が広告媒体AD11近傍に配置される場合の第1の検出エリアAR11および第2の検出エリアAR12を説明する図である。図4は、カメラC21が広告媒体AD21近傍に配置されない場合の第1の検出エリアAR21および第2の検出エリアAR22を説明する図である。なお、図3および図4に示す第1の検出エリアAR11および第2の検出エリアAR12のそれぞれは、一例であってこれに限定されないことは言うまでもない。 FIG. 2 is a diagram illustrating an example of the definition of a viewer. FIG. 3 is a diagram illustrating the first detection area AR11 and the second detection area AR12 when the camera C11 is placed near the advertising medium AD11. FIG. 4 is a diagram illustrating the first detection area AR21 and the second detection area AR22 when the camera C21 is not placed near the advertising medium AD21. It goes without saying that each of the first detection area AR11 and the second detection area AR12 shown in FIGS. 3 and 4 is an example, and is not limited thereto.

撮像エリアの一例としての第1の検出エリアAR11,AR21は、カメラC11,C12のそれぞれの検知範囲(人物を検出可能な範囲)を示す。視認エリアの一例としての第2の検出エリアAR12,AR22は、カメラC11,C21のそれぞれの検知範囲外であって、通過する人物が広告媒体を接触可能あるいは視認可能な範囲を示す。また、撮像エリアの一例としての検出エリアAR10,AR20は、サーバS1が広告媒体の拡大推計を実行するエリアであって、第1の検出エリアAR11,AR21と、第2の検出エリアAR12,AR22とを含む範囲である。 First detection areas AR11 and AR21, which are examples of imaging areas, indicate detection ranges (ranges in which a person can be detected) of the cameras C11 and C12, respectively. Second detection areas AR12 and AR22, which are examples of visible areas, are outside the detection ranges of cameras C11 and C21, respectively, and indicate ranges in which a passing person can touch or visually recognize the advertising medium. Furthermore, detection areas AR10 and AR20, which are an example of the imaging area, are areas where the server S1 executes the enlarged estimation of advertising media, and include first detection areas AR11 and AR21, and second detection areas AR12 and AR22. The range includes.

広告接触可能者数は、広告媒体AD11,AD21で広告が表示されている広告面AD12,AD22を基準として10m以内を通過する人物の人数を示す。 The number of people who can come into contact with an advertisement indicates the number of people who pass within 10 meters of the advertisement surfaces AD12 and AD22 on which advertisements are displayed in the advertisement media AD11 and AD21.

広告視認者数は、広告媒体AD11,AD21で広告が表示されている広告面AD12,AD22を基準として10m以内を通過する人物であって、かつ、この人物の視野120°内に広告媒体AD11,AD21が入ると判定された人物の人数を示す。 The number of advertisement viewers is defined as a person passing within 10 meters from the advertising surfaces AD12, AD22 on which advertisements are displayed on the advertising media AD11, AD21, and within 120° of this person's visual field. Indicates the number of people who have been determined to have AD21.

広告注視者数は、広告媒体AD11,AD21で広告が表示されている広告面AD12,AD22を基準として5m以内、を通過する人物であって、かつ、この人物の近接視野70°内に広告媒体AD11,AD21が入ると判定された人物の人数を示す。 The number of people watching an advertisement is defined as a person who passes within 5 meters from the advertising surface AD12, AD22 on which the advertisement is displayed on the advertising medium AD11, AD21, and the advertising medium is within 70° of the person's close visual field. It shows the number of people who were determined to be included in AD11 and AD21.

顔検出部13Aは、撮像画像に画像解析処理を実行し、撮像画像に映る人物のうち広告媒体ごとの視認者のそれぞれに該当する人物の顔を検出する。顔検出部13Aは、検出された人物の顔の向き(以降、「顔角度」と表記)、視線の向き(以降、「視線角度」と表記)等を検出する。また、顔検出部13Aは、検出された人物の属性情報(例えば、性別,年齢等)を検出する。なお、ここでいう視認者は、広告接触可能者数、広告視認者数あるいは広告注視者数等であるが、これに限定されず、作業者により任意に定義され、設定されてよい。 The face detection unit 13A performs image analysis processing on the captured image, and detects the faces of the people appearing in the captured image who correspond to the respective viewers for each advertising medium. The face detection unit 13A detects the direction of the detected person's face (hereinafter referred to as “face angle”), the direction of the line of sight (hereinafter referred to as “line of sight angle”), and the like. The face detection unit 13A also detects attribute information (eg, gender, age, etc.) of the detected person. Note that the viewer here includes the number of people who can contact the advertisement, the number of people who view the advertisement, the number of people who watch the advertisement, etc., but is not limited thereto, and may be arbitrarily defined and set by the operator.

人検出部13Bは、撮像画像に画像解析処理を実行し、撮像画像に映る人物を検出し、検出された人物の人数をカウントする。また、人検出部13Bは、撮像映像から検出された人物の位置情報の時系列変化に基づいて、検出された人物ごとの歩行動線情報と、を検出する。 The person detection unit 13B executes image analysis processing on the captured image, detects people appearing in the captured image, and counts the number of detected people. The person detection unit 13B also detects walking line information for each detected person based on the time-series changes in the position information of the person detected from the captured video.

なお、ここでいう歩行動線情報は、撮像映像から検出された人物の位置情報の時系列変化を示す情報であって、所定時間あるいは所定フレームごとの人物の位置情報を時系列に並べた情報であってもよいし、カメラC1,…のそれぞれの検知範囲(つまり、第1の検出エリア)内における人物の通過方向(例えば、右から左に向かう方向、左から右に向かう方向、奥から手前に向かう方向等)の情報であってもよい。 Note that the walking line information referred to here is information indicating time-series changes in the positional information of a person detected from a captured video, and is information in which the positional information of a person is arranged in chronological order at a predetermined time or every predetermined frame. or the direction in which the person passes (for example, from right to left, from left to right, from the back) within each detection range (i.e., first detection area) of cameras C1,... It may also be information about the direction (toward the front, etc.).

人物検出部12は、顔検出部13Aおよび人検出部13Bのそれぞれにより検出された検出情報(例えば、視認者のそれぞれに該当する人物の検出人数,顔角度,視線角度,属性情報,位置情報,歩行動線情報等)と、入力部16を用いて作業者により入力された実測情報(例えば、人数,顔角度,視線角度,属性情報,位置情報,歩行動線情報等)と、撮像映像とを対応付けて、通信部10に出力し、サーバS1に送信させる。実測情報についての詳細は別途後述する。なお、実測情報は必須でなく、事前に拡大推計モデル作成部22によって拡大推計モデルが作成済みの状態等のときは省略されてもよい。 The person detection unit 12 collects detection information detected by each of the face detection unit 13A and the person detection unit 13B (for example, the number of detected persons, face angle, line of sight angle, attribute information, position information, walking line information, etc.), actual measurement information input by the worker using the input unit 16 (e.g., number of people, face angle, line of sight angle, attribute information, position information, walking line information, etc.), and captured video. are associated with each other, output to the communication unit 10, and transmitted to the server S1. Details of the actual measurement information will be described separately later. Note that the actual measurement information is not essential, and may be omitted when the expanded estimation model has been created in advance by the expanded estimation model creation section 22.

ここで、実測情報は、端末装置P1を操作する作業者により実測された情報であって、人物検出部12の顔検出部13Aおよび人検出部13Bのそれぞれにより検出される検出情報に対応する情報である。作業者は、広告媒体の拡大推計対象となる範囲(例えば、図3および図4に示す検出エリアAR10,AR20)を撮像した撮像画像(撮像映像)を用いて、現地での目視確認により、広告媒体ごとの視認者に該当する人物の人数、これらの人物の顔角度、視線角度、属性情報(例えば、性別,年齢等)、あるいは人物ごとの歩行動線情報等を実測し、実測された実測情報を入力部16に入力する。なお、本実施例では、表示部15を端末装置P1の一部としているが、別装置として設けてもよいし、省略してもよい。 Here, the actual measurement information is information actually measured by the worker operating the terminal device P1, and corresponds to the detection information detected by each of the face detection unit 13A and the person detection unit 13B of the person detection unit 12. It is. The worker uses the captured image (captured video) of the range targeted for expansion estimation of advertising media (for example, detection areas AR10 and AR20 shown in Figures 3 and 4) to visually check the advertising on-site. The number of people who correspond to the viewers for each medium, the face angle, line of sight angle, attribute information (e.g., gender, age, etc.) of these people, or the walking line information for each person, etc. are actually measured. Information is input into the input section 16. In this embodiment, the display section 15 is a part of the terminal device P1, but it may be provided as a separate device or may be omitted.

なお、実測情報は、顔検出部13Aおよび人検出部13Bのそれぞれで検出される検出情報に対応する情報であればよい。例えば、顔検出部13Aおよび人検出部13Bのそれぞれで撮像映像に映る人物の検出人数と、人物ごとの顔角度あるいは視線角度とが検出される場合、作業者は、対応する実測情報として、人物の人数と、人物ごとの顔角度あるいは視線角度とを入力すればよい。 Note that the actual measurement information may be information corresponding to detection information detected by each of the face detection section 13A and the human detection section 13B. For example, when the face detection unit 13A and the person detection unit 13B each detect the number of people detected in the captured video and the face angle or line of sight angle of each person, the worker All you have to do is input the number of people and the angle of each person's face or line of sight.

なお、人物検出部12は、カメラが複数台ある場合には、検出情報と、撮像映像と、カメラC1,…のそれぞれを識別可能な識別情報(例えば、カメラごとに割り当てられたカメラID(Identification),設置エリア情報,製造番号等)をさらに対応付けてサーバS1に送信させてもよい。 In addition, when there are multiple cameras, the person detection unit 12 uses detection information, captured images, and identification information that can identify each of the cameras C1, . . . (for example, a camera ID assigned to each camera). ), installation area information, serial number, etc.) may be further associated and transmitted to the server S1.

メモリ14は、例えば制御部11の各処理を実行する際に用いられるワークメモリとしてのRAM(Random Access Memory)と、制御部11の動作を規定したプログラムおよびデータを格納するROM(Read Only Memory)とを有する。RAMには、制御部11により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、制御部11の動作を規定するプログラムが書き込まれている。 The memory 14 includes, for example, a RAM (Random Access Memory) as a work memory used when executing each process of the control unit 11, and a ROM (Read Only Memory) that stores programs and data that define the operation of the control unit 11. and has. Data or information generated or acquired by the control unit 11 is temporarily stored in the RAM. A program that defines the operation of the control unit 11 is written in the ROM.

メモリ14は、カメラC1,…のそれぞれの設置位置および検知範囲(撮像範囲)の情報と、広告媒体AD11,AD21の広告面AD12,AD22の位置情報と、カメラC1,…のそれぞれが撮像した撮影画像から検出した人物に関する情報(人数等)等を記憶する。位置情報は、2次元の位置情報或いは3次元の位置情報を記憶するようにしてよい。3次元の位置情報を記憶することで、重なる位置に広告媒体が存在しても、高さの違いによって個々を特定することができる。 The memory 14 stores information on the installation positions and detection ranges (imaging ranges) of the cameras C1, . Information about people detected from images (number of people, etc.) is stored. The position information may be two-dimensional position information or three-dimensional position information. By storing three-dimensional position information, even if advertising media exist in overlapping positions, it is possible to identify each advertising medium based on the difference in height.

表示部15は、例えばLCD(Liquid Crystal Display)または有機EL(Electroluminescence)等のディスプレイを用いて構成される。表示部15は、制御部11から出力されたカメラC1,…のそれぞれの撮像映像を表示する。なお、表示部15は、別途外部装置として接続されたものでもよい。 The display unit 15 is configured using a display such as an LCD (Liquid Crystal Display) or an organic EL (Electroluminescence). The display unit 15 displays images captured by the cameras C1, . . . output from the control unit 11. Note that the display unit 15 may be connected as a separate external device.

入力部16は、例えばタッチパネル、キーボード、マウス等を用いて構成された作業者インタフェースである。入力部16は、受け付けられた端末装置P1の作業者操作を電気信号(制御指令)に変換して、制御部11に出力する。入力部16は、作業者により実測された実測情報(例えば、視認者のそれぞれに該当する人物の検出人数,顔角度,視線角度,属性情報,位置情報,歩行動線情報等)の入力を受け付ける。入力部16は、受け付けられた実測情報を制御部11の人物検出部12に出力する。なお、入力部16は、表示部15と一体的に構成されたタッチパネルであってもよい。 The input unit 16 is a worker interface configured using, for example, a touch panel, a keyboard, a mouse, or the like. The input unit 16 converts the received operator operation of the terminal device P1 into an electrical signal (control command) and outputs it to the control unit 11. The input unit 16 receives input of actual measurement information (for example, the number of detected persons corresponding to each viewer, face angle, line of sight angle, attribute information, position information, walking line information, etc.) actually measured by the worker. . The input unit 16 outputs the received actual measurement information to the person detection unit 12 of the control unit 11. Note that the input unit 16 may be a touch panel configured integrally with the display unit 15.

サーバS1は、ネットワークNWを介した端末装置P1と、表示装置MNとの間でそれぞれデータ送受信可能に接続される。サーバS1は、端末装置P1から送信された検出情報と、撮像映像とを用いて、カメラC1,…のそれぞれの検知範囲内外を含む所定の視認範囲で少なくとも1つの広告媒体の視認者を推計するための拡大推計モデルを作成する。サーバS1は、作成された拡大推計モデルを用いて、カメラC1,…のそれぞれの検知範囲内外を含む所定の視認範囲で少なくとも1つの広告媒体の広告効果(視認者)を推計し、推計された拡大推計結果を生成して、表示装置MNに出力して表示させる。サーバS1は、通信部20と、制御部21と、メモリ25と、拡大推計結果データベースDBと、を含んで構成される。 The server S1 is connected to the terminal device P1 and the display device MN via the network NW so that data can be transmitted and received, respectively. The server S1 uses the detection information transmitted from the terminal device P1 and the captured video to estimate the number of viewers of at least one advertising medium in a predetermined viewing range including inside and outside the detection range of each of the cameras C1,... Create an expanded estimation model for The server S1 uses the created expanded estimation model to estimate the advertising effect (viewer) of at least one advertising medium in a predetermined viewing range including inside and outside the detection range of each of the cameras C1,... The expanded estimation result is generated and output to the display device MN for display. The server S1 includes a communication section 20, a control section 21, a memory 25, and an expanded estimation result database DB.

取得部の一例としての通信部20は、ネットワークNWを介した端末装置P1と、表示装置MNとの間でそれぞれデータ送受信可能に接続される。通信部20は、1以上のカメラC1,…のそれぞれから送信された撮像画像(撮像映像)を制御部21に出力したり、端末装置P1から送信された検出情報と、撮像映像とを制御部21に出力したりする。このとき、撮像画像(撮像映像)は、リアルタイムで撮影されたもの或いは録画されたものでもよい。また、通信部20は、制御部21により生成された拡大推計結果を示す各推計結果画面(例えば、図8に示す推計結果画面SC1、図9に示す人物属性別推計結果画面SC2、あるいは図10に示す駅・曜日別推計結果画面SC3等)を表示装置MNに送信して、出力(表示)させる。 The communication unit 20, which is an example of an acquisition unit, is connected to the terminal device P1 and the display device MN via the network NW so as to be able to transmit and receive data, respectively. The communication unit 20 outputs captured images (captured videos) transmitted from each of the one or more cameras C1, . 21. At this time, the captured image (captured video) may be captured in real time or recorded. The communication unit 20 also displays each estimation result screen showing the expanded estimation results generated by the control unit 21 (for example, the estimation result screen SC1 shown in FIG. 8, the estimation result screen SC2 by person attribute shown in FIG. 9, or the estimation result screen SC2 shown in FIG. The station/day-of-week estimation result screen SC3 shown in FIG.

制御部21は、例えばCPU、DSPまたはFPGAを用いて構成され、サーバS1の各部の動作を制御する。制御部21は、メモリ25と協働して、メモリ25に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。なお、ここでいう各部は、拡大推計モデル作成部22および視認効果計測部23のそれぞれである。 The control unit 21 is configured using, for example, a CPU, a DSP, or an FPGA, and controls the operation of each unit of the server S1. The control unit 21 cooperates with the memory 25, refers to programs and data held in the memory 25, and executes the programs to implement the functions of each unit. Note that each section referred to here is the expanded estimation model creation section 22 and the visual recognition effect measurement section 23, respectively.

また、制御部21は、端末装置P1から送信された実測情報、検出情報あるいはその両方に基づいて、広告効果を示す視認者を検出したり、広告効果を示す各種時間(例えば、広告注視時間等)を計測可能にしたりするための教師データ(学習データ)を生成してもよい。教師データを生成するための学習は、1つ以上の統計的分類技術を用いて行っても良い。統計的分類技術としては、例えば、重回帰分析、線形分類器(Linear Classifiers)、サポートベクターマシン(Support Vector Machines)、二次分類器(Quadratic Classifiers)、カーネル密度推測(Kernel Estimation)、決定木(Decision Trees)、人工ニューラルネットワーク(Artificial Neural Networks)、ベイジアン技術および/またはネットワーク(Bayesian Techniques and/or Networks)、隠れマルコフモデル(Hidden Markov Models)、バイナリ分類子(Binary Classifiers)、マルチクラス分類器(Multi-Class Classifiers)、クラスタリング(Clustering Technique)、ランダムフォレスト(Random Forest Technique)、ロジスティック回帰(Logistic Regression Technique)、線形回帰(Linear Regression Technique)、勾配ブースティング(Gradient Boosting Technique)等が挙げられる。但し、使用される統計的分類技術はこれらに限定されない。ここでは、端末装置P1から送信された情報に基づいて、教師データ(学習データ)を生成しているが、端末装置P1以外の装置(例えばクライアントPC等)から直接送られてきた情報に基づいてもよい。 The control unit 21 also detects viewers who exhibit advertising effectiveness, and various times (such as advertisement viewing time, ) may be generated to make it measurable. Learning to generate training data may be performed using one or more statistical classification techniques. Examples of statistical classification techniques include multiple regression analysis, linear classifiers, support vector machines, quadratic classifiers, kernel density estimation, and decision trees ( Decision Trees, Artificial Neural Networks, Bayesian Techniques and/or Networks, Hidden Markov Models ), Binary Classifiers, Multi-Class Classifiers ( Multi-Class Classifiers), Clustering Technique, Random Forest Technique, Logistic Regression Technique, Linear Regression ( Examples include Linear Regression Technique, Gradient Boosting Technique, and the like. However, the statistical classification techniques used are not limited to these. Here, the teacher data (learning data) is generated based on the information sent from the terminal device P1, but the teacher data (learning data) is generated based on the information directly sent from a device other than the terminal device P1 (for example, a client PC, etc.). Good too.

拡大推計モデル作成部22は、少なくとも1つの広告媒体に対する広告効果(例えば、視認者数,視認者による広告媒体への接触時間,視認時間,注視時間等)を推計する1以上の拡大推計モデルを作成する。 The expanded estimation model creation unit 22 generates one or more expanded estimation models that estimate advertising effects for at least one advertising medium (for example, the number of viewers, contact time with the advertising medium by viewers, viewing time, gaze time, etc.). create.

視認効果計測部23は、メモリ25に記憶されている視認者基準(具体的には、広告接触可能者数、広告視認者数あるいは広告注視者数のそれぞれ)と、端末装置P1から送信された撮像映像に映る人物の人物情報に基づき、広告媒体ごとの視認者(具体的には、広告接触可能者数、広告視認者数あるいは広告注視者数のそれぞれ)を算出する。この算出結果は、視認者情報と呼ぶこととする。 The visibility effect measurement unit 23 uses the viewer criteria stored in the memory 25 (specifically, the number of people who can contact the advertisement, the number of people who view the advertisement, or the number of people who look at the advertisement) and the number of people who watch the advertisement transmitted from the terminal device P1. The number of viewers for each advertising medium (specifically, the number of people who can contact the advertisement, the number of people who view the advertisement, or the number of people who gaze at the advertisement) for each advertising medium is calculated based on the person information of the person appearing in the captured video. This calculation result will be referred to as viewer information.

ここで、図5を参照して、サーバS1の制御部21の機能構成について説明する。図5は、実施の形態1に係るサーバS1の制御部21の内部構成例を説明するブロック図である。 Here, with reference to FIG. 5, the functional configuration of the control unit 21 of the server S1 will be described. FIG. 5 is a block diagram illustrating an example of the internal configuration of the control unit 21 of the server S1 according to the first embodiment.

モデル作成部の一例としての拡大推計モデル作成部22は、1以上のカメラによって、広告媒体に接触可能、あるいは広告媒体を視認可能な範囲(例えば、図3および図4に示す第2の検出エリア)を撮像した撮像画像(撮像映像)に映る人物に関する実測情報と、広告媒体の視認範囲の少なくとも一部を含む撮像範囲(例えば、図3および図4に示す第1の検出エリア)を撮像した撮像画像(撮像映像)の検出情報とに基づいて、少なくとも1つの広告媒体に対する広告効果(例えば、視認者数,視認者による広告媒体への接触時間,視認時間,注視時間等)を推計する1以上の拡大推計モデルを作成する。ここでいう、拡大推計モデルは、例えば、広告接触可能者数計算モデル22A,広告視認者数計算モデル22B,広告注視者数計算モデル22C,あるいは広告注視時間数計算モデル22D等である。ここで作成された拡大推計モデルは、カメラC1,…のそれぞれの撮像画像(撮像映像)に対応する検出情報に対して、検知範囲外(例えば、図3および図4に示す第2の検出エリア)に位置する視認者数(つまり、広告接触可能者数、広告視認者数あるいは広告注視者数等)を補間するものである。 The expanded estimation model creation unit 22, which is an example of a model creation unit, uses one or more cameras to detect a range in which advertising media can be contacted or visible (for example, a second detection area shown in FIGS. 3 and 4). ), and the actual measurement information regarding the person appearing in the captured image (captured video) captured in the imaged area (for example, the first detection area shown in FIGS. 3 and 4) that includes at least a part of the visible range of the advertising medium. Estimating the advertising effect (for example, the number of viewers, the contact time to the advertising medium by viewers, the viewing time, the gaze time, etc.) for at least one advertising medium based on the detection information of the captured image (captured video)1. The above expanded estimation model will be created. The expanded estimation model referred to here is, for example, a model for calculating the number of people who can contact an advertisement 22A, a model for calculating the number of people who view an advertisement 22B, a model for calculating the number of people who watch an advertisement 22C, a model for calculating the number of hours of advertisement viewing 22D, or the like. The expanded estimation model created here is based on detection information corresponding to each captured image (captured video) of cameras C1,... ) (that is, the number of people who can contact the advertisement, the number of people who view the advertisement, the number of people who look at the advertisement, etc.) is interpolated.

拡大推計モデル作成部22により作成される拡大推計モデルについて説明する。広告接触可能者数計算モデル22Aは、カメラC1,…により撮像された撮像映像(撮像画像)を用いて、少なくとも1つの広告媒体の広告接触可能者数を推計するモデルである。広告視認者数計算モデル22Bは、カメラC1,…により撮像された撮像映像(撮像画像)を用いて、少なくとも1つの広告媒体の広告視認者数を推計するモデルである。広告注視者数計算モデル22Cは、カメラC1,…により撮像された撮像映像(撮像画像)を用いて、少なくとも1つの広告媒体の広告注視者数を推計するモデルである。また、広告注視時間数計算モデル22Dは、カメラC1,…により撮像された撮像映像(撮像画像)を用いて、少なくとも1つの広告媒体の広告視認者による注視時間を推計するモデルである。 The expanded estimation model created by the expanded estimation model creation section 22 will be explained. The number of people who can be exposed to an advertisement calculation model 22A is a model that estimates the number of people who can be exposed to an advertisement of at least one advertising medium using captured images (imaged images) captured by the cameras C1, . The number of advertisement viewers calculation model 22B is a model that estimates the number of advertisement viewers of at least one advertising medium using captured videos (captured images) captured by the cameras C1, . The number of advertisement viewers calculation model 22C is a model that estimates the number of advertisement viewers of at least one advertising medium using captured videos (captured images) captured by the cameras C1, . Further, the advertisement gaze time calculation model 22D is a model that estimates the gaze time of at least one advertisement medium by an advertisement viewer using captured videos (captured images) captured by the cameras C1, .

なお、ここでいう広告注視時間は、人物が広告媒体を注視している間の時間であって、人物の歩行動線情報に基づいて、第1の検知エリア内に滞在していると判定された滞在時間であってもよいし、人物の顔角度,視線角度が、広告媒体の方向を向いている時間であってもよい。 Note that the advertising gaze time referred to here is the time during which the person is gazing at the advertising medium, and is determined to be staying within the first detection area based on the person's walking line information. It may be the length of time the person stays in the room, or it may be the time during which the person's face angle and line of sight angle are facing the direction of the advertising medium.

拡大推計モデル作成部22は、端末装置P1から送信された実測情報と検出情報とを用いて、広告接触可能者数計算モデル22Aと、広告視認者数計算モデル22Bと、広告注視者数計算モデル22Cと、広告注視時間数計算モデル22Dとをそれぞれ作成する。拡大推計モデル作成部22は、作成された各種拡大推計モデルと、拡大推計モデルの作成に用いられた検出情報とを対応付けて、視認効果計測部23に出力する。 The expanded estimation model creation unit 22 uses the actual measurement information and detection information transmitted from the terminal device P1 to create a model for calculating the number of people who can be exposed to an advertisement 22A, a model for calculating the number of people who view the advertisement 22B, and a model for calculating the number of people who watch the advertisement. 22C and an advertisement viewing time calculation model 22D are respectively created. The expanded estimation model creation unit 22 associates the various created expanded estimation models with the detection information used to create the expanded estimation models, and outputs the resulting correspondence to the visibility effect measurement unit 23 .

また、拡大推計モデル作成部22は、各種拡大推計モデルと、各種拡大推計モデルの作成に使用された実測情報および検出情報のそれぞれとを対応付けて出力してよい。これにより、後述する視認効果計測部23は、入力部16を介して取得(入力)された実測情報に基づく実測値と、検出情報に基づく拡大推計結果(つまり、推測値)とを比較する推計結果画面SC1(図8参照)を生成して、出力できる。 Further, the expanded estimation model creation unit 22 may output various expanded estimation models in association with each of the actual measurement information and detection information used to create the various expanded estimation models. Thereby, the visibility effect measurement unit 23 (described later) performs an estimation that compares the actual measurement value based on the actual measurement information acquired (input) via the input unit 16 and the expanded estimation result (that is, the estimated value) based on the detected information. A result screen SC1 (see FIG. 8) can be generated and output.

以下、各種拡大推計モデルの作成処理について説明する。 The creation process of various expanded estimation models will be explained below.

(広告接触可能者数計算モデルの作成処理)
拡大推計モデル作成部22は、端末装置P1から送信された広告媒体に接触可能、あるいは広告媒体を視認可能な範囲(例えば、図3および図4に示す第1および第2の検出エリア)を撮像した撮像画像(撮像映像)の実測情報と、広告媒体の視認範囲の少なくとも一部を含む撮像範囲(例えば、図3および図4に示す第1の検出エリア)を撮像した撮像画像(撮像映像)の検出情報と、広告接触可能者の視認者基準に基づいて、推計結果を補正する補正係数を算出し、広告接触可能者数を算出するための広告接触可能者数計算モデル22Aを作成する。拡大推計モデル作成部22は、作成された広告接触可能者数計算モデル22Aと、広告接触可能者数計算モデル22Aの作成に使用された検出情報とを対応付けて、拡大推計部24の広告接触可能者数計算部24Aに出力する。
(Creation process of calculation model for number of people who can be contacted by advertisement)
The expanded estimation model creation unit 22 images a range where the advertising medium transmitted from the terminal device P1 can be contacted or visible (for example, the first and second detection areas shown in FIGS. 3 and 4). actual measurement information of the captured image (captured video), and a captured image (captured video) that captures an imaging range (for example, the first detection area shown in FIGS. 3 and 4) that includes at least a part of the visible range of the advertising medium. A correction coefficient for correcting the estimation result is calculated based on the detection information of , and the viewer standard of the people who can be exposed to the advertisement, and a model 22A for calculating the number of people who can be exposed to the advertisement is created. The expanded estimation model creation unit 22 associates the created model 22A for calculating the number of people who can be contacted with an advertisement with the detection information used to create the model 22A for calculating the number of people who can be contacted with an advertisement, and It is output to the possible number calculation unit 24A.

なお、広告接触可能者数計算モデル22Aの作成処理において、完成した広告接触可能者数計算モデル22Aと設置場所の環境情報を対応づけてメモリ25に記憶しておいてもよい。これにより、サーバS1は、実測情報が存在しないような場合でも、設置場所の環境情報から類似した広告接触可能者数計算モデル22Aを適用させることができようになる。 In the process of creating the model 22A for calculating the number of people who can be exposed to advertisements, the completed model 22A for calculating the number of people who can be exposed to advertisements may be associated with environmental information about the installation location and stored in the memory 25. Thereby, the server S1 can apply a similar advertisement contactable number calculation model 22A based on the environmental information of the installation location even in a case where actual measurement information does not exist.

ここでいう、視認者基準は、推計対象である視認者の定義(図2参照)に基づいて、所定の視認者を検出するための基準である。例えば、広告接触可能者数を算出するための基準は、実測情報および検出情報のそれぞれ、あるいは撮像映像から広告接触可能者数に該当する人物を検出するための検出条件を定義する基準であって、作業者により任意に設定される。例えば、図2に示す例において、広告接触可能者数を算出するための基準は、「広告面から10m以内を通過した全人数」である。 The viewer standard here is a standard for detecting a predetermined viewer based on the definition of the viewer who is the estimation target (see FIG. 2). For example, the standard for calculating the number of people who can be contacted by an advertisement is a standard that defines detection conditions for detecting people who correspond to the number of people who can be contacted by an advertisement from each of actual measurement information and detection information, or captured video. , arbitrarily set by the operator. For example, in the example shown in FIG. 2, the standard for calculating the number of people who can come into contact with an advertisement is "the total number of people who passed within 10 meters of the advertisement surface."

ここでいう、環境補正係数は、広告媒体が設置されている設置場所の環境情報に対応して設定される係数であって、作成された拡大推計モデルにより推計される広告効果の重み付け処理を実行するための係数である。例えば、環境補正係数は、実測情報と検出情報との関係性から算出される。そのほか、広告媒体が設置された設置場所を利用する利用者数、設置場所を通行する通行量(人数)、広告媒体の広告面積、設置場所における人物の歩行動線の方向ごとの割合、広告媒体を視認可能な面積(領域)、広告媒体の設置場所(例えば、駅,建物,通路,道路等)の環境情報に基づいて設定される係数、あるいはこれらの環境情報を用いたヒューリスティック分析に基づいて決定される係数などを設けてよい。例えば、環境補正係数は、広告媒体の設置場所が駅構内である場合、駅構内において駅利用者がこの広告媒体を視認可能な面積、この駅を利用する1日の利用者数、あるいは所定の時間帯の利用者数や人流等の情報を用いて決定されてよい。 The environmental correction coefficient referred to here is a coefficient that is set according to the environmental information of the installation location where the advertising medium is installed, and performs the weighting process of the advertising effect estimated by the created expanded estimation model. This is the coefficient for For example, the environmental correction coefficient is calculated from the relationship between actually measured information and detected information. In addition, the number of users using the installation location where the advertising media is installed, the amount of traffic passing through the installation location (number of people), the advertising area of the advertising media, the proportion of people's walking lines in each direction at the installation location, the advertising media coefficients set based on the environmental information of the visible area (area), the installation location of advertising media (e.g., stations, buildings, passages, roads, etc.), or based on heuristic analysis using these environmental information. A determined coefficient or the like may be provided. For example, if the advertising medium is installed inside a station, the environmental correction coefficient may be calculated based on the area within the station where the advertising medium can be seen by station users, the number of people using this station per day, or a predetermined amount of The determination may be made using information such as the number of users and the flow of people during the time period.

なお、拡大推計モデル作成部22は、広告媒体の設置場所に対応する広告接触可能者数計算モデル22Aが設定されてない場合、この広告媒体の設置場所の環境情報と類似する環境情報を有する他の広告媒体の設置場所があるか否かを判定する。環境情報は、例えば、施設規模、利用者総数、人流あるいは人物の動線、広告前のエリアの形状、住民の人数、訪問者数等が判定基準として考えられる。拡大推計モデル作成部22は、広告媒体の設置場所の環境情報と類似する環境情報を有する他の広告媒体の設置場所があると判定した場合、この他の設置場所に対応する広告接触可能者数計算モデル22Aを参照し、広告効果の推計対象である広告媒体の広告接触可能者数計算モデル22Aとして選定してもよい。そのほかにも、広告媒体の視認範囲の少なくとも一部を含む撮像範囲を撮影した撮像画像(撮像映像)の検出情報又は視認者情報が類似する場所に適応されている広告接触可能者数計算モデル22Aを選定するようにしてよい。 Note that, if the advertising contactable number calculation model 22A corresponding to the installation location of the advertising medium is not set, the expanded estimation model creation unit 22 generates a model that has environmental information similar to the environmental information of the installation location of this advertising medium. It is determined whether there is a place to install the advertising media. As for the environmental information, for example, the scale of the facility, the total number of users, the flow of people or the line of flow of people, the shape of the area in front of the advertisement, the number of residents, the number of visitors, etc. can be considered as criteria. When the expanded estimation model creation unit 22 determines that there is an installation location of another advertising medium that has environmental information similar to the environmental information of the installation location of the advertising medium, the expanded estimation model creation unit 22 calculates the number of people who can contact the advertisement corresponding to this other installation location. The calculation model 22A may be referred to and selected as the calculation model 22A for calculating the number of people who can be contacted by an advertisement of the advertising medium whose advertising effectiveness is to be estimated. In addition, the number of people who can come into contact with an advertisement model 22A is applied to locations where the detection information or viewer information of a captured image (captured video) that captures an imaging range that includes at least a part of the visible range of advertising media is similar. You may choose

(広告視認者数計算モデルの作成処理)
また、拡大推計モデル作成部22は、端末装置P1から送信された広告媒体に接触可能、あるいは広告媒体を視認可能な範囲(例えば、図3および図4に示す検出エリアAR10,AR20)の実測情報と、広告媒体の視認範囲の少なくとも一部を含む撮像範囲(例えば、図3および図4に示す第1の検出エリア)を撮像した撮像画像(撮像映像)の検出情報と、広告視認者の視認者基準に基づいて、広告視認者数計算モデル22Bを作成する。拡大推計モデル作成部22は、作成された広告視認者数計算モデル22Bと、広告視認者数計算モデル22Bの作成に使用された検出情報とを対応付けて、拡大推計部24の広告視認者数計算部24Bに出力する。
(Creation process of calculation model for number of advertisement viewers)
The expanded estimation model creation unit 22 also generates actual measurement information of a range where the advertising medium transmitted from the terminal device P1 can be contacted or visible (for example, detection areas AR10 and AR20 shown in FIGS. 3 and 4). , detection information of a captured image (captured video) captured in an imaging range that includes at least a part of the visible range of advertising media (for example, the first detection area shown in FIGS. 3 and 4), and detection information of a captured image (captured video) that includes at least a part of the visible range of advertising media, and An advertisement viewer number calculation model 22B is created based on the user criteria. The expanded estimation model creation unit 22 associates the created advertisement viewer number calculation model 22B with the detection information used to create the advertisement viewer number calculation model 22B, and calculates the number of advertisement viewers of the expanded estimation unit 24. It is output to the calculation section 24B.

ここでいう、広告視認者数を算出するための視認者基準は、実測情報および検出情報のそれぞれ、あるいは撮像映像から広告視認者数に該当する人物を検出するための検出条件を定義する基準であって、作業者により任意に設定される。例えば、図2に示す例において、広告視認者数を算出するための基準は、「広告面から10m以内で視野(120度)に広告媒体が入る人数」である。 Here, the viewer standard for calculating the number of advertisement viewers is a standard that defines detection conditions for detecting people who correspond to the number of advertisement viewers from actual measurement information and detection information, or captured video. It is set arbitrarily by the operator. For example, in the example shown in FIG. 2, the standard for calculating the number of advertisement viewers is "the number of people within 10 meters from the advertisement surface and within the field of view (120 degrees)".

(広告注視者数計算モデルの作成処理)
また、拡大推計モデル作成部22は、端末装置P1から送信された広告媒体に接触可能、あるいは広告媒体を視認可能な範囲(例えば、図3および図4に示す検出エリアAR10,AR20)の実測情報と、広告媒体の視認範囲の少なくとも一部を含む撮像範囲(例えば、図3および図4に示す第1の検出エリア)を撮像した撮像画像(撮像映像)の検出情報と、広告注視者の視認者基準に基づいて、広告注視者数計算モデル22Cを作成する。拡大推計モデル作成部22は、作成された広告注視者数計算モデル22Cと、広告注視者数計算モデル22Cの作成に使用された検出情報とを対応付けて、拡大推計部24の広告注視者数計算部24Cに出力する。
(Creating model for calculating the number of people watching advertisements)
The expanded estimation model creation unit 22 also generates actual measurement information of a range where the advertising medium transmitted from the terminal device P1 can be contacted or visible (for example, detection areas AR10 and AR20 shown in FIGS. 3 and 4). , detection information of a captured image (captured video) that captures an imaging range that includes at least a part of the visible range of advertising media (for example, the first detection area shown in FIGS. 3 and 4), and detection information of a captured image (captured video) that includes at least a part of the visible range of advertising media, and A model 22C for calculating the number of people watching advertisements is created based on the user criteria. The expanded estimation model creation unit 22 associates the created advertising viewer number calculation model 22C with the detection information used to create the advertising viewer number calculation model 22C, and calculates the number of advertising viewers from the expanded estimation unit 24. It is output to the calculation section 24C.

ここでいう、広告注視者数を算出するための基準は、実測情報および検出情報のそれぞれ、あるいは撮像映像から広告注視者数に該当する人物を検出するための検出条件を定義する基準であって、作業者により任意に設定される。例えば、図2に示す例において、広告注視者数を算出するための基準は、「広告面から10m以内で近接視野(70度)に広告媒体が入る人数」である。 Here, the standard for calculating the number of people watching advertisements is the standard for defining detection conditions for detecting people corresponding to the number of people watching advertisements from actual measurement information and detection information, or from captured images. , arbitrarily set by the operator. For example, in the example shown in FIG. 2, the standard for calculating the number of people gazing at an advertisement is "the number of people within 10 meters from the advertisement surface and within the close visual field (70 degrees)".

(広告注視時間数計算モデルの作成処理)
また、拡大推計モデル作成部22は、端末装置P1から送信された広告媒体に接触可能、あるいは広告媒体を視認可能な範囲(例えば、図3および図4に示す検出エリアAR10,AR20)の実測情報と、広告媒体の視認範囲の少なくとも一部を含む撮像範囲(例えば、図3および図4に示す第1の検出エリア)を撮像した撮像画像(撮像映像)の検出情報と、広告注視時間を算出するための視認者基準に基づいて、広告注視時間数計算モデル22Dを作成する。拡大推計モデル作成部22は、作成された広告注視時間数計算モデル22Dと、広告注視時間数計算モデル22Dの作成に使用された検出情報とを対応付けて、拡大推計部24の広告注視時間数計算部24Dに出力する。
(Creation process of advertisement gaze time calculation model)
The expanded estimation model creation unit 22 also generates actual measurement information of a range where the advertising medium transmitted from the terminal device P1 can be contacted or visible (for example, detection areas AR10 and AR20 shown in FIGS. 3 and 4). , detection information of a captured image (captured video) captured in an imaging range that includes at least a part of the visible range of advertising media (for example, the first detection area shown in FIGS. 3 and 4), and calculation of advertisement gaze time. An advertisement viewing time calculation model 22D is created based on the viewer criteria for viewing the advertisement. The expanded estimation model creation unit 22 associates the created advertising viewing time calculation model 22D with the detection information used to create the advertising viewing time calculation model 22D, and calculates the advertising viewing time of the expanded estimation unit 24. It is output to the calculation section 24D.

ここでいう、広告注視時間を算出するための演算式は、実測情報および検出情報のそれぞれ、あるいは撮像映像から広告注視者数に該当する人物を検出し、検出された人物が第1の検知エリア内に滞在する滞在時間、あるいは検出された人物の顔角度,視線角度が広告媒体を向いている時間を計測(算出)するための計測条件を定義する演算式であって、作業者により任意に設定される。なお、広告注視時間を算出するための演算式は、計測された第1の検知エリア内に滞在する滞在時間、顔角度、あるいは視線角度が広告媒体を向いている時間が、所定時間(例えば、3秒,5秒等)以上であると判定した場合にはこの人物の広告注視時間として計測し、所定時間未満であると判定した場合にはこの人物の広告注視時間として計測しない計測条件等が設定されていてもよい。 Here, the calculation formula for calculating advertisement gaze time is to detect a person corresponding to the number of advertisement gazers from each of the actual measurement information and detection information or from the captured video, and to detect the detected person from the first detection area. It is an arithmetic expression that defines the measurement conditions for measuring (calculating) the length of time a person stays in an advertising medium, or the time that a detected person's face angle and line of sight angle are facing the advertising medium. Set. In addition, the calculation formula for calculating advertisement gaze time is such that the time spent in the measured first detection area, the face angle, or the time when the line of sight angle is facing the advertising medium is determined by the predetermined time (e.g., If it is determined that it is longer than 3 seconds, 5 seconds, etc., it will be measured as this person's advertisement gaze time, and if it is determined that it is less than a predetermined time, it will not be measured as this person's advertisement gaze time. May be set.

なお、上述した機械学習方法の一例として、拡大推計モデル作成部22は、例えば、実測情報から抽出された情報を目的変数に、検出情報から抽出された情報を説明変数にそれぞれ設定し、重回帰分析を実行することで視認者に該当する人物を検出するための機械学習を実行してもよい。 As an example of the machine learning method described above, the expanded estimation model creation unit 22 sets, for example, information extracted from actual measurement information as an objective variable and information extracted from detected information as an explanatory variable, and performs multiple regression. Machine learning may be performed to detect a person who is a viewer by performing an analysis.

これら拡大推計モデル(具体的には、広告接触可能者数計算モデル、広告視認者数計算モデル、広告注視者数計算モデル広告注視時間数計算モデル)を作成する際に、本実施形態では、端末装置P1から送信された情報を用いているが、メモリ25や拡大推計結果データベースDBに記憶されている過去の数値を用いてもよい。また、本実施形態では、実測情報、検出情報、視認者基準に基づいて、拡大モデルを作成しているが、事前に視認効果計測部23にて実測情報及び検出情報それぞれの視認者情報を算出し、それぞれの視認者情報に基づいて作成してもよい。 In this embodiment, when creating these expanded estimation models (specifically, the model for calculating the number of people who can be exposed to advertisements, the model for calculating the number of people who view advertisements, the model for calculating the number of people who watch advertisements, and the model for calculating the number of hours of advertisement viewing), Although the information transmitted from the device P1 is used, past numerical values stored in the memory 25 or the expanded estimation result database DB may also be used. In addition, in this embodiment, an enlarged model is created based on the actual measurement information, detection information, and viewer standards, but the visibility effect measurement unit 23 calculates viewer information for each of the actual measurement information and detection information in advance. However, it may be created based on the information of each viewer.

広告効果推計部の一例としての視認効果計測部23は、拡大推計部24により推計された広告効果(視認者数、時間数等の情報)を拡大推計結果データベースDBに格納する。また、視認効果計測部23は、拡大推計部24により推計された広告効果(視認者数あるいは時間数等)に基づいて、各推計結果画面(例えば、図8に示す推計結果画面SC1、図9に示す人物属性別推計結果画面SC2、あるいは図10に示す駅・曜日別推計結果画面SC3等)を生成して、表示装置MNに送信して出力させる。 The visibility effect measurement unit 23, which is an example of the advertising effect estimation unit, stores the advertising effect (information such as the number of viewers and the number of hours) estimated by the expansion estimation unit 24 in the expansion estimation result database DB. The visibility effect measurement unit 23 also displays each estimation result screen (for example, the estimation result screen SC1 shown in FIG. 8, the estimation result screen SC1 shown in FIG. A personal attribute-specific estimation result screen SC2 shown in FIG. 10 or a station/day-of-week estimation result screen SC3 shown in FIG. 10) is generated and transmitted to the display device MN for output.

視認効果計測部23は、広告接触可能者数計算部24A、広告視認者数計算部24B、広告注視者数計算部24C、および広告注視時間数計算部24Dのそれぞれの機能を実現し、各種視認者数あるいは各種時間を算出する。 The visibility effect measurement unit 23 realizes the respective functions of a calculation unit 24A for the number of people who can come into contact with an advertisement, a calculation unit 24B for the number of people who view an advertisement, a calculation unit 24C for the number of people who watch an advertisement, and a calculation unit 24D for the number of hours of advertisement viewing. Calculate the number of people or various times.

広告接触可能者数計算部24Aは、拡大推計モデル作成部22から出力された広告接触可能者数計算モデル22Aと、広告接触可能者数計算モデル22Aの作成に使用された検出情報とを用いて、広告接触可能者数を算出する。例えば、広告接触可能者数計算部24Aは、広告接触可能者数計算モデル22Aと、第1の検出エリア内における人物の検出人数とに基づいて、広告接触可能者数を算出する。 The number of people who can be exposed to advertisements calculation section 24A uses the number of people who can be exposed to advertisements calculation model 22A outputted from the expanded estimation model creation section 22 and the detection information used to create the number of people who can be exposed to advertisements calculation model 22A. , calculate the number of people who can be exposed to the advertisement. For example, the number of people who can be exposed to an advertisement calculation unit 24A calculates the number of people who can be exposed to an advertisement based on the number of people who can be exposed to an advertisement calculation model 22A and the number of people detected within the first detection area.

広告視認者数計算部24Bは、拡大推計モデル作成部22から出力された広告視認者数計算モデル22Bと、広告視認者数計算モデル22Bの作成に使用された検出情報とを用いて、広告視認者数を算出する。 The advertisement viewer number calculation unit 24B uses the advertisement viewer number calculation model 22B output from the expanded estimation model creation unit 22 and the detection information used to create the advertisement viewer number calculation model 22B. Calculate the number of people.

例えば、広告視認者数計算部24Bは、広告視認者数計算モデル22Bと、第1の検出エリア内で検出された人物のうち人物の顔角度あるいは視線角度を基準方向として、広告視認者数計算モデル22Bと、基準方向を中心とする視野120°内に広告媒体が位置する(つまり、検出された人物の視野120°内に広告媒体が位置する)人物の検出人数と、広告媒体の広告面の中心点を基準に120°内のエリアを通行する人物の歩行動線情報とを用いて、広告視認者数を算出してよい。なお、補正係数は、広告媒体の広告面の中心から120°のエリアを通過する人物の歩行動線情報に基づいて、ヒューリスティック分析により決定されてよい。 For example, the advertisement viewer number calculation unit 24B calculates the number of advertisement viewers using the advertisement viewer number calculation model 22B and the face angle or gaze angle of a person detected within the first detection area as a reference direction. Model 22B, the number of people detected for whom the advertising medium is located within a 120° field of view centered on the reference direction (that is, the advertising medium is located within 120° of the detected person's field of view), and the advertising surface of the advertising medium. The number of advertisement viewers may be calculated using walking line information of a person passing through an area within 120 degrees with respect to the center point of . Note that the correction coefficient may be determined by heuristic analysis based on walking line information of a person passing through an area of 120° from the center of the advertising surface of the advertising medium.

広告注視者数計算部24Cは、拡大推計モデル作成部22から出力された広告注視者数計算モデル22Cと、広告注視者数計算モデル22Cの作成に使用された検出情報とを用いて、広告注視者数を算出する。 The advertisement gazer number calculation unit 24C uses the advertisement gazer number calculation model 22C output from the expanded estimation model creation unit 22 and the detection information used to create the advertisement gazer number calculation model 22C. Calculate the number of people.

例えば、広告注視者数計算部24Cは、広告注視者数計算モデル22Cと、第1の検出エリア内で検出された人物のうち人物の顔角度あるいは視線角度を基準方向として、この基準方向を中心とする近接視野70°内に広告媒体が位置する(つまり、検出された人物の近接視野70°内に広告媒体が位置する)人物(つまり、広告注視者)の検出人数とを用いて、広告注視者数を算出してもよいし、広告注視者数計算モデル22Cと、基準方向を中心とする近接視野70°内に広告媒体が位置する人物の検出人数と、広告媒体の広告面の中心点を基準に近接視野70°内を通行する人物の歩行動線情報とを用いて、広告注視者数を算出してもよい。なお、補正係数は、近接視野70°内に広告媒体が位置する人物の検出情報の重回帰分析により決定されてもよいし、広告媒体の広告面の中心から70°のエリアを通過する人物の歩行動線情報に基づいて、ヒューリスティック分析により決定されてもよい。 For example, the advertisement gazer number calculation unit 24C uses the advertisement gazer number calculation model 22C and the face angle or line of sight angle of a person detected within the first detection area as a reference direction, and uses the advertisement gazer number calculation model 22C as a reference direction. The advertising medium is located within a 70° close field of view (that is, the advertising medium is located within a 70° close field of view of the detected person). The number of gazers may be calculated, or the advertisement gazer number calculation model 22C, the number of people detected for whom the advertising medium is located within a 70° close field of view centered on the reference direction, and the center of the advertising surface of the advertising medium may be calculated. The number of people gazing at an advertisement may be calculated using walking line information of a person passing within a 70° close field of view based on the point. Note that the correction coefficient may be determined by multiple regression analysis of detection information of a person whose advertising medium is located within a 70° close field of view, or may be determined by a multiple regression analysis of detection information of a person who is located within a 70° close field of view, or may be determined by a multiple regression analysis of detection information of a person who is located within a 70° field of view of the advertising medium. It may be determined by heuristic analysis based on walking line information.

広告注視時間数計算部24Dは、拡大推計モデル作成部22から出力された広告注視時間数計算モデル22Dと、広告注視時間数計算モデル22Dの作成に使用された検出情報とを用いて、広告注視時間を算出(計測)する。 The advertisement gaze time calculation unit 24D uses the advertisement gaze time calculation model 22D output from the expanded estimation model creation unit 22 and the detection information used to create the advertisement gaze time calculation model 22D. Calculate (measure) time.

記憶部の一例としてのメモリ25は、例えば制御部21の各処理を実行する際に用いられるワークメモリとしてのRAMと、制御部21の動作を規定したプログラムおよびデータを格納するROMとを有する。RAMには、制御部21により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、制御部21の動作を規定するプログラムが書き込まれている。メモリ25は、拡大推計モデル作成部22により作成された各種拡大推計モデルのそれぞれを広告媒体ごとに記憶する。また、メモリ25は、各種拡大推計モデルの作成に用いられる視認者基準,作成された拡大推計モデルの情報等を記憶する。なお、これら情報の一部又は全ては端末装置P1のメモリ14や外部のメモリに記憶されていてもよい。 The memory 25 as an example of a storage unit includes, for example, a RAM as a work memory used when executing each process of the control unit 21, and a ROM that stores programs and data that define the operation of the control unit 21. Data or information generated or acquired by the control unit 21 is temporarily stored in the RAM. A program that defines the operation of the control unit 21 is written in the ROM. The memory 25 stores each of the various expanded estimation models created by the expanded estimation model creation section 22 for each advertising medium. The memory 25 also stores viewer criteria used to create various expanded estimation models, information on the created expanded estimation models, and the like. Note that part or all of this information may be stored in the memory 14 of the terminal device P1 or an external memory.

拡大推計結果データベースDBは、RAMおよびROMなどによる半導体メモリと、SSD(Solid State Drive)あるいはHDD等によるストレージデバイスのうちいずれかを含む記憶デバイスを有して構成される。拡大推計結果データベースDBは、視認効果計測部23により推計された拡大推計結果を格納する。 The expanded estimation result database DB includes a storage device including a semiconductor memory such as a RAM and a ROM, and a storage device such as an SSD (Solid State Drive) or an HDD. The expanded estimation result database DB stores expanded estimation results estimated by the visibility effect measurement unit 23.

表示装置MNは、サーバS1との間でデータ送受信可能に接続される。なお、図1に示す表示装置MNは、ネットワークNWを介してサーバS1との間で無線通信可能に接続される例を示すが、サーバS1との間で有線通信可能に接続されるディスプレイであってもよい。表示装置MNは、例えばLCD(Liquid Crystal Display)または有機EL(Electroluminescence)等のディスプレイを有する、例えばPC、ノートPC、タブレット端末、スマートフォン等の端末装置である。表示装置MNは、サーバS1から送信された各推計結果画面(例えば、図8に示す推計結果画面SC1、図9に示す人物属性別推計結果画面SC2、あるいは図10に示す駅・曜日別推計結果画面SC3等)を出力(表示)する。 The display device MN is connected to the server S1 so as to be able to transmit and receive data. Note that the display device MN shown in FIG. 1 is an example connected to the server S1 via the network NW so as to be able to communicate wirelessly, but it is not a display that is connected to the server S1 so as to be capable of wired communication. It's okay. The display device MN is a terminal device such as a PC, a notebook PC, a tablet terminal, or a smartphone, which has a display such as an LCD (Liquid Crystal Display) or an organic EL (Electroluminescence). The display device MN displays each estimation result screen transmitted from the server S1 (for example, the estimation result screen SC1 shown in FIG. 8, the estimation result screen SC2 by person attribute shown in FIG. 9, or the estimation result by station/day of the week shown in FIG. 10). screen SC3, etc.) is output (displayed).

また、表示装置MNは、ユーザ操作を受け付け可能であって、ユーザ操作に基づいて、サーバS1から送信された推計結果画面のレイアウト変更操作(例えば、グラフ種別の変更、推計結果画面に表示される広告媒体数等)を受け付けたり、推計結果画面で表示される表示対象に関する選択操作(例えば、視認者数、時間、人物の属性情報、曜日、広告媒体の設置場所等)を受け付けたりする。 The display device MN is also capable of accepting user operations, and based on the user operations, the display device MN also performs a layout change operation of the estimation result screen transmitted from the server S1 (for example, changing the graph type, changing the layout displayed on the estimation result screen). number of advertising media, etc.), and selection operations related to display targets displayed on the estimation result screen (for example, number of viewers, time, attribute information of a person, day of the week, location of advertising media, etc.).

なお、以上の説明において、推計結果画面は、一例としてサーバS1により生成され、表示装置MNにより出力(表示)される例について説明するが、これに限定されない。例えば、推計結果画面は、表示装置MNにより生成されてもよい。このような場合、サーバS1は、拡大推計結果と、拡大推計された広告媒体に関する情報、広告媒体が設置された場所情報、拡大推計処理に用いられた情報(例えば、撮像映像,実測情報,検出情報等)等の推計結果画面の生成に用いられるデータを表示装置MNに送信することで、表示装置MNによる推計結果画面を生成可能にしてもよい。 Note that in the above description, an example will be described in which the estimation result screen is generated by the server S1 and output (displayed) by the display device MN, but the estimation result screen is not limited to this. For example, the estimation result screen may be generated by the display device MN. In such a case, the server S1 stores the expanded estimation results, information about the advertising media that has been expanded and estimated, information on the location where the advertising media is installed, and information used in the expanded estimation process (for example, captured video, actual measurement information, detected information, etc.). The display device MN may be able to generate the estimation result screen by transmitting data used to generate the estimation result screen, such as information, etc., to the display device MN.

次に、図6を参照して、広告効果推計システム100の動作手順について説明する。図6は、実施の形態1に係る広告効果推計システム100の動作手順例を示すフローチャートである。なお、図6に示すステップSt1~ステップSt2の処理は、カメラC1,…のそれぞれにより実行されてよい。また、カメラの台数は、少なくとも1台であればよい。 Next, with reference to FIG. 6, the operating procedure of the advertising effectiveness estimation system 100 will be described. FIG. 6 is a flowchart illustrating an example of the operation procedure of the advertising effectiveness estimation system 100 according to the first embodiment. Note that the processing of steps St1 to St2 shown in FIG. 6 may be executed by each of the cameras C1, . . . . Further, the number of cameras may be at least one.

カメラC1,…のそれぞれは、広告媒体に接触可能あるいは広告媒体を視認可能な第2の検出エリア(例えば、図3および図4に示す第2の検出エリアAR12,AR22のそれぞれ)の少なくとも一部を含む第1の検出エリア(例えば、図3および図4に示す第1の検出エリアAR11,AR21のそれぞれ)を撮像する。カメラC1,…のそれぞれは、撮像された撮像映像を端末装置P1に送信する。 Each of the cameras C1, . (For example, each of the first detection areas AR11 and AR21 shown in FIGS. 3 and 4) is imaged. Each of the cameras C1, . . . transmits captured images to the terminal device P1.

なお、広告効果推計システム100は、1台のカメラにより推計対象範囲である複数の広告媒体のそれぞれの第2の検出エリアの少なくとも一部を含む第1の検出エリアを撮像してもよいし、複数のカメラのそれぞれにより推計対象範囲である1つの広告媒体の第2の検出エリアの少なくとも一部を含む第1の検出エリアを撮像してもよい。また、広告効果推計システム100は、1以上のカメラのそれぞれにより推計対象範囲である1以上の広告媒体の第2の検出エリア全体を含む第1の検出エリアを撮像してもよい。 Note that the advertising effectiveness estimation system 100 may image a first detection area that includes at least a part of the second detection area of each of the plurality of advertising media that is the estimation target range using one camera, or Each of the plurality of cameras may image the first detection area that includes at least a portion of the second detection area of one advertising medium, which is the estimation target range. Further, the advertising effectiveness estimation system 100 may image a first detection area including the entire second detection area of one or more advertising media, which is an estimation target range, using each of one or more cameras.

また、広告視認者数、広告注視者数、あるいは広告注視時間等を推測する場合、カメラC1,…のそれぞれは、人物の顔を撮像可能な位置(例えば、広告媒体の周囲等)に設置されることが望ましいが、これに限定されなくてよい。 In addition, when estimating the number of people viewing advertisements, the number of people gazing at advertisements, or the length of time they gazed at advertisements, each of the cameras C1, ... should be installed at a position where it is possible to image a person's face (for example, around the advertising medium, etc.). Although it is desirable that the

端末装置P1の制御部11は、1以上のカメラC1,…のそれぞれから送信された撮像映像を取得する(St1)。人物検出部12は、取得された撮像映像から人物の検出処理を実行し、検出情報(例えば、視認者のそれぞれに該当する人物の検出人数,顔角度,視線角度,属性情報,位置情報,歩行動線情報等)を取得する(St2)。また、入力部16は、作業者による実測情報の入力を受け付ける。制御部11は、入力部16により受け付けられた実測情報を取得する(St2)。なお、事前に拡大推計モデル作成部22によって拡大推計モデルが作成済みの状態等のときは、実測情報の取得処理は必須でなく、省略されてもよい。制御部11は、取得された実測情報と、検出情報とを対応付けて、サーバS1に送信する。 The control unit 11 of the terminal device P1 acquires captured images transmitted from each of the one or more cameras C1, . . . (St1). The person detection unit 12 executes a person detection process from the acquired captured video, and collects detection information (for example, the number of people detected for each viewer, face angle, line of sight angle, attribute information, position information, walking distance, etc.). action line information, etc.) is acquired (St2). The input unit 16 also receives input of actual measurement information by the operator. The control unit 11 acquires the actual measurement information accepted by the input unit 16 (St2). Note that when the expanded estimation model has been created in advance by the expanded estimation model creation unit 22, the process of acquiring actual measurement information is not essential and may be omitted. The control unit 11 associates the acquired actual measurement information with the detection information and transmits them to the server S1.

サーバS1の制御部21は、端末装置P1から送信された実測情報と、検出情報を取得し、取得された実測情報と、検出情報とを用いて拡大推計モデルの作成処理を実行する(St3)。具体的には、広告媒体に接触可能、あるいは広告媒体を視認可能な範囲(例えば、図3および図4に示す検出エリアAR10,AR20)の人物に関する実測情報と、広告媒体の視認範囲の少なくとも一部を含む撮像範囲(例えば、図3および図4に示す第1の検出エリア)を撮像した撮像画像(撮像映像)に基づく検出情報である。制御部21は、人物検出処理により取得された検出情報と、端末装置P1から取得された検出情報とを用いて、拡大推計モデルの作成処理を実行する。 The control unit 21 of the server S1 acquires the actual measurement information and detection information transmitted from the terminal device P1, and executes an expanded estimation model creation process using the acquired actual measurement information and detection information (St3). . Specifically, at least one of the actual measurement information regarding the person in the range where the advertising medium can be contacted or visible (for example, detection areas AR10 and AR20 shown in FIGS. 3 and 4) and the visible range of the advertising medium is This is detection information based on a captured image (captured video) that captures an imaging range (for example, the first detection area shown in FIGS. 3 and 4) including the area. The control unit 21 executes an expanded estimation model creation process using the detection information acquired through the person detection process and the detection information acquired from the terminal device P1.

サーバS1の制御部21は、作成された拡大推計モデル(例えば、広告接触可能者数計算モデル22A,広告視認者数計算モデル22B,広告注視者数計算モデル22C,広告注視時間数計算モデル22D等)と、取得された検出情報とを用いて、広告媒体ごとの拡大推計処理を実行する(St4)。制御部21は、拡大推計処理により得られた視認者数あるいは視認時間等に基づいて、広告媒体ごとの各推計結果画面を生成し、表示装置MNに送信する。 The control unit 21 of the server S1 uses the created expanded estimation models (for example, a model for calculating the number of people who can contact an advertisement 22A, a model for calculating the number of people who view an advertisement 22B, a model for calculating the number of people who watch an advertisement 22C, a model for calculating the number of hours of advertisement viewing 22D, etc.). ) and the acquired detection information, an expanded estimation process for each advertising medium is executed (St4). The control unit 21 generates each estimation result screen for each advertising medium based on the number of viewers, viewing time, etc. obtained by the expanded estimation process, and transmits it to the display device MN.

表示装置MNは、サーバS1から送信された各推計結果画面を出力(表示)する(St5)。 The display device MN outputs (displays) each estimation result screen transmitted from the server S1 (St5).

以上により、実施の形態1に係る広告効果推計システム100は、カメラの検知範囲内に広告媒体が位置していない場合であっても、この広告媒体の広告効果を推計(推測)できる。したがって、広告効果推計システム100は、既に設置されたカメラの検知範囲内(つまり、第1の検出エリア)に広告媒体の第2の検知エリアの少なくとも一部が含まれる場合には、新たにカメラを設置したり、カメラの設置位置を変更したりすることなく、広告媒体の広告効果を推計(推測)できる。また、広告効果推計システム100は、カメラの検知範囲内(つまり、第1の検出エリア)に含まれる複数の第2の検知エリアのそれぞれに対応する広告媒体の広告効果を推計(推測)可能であるため、1つのカメラで複数の広告媒体のそれぞれの広告効果を推計(推測)できる。 As described above, the advertising effectiveness estimation system 100 according to the first embodiment can estimate (estimate) the advertising effectiveness of the advertising medium even if the advertising medium is not located within the detection range of the camera. Therefore, if at least a part of the second detection area of the advertising medium is included within the detection range of the already installed camera (that is, the first detection area), the advertising effectiveness estimation system 100 is able to add a new camera to the camera. The advertising effectiveness of advertising media can be estimated (estimated) without installing cameras or changing the camera installation position. Furthermore, the advertising effectiveness estimation system 100 can estimate (estimate) the advertising effectiveness of advertising media corresponding to each of the plurality of second detection areas included within the detection range of the camera (that is, the first detection area). Therefore, it is possible to estimate (estimate) the advertising effectiveness of multiple advertising media using one camera.

次に、図7を参照して、広告効果推計システム100の拡大推計モデル作成手順について説明する。図7は、実施の形態1に係る広告効果推計システム100の拡大推計モデル作成手順例を示すフローチャートである。なお、図7に示す拡大推計モデル作成手順は、図6に示すステップSt3の処理で実行される。 Next, with reference to FIG. 7, a procedure for creating an expanded estimation model of the advertising effectiveness estimation system 100 will be described. FIG. 7 is a flowchart illustrating an example of an expanded estimation model creation procedure of the advertising effectiveness estimation system 100 according to the first embodiment. Note that the expanded estimation model creation procedure shown in FIG. 7 is executed in the process of step St3 shown in FIG. 6.

サーバS1の制御部21は、端末装置P1から送信された作業者の目視により実測された視認者実測人数と、カメラC1,…のそれぞれにより検出された視認者検出人数とを取得する(St31)。 The control unit 21 of the server S1 acquires the actual number of viewers actually measured visually by the worker and the detected number of viewers detected by each of the cameras C1, ... (St31). .

拡大推計モデル作成部22は、人物検出処理により検出された検出人数を説明変数に、作業者の目視により実測された実測人数を目的変数にそれぞれ設定して、重回帰分析(つまり、機械学習)を実行する(St32)。なお、拡大推計モデルの作成方法はこれに限定されないことは言うまでもない。例えば、機械学習ではなくヒューリスティックに係数を決定してもよい。 The expanded estimation model creation unit 22 sets the number of people detected by the person detection process as an explanatory variable and the number of people actually measured visually by the worker as an objective variable, and performs multiple regression analysis (that is, machine learning). (St32). It goes without saying that the method for creating the expanded estimation model is not limited to this. For example, the coefficients may be determined using heuristics rather than machine learning.

拡大推計モデル作成部22は、機械学習を実行し、1以上の拡大推計モデル(例えば、広告接触可能者数計算モデル22A,広告視認者数計算モデル22B,広告注視者数計算モデル22C,広告注視時間数計算モデル22D等)を作成する(St33)。 The expanded estimation model creation unit 22 executes machine learning and creates one or more expanded estimation models (for example, a model 22A for calculating the number of people who can be exposed to advertisements, a model 22B for calculating the number of people viewing advertisements, a model 22C for calculating the number of people watching advertisements, and a model for calculating the number of people watching advertisements). A time calculation model 22D, etc.) is created (St33).

次に、図8を参照して、推計結果画面SC1について説明する。図8は、広告効果の実測値と推測値とを比較する推計結果画面SC1の一例を説明する図である。 Next, the estimation result screen SC1 will be explained with reference to FIG. FIG. 8 is a diagram illustrating an example of an estimation result screen SC1 that compares the measured value and the estimated value of advertising effectiveness.

推計結果画面SC1は、拡大推計結果の一例であって、広告接触可能者数計算モデル22Aを用いて推計(推測)された1日あたりの平均広告接触可能者数(つまり、推測値)と、作業者の目視確認により実測された1日あたりの平均広告接触可能者数(つまり、実測値)とを比較するための棒グラフであって、縦軸に1日あたりの平均広告接触可能者数を示し、横軸に曜日を示す。これにより、広告効果推計システム100は、実測値と推計値との差分をユーザに可視化することができる。 The estimation result screen SC1 is an example of the expanded estimation result, and shows the average number of people who can be contacted by advertisements per day (in other words, an estimated value) estimated (estimated) using the number of people who can be contacted by advertisements calculation model 22A, This is a bar graph for comparing the average number of people who can be exposed to advertisements per day (in other words, the actual measurement value) as measured by visual confirmation by workers, and the vertical axis shows the average number of people who can be exposed to advertisements per day. and the day of the week is shown on the horizontal axis. Thereby, the advertising effectiveness estimation system 100 can visualize the difference between the actual value and the estimated value to the user.

次に、図9参照して、人物属性別推計結果画面SC2について説明する。図9は、広告効果の人物属性別推計結果画面SC2の一例を説明する図である。 Next, the person attribute-based estimation result screen SC2 will be described with reference to FIG. FIG. 9 is a diagram illustrating an example of the advertising effectiveness estimation result screen SC2 by person attribute.

人物属性別推計結果画面SC2は、拡大推計結果の一例であって、広告接触可能者数計算モデル22Aを用いて推計(推測)された1日あたりの平均広告接触可能者数(つまり、推測値)を、人物の属性情報である年齢情報に基づいて、人物属性別、時間帯別に分類した棒グラフと、広告視認者数計算モデル22Bを用いて推計(推測)された平均広告視認者数を平均広告接触可能者数で除算して得られる広告媒体の視認率を示す線グラフとで示す。なお、図9に示す人物属性別推計結果画面SC2は、属性情報が「男性」である人物を年代別、時間帯別に分類した拡大推計結果である。 The estimation result screen SC2 by person attribute is an example of the expanded estimation result, and shows the average number of people who can be exposed to advertisements per day (in other words, the estimated value) estimated (estimated) using the number of people who can be exposed to advertisements calculation model 22A. ), based on the person's age information, which is the attribute information of the person, and the average number of advertisement viewers estimated (estimated) using a bar graph classified by person attribute and time of day and the number of advertisement viewers calculation model 22B. It is shown as a line graph showing the visibility rate of the advertising medium obtained by dividing by the number of people who can contact the advertisement. Note that the person attribute-specific estimation result screen SC2 shown in FIG. 9 is an expanded estimation result in which persons whose attribute information is "male" are classified by age group and time zone.

人物属性別推計結果画面SC2は、縦軸が1日あたりの平均広告接触可能者数と広告媒体の視認率とを示し、横軸が時間帯をそれぞれ示す。これにより、広告効果推計システム100は、時間帯別、人物属性別の拡大推計結果(広告効果)をユーザに可視化することができる。 In the person attribute-specific estimation result screen SC2, the vertical axis indicates the average number of people who can contact the advertisement per day and the visibility rate of the advertising medium, and the horizontal axis indicates the time period. Thereby, the advertising effectiveness estimation system 100 can visualize to the user the expanded estimation results (advertising effectiveness) by time period and by person attribute.

また、人物属性別推計結果画面SC2は、人物属性別推計結果画面SC2に表示される拡大推計結果に関する指定操作を受け付け可能な表示対象選択欄SL1,SL2,SL3のそれぞれを含む。 Furthermore, the person attribute-based estimation result screen SC2 includes display target selection fields SL1, SL2, and SL3 that can accept designation operations regarding the expanded estimation results displayed on the person attribute-based estimation result screen SC2.

表示対象選択欄SL1は、表示対象である広告媒体の指定操作を受け付ける。図9に示す例において表示対象選択欄SL1は、「B駅」に設置された広告媒体が指定されている。 The display target selection field SL1 accepts an operation for specifying an advertising medium to be displayed. In the example shown in FIG. 9, the display target selection field SL1 specifies advertising media installed at "B station".

表示対象選択欄SL2は、拡大推計に用いられた検出情報の検出日時として平日または休日の指定操作を受け付ける。図9に示す例において表示対象選択欄SL2は、「平日」が指定されている。 The display target selection field SL2 accepts an operation for specifying a weekday or a holiday as the detection date and time of the detection information used for the expanded estimation. In the example shown in FIG. 9, "weekdays" is specified in the display target selection column SL2.

表示対象選択欄SL3は、拡大推計に用いられた検出情報の検出日時として曜日あるいは日時の指定操作を受け付ける。図9に示す例において表示対象選択欄SL3は、「すべて」(つまり、月曜日~日曜日)が指定されている。具体的に、月曜日にのみチェックを入れると月曜日のデータのみが表示される。なお、休日の定義は任意で設定できる(例えば、休日に祝日を含む、あるいは含まない等)。 The display target selection field SL3 accepts an operation for specifying the day of the week or the date and time as the detection date and time of the detection information used in the expanded estimation. In the example shown in FIG. 9, "all" (that is, Monday to Sunday) is specified in the display target selection field SL3. Specifically, if you check only Monday, only Monday's data will be displayed. Note that the definition of holidays can be set arbitrarily (for example, holidays include or do not include holidays, etc.).

次に、図10を参照して、駅・曜日別推計結果画面SC3について説明する。図10は、広告効果の駅・曜日別推計結果画面SC3の一例を説明する図である。 Next, with reference to FIG. 10, the station/day-of-week estimation result screen SC3 will be described. FIG. 10 is a diagram illustrating an example of the advertising effect estimation result screen SC3 by station and day of the week.

駅・曜日別推計結果画面SC3は、拡大推計結果の一例であって、広告接触可能者数計算モデル22Aを用いて推計(推測)された1日あたりの平均広告接触可能者数(つまり、推測値)を曜日別に分類した棒グラフと、広告視認者数計算モデル22Bを用いて推計(推測)された平均広告視認者数を平均広告接触可能者数で除算して得られる広告媒体の視認率を示す線グラフとで示す。また、図10に示す駅・曜日別推計結果画面SC3は、「A駅」に設置された広告媒体の拡大推計結果ST1と、「B駅」に設置された広告媒体の拡大推計結果ST2とを並べて表示する。これにより、ユーザは、異なる場所に設置された2つの広告媒体の拡大推計結果ST1,ST2のそれぞれを一目で比較できる。 The estimation result screen SC3 by station and day of the week is an example of the expanded estimation result, and shows the average number of people who can be exposed to advertisements per day (in other words, estimated) using the calculation model 22A for calculating the number of people who can be exposed to advertisements. The visibility rate of the advertising medium, which is obtained by dividing the average number of advertisement viewers estimated (estimated) using the bar graph classified by day of the week and the number of advertisement viewers calculation model 22B, by the average number of people who can contact the advertisement. This is shown in the line graph shown below. In addition, the station/day-of-week estimation result screen SC3 shown in FIG. Display side by side. This allows the user to compare at a glance the enlarged estimation results ST1 and ST2 of two advertising media installed at different locations.

駅・曜日別推計結果画面SC3は、縦軸が1日あたりの平均広告接触可能者数と広告媒体の視認率とを示し、横軸が時間帯をそれぞれ示す。これにより、広告効果推計システム100は、時間帯別、人物属性別の拡大推計結果(広告効果)をユーザに可視化することができる。 In the estimation result screen SC3 by station and day of the week, the vertical axis shows the average number of people who can contact the advertisement per day and the visibility rate of advertising media, and the horizontal axis shows the time of day. Thereby, the advertising effectiveness estimation system 100 can visualize to the user the expanded estimation results (advertising effectiveness) by time period and by person attribute.

以上により、実施の形態1に係るサーバS1(広告効果推計サーバの一例)は、広告媒体を視聴可能な検出エリアAR10,AR20(視聴エリアの一例)の少なくとも一部を含む第1の検出エリアAR11,AR21(撮像エリアの一例)を撮像する少なくとも1つのカメラC1,…により撮像された撮像映像と、撮像映像から検出された人物に関する第1の検出情報とを取得する通信部20(取得部の一例)と、第1の検出情報と検出エリアAR10,AR20の人物に関する第2の検出情報とに基づいて、検出エリアAR10,AR20における広告媒体AD11,AD21の広告効果を推計する拡大推計モデルを作成する拡大推計モデル作成部22(モデル作成部の一例)と、拡大推計モデルと第1の検出情報とを用いて、広告効果を推計して出力する視認効果計測部23(広告効果推計部の一例)と、を備える。なお、ここでいう1以上のコンピュータは、例えば、少なくともサーバS1を含んで構成される。 As described above, the server S1 according to Embodiment 1 (an example of an advertising effectiveness estimation server) operates in a first detection area AR11 that includes at least a portion of detection areas AR10 and AR20 (an example of a viewing area) where advertising media can be viewed. , AR21 (an example of an imaging area), the communication unit 20 (of the acquisition unit) acquires the captured video captured by at least one camera C1, . . . An expanded estimation model is created to estimate the advertising effectiveness of advertising media AD11, AD21 in detection areas AR10, AR20 based on the first detection information and the second detection information regarding people in detection areas AR10, AR20. An expanded estimation model creation unit 22 (an example of a model creation unit) that estimates and outputs advertising effectiveness using the expanded estimation model and the first detection information, and a visibility effect measurement unit 23 (an example of an advertising effectiveness estimation unit) ) and. Note that the one or more computers referred to here include, for example, at least the server S1.

これにより、実施の形態1に係るサーバS1は、カメラC1,…により撮像された撮像映像と、撮像映像(つまり、カメラC1,…の検知範囲内であって、第1の検出エリアAR11,AR21の範囲)から検出された検出情報とを用いて作成された拡大推計モデルを用いて、広告媒体を視認可能な視認エリア(つまり、カメラC1,…の検知範囲外を含む検出エリアAR10,AR20の範囲)を通過する人物に対する広告媒体の広告効果を推計できる。つまり、サーバS1は、カメラC1,…の検知範囲内(第1の検出エリアAR11,AR21)に広告媒体を視認可能な検出エリアAR10,AR20の全範囲が含まれない場合であっても、カメラの検知範囲外における広告の広告効果をより高精度に推計できる。 As a result, the server S1 according to the first embodiment can detect the captured images captured by the cameras C1, . . . and the captured images (that is, within the detection range of the cameras C1, . Using an expanded estimation model created using the detection information detected from the detection information detected from the detection range of the camera C1,... It is possible to estimate the advertising effectiveness of advertising media for people who pass through the following range. In other words, the server S1 detects the detection range of the cameras C1, ... even if the detection range (the first detection areas AR11, AR21) does not include the entire range of the detection areas AR10, AR20 where advertising media can be viewed. The advertising effectiveness of advertisements outside the detection range can be estimated with higher accuracy.

また、以上により、実施の形態1における第1の検出情報および第2の検出情報は、人物の検出人数を含む。通信部20は、第1の検出情報を取得する。拡大推計モデル作成部22は、第1の検出情報と第2の検出情報とを用い、広告媒体の広告効果を推計する拡大推計モデルを生成する。これにより、実施の形態1に係るサーバS1は、撮像映像に映る人物の正しい人数と、人物検出部12により検出された撮像映像に映る人物の検出人数とを用いて、人物検出部12による人物の検出誤差を学習した拡大推計モデルを生成できる。したがって、サーバS1は、カメラの検知範囲外における広告の広告効果をより高精度に推計できる。 Further, as described above, the first detection information and the second detection information in the first embodiment include the number of detected people. The communication unit 20 acquires the first detection information. The expanded estimation model creation unit 22 uses the first detection information and the second detection information to generate an expanded estimation model for estimating the advertising effectiveness of advertising media. As a result, the server S1 according to the first embodiment uses the correct number of people appearing in the captured video and the detected number of people appearing in the captured video detected by the person detection unit 12 to detect the number of people detected by the person detection unit 12. It is possible to generate an expanded estimation model that has learned the detection error of . Therefore, the server S1 can estimate the advertising effect of the advertisement outside the detection range of the camera with higher accuracy.

また、以上により、実施の形態1に係るサーバS1の視認効果計測部23は、拡大推計モデルと第1の検出情報とを用いて推測値(第1の広告効果の一例であって、例えば、図8に示す広告接触可能者数の推測値)を推計して出力する。これにより、実施の形態1に係るサーバS1は、ユーザに推計された広告効果(例えば、広告接触可能者数の推測値)を出力できる。 Further, as described above, the visibility effect measurement unit 23 of the server S1 according to the first embodiment uses the expanded estimation model and the first detection information to obtain an estimated value (an example of the first advertising effect, for example, The estimated value of the number of people who can contact the advertisement shown in FIG. 8 is estimated and output. Thereby, the server S1 according to the first embodiment can output the estimated advertising effect (for example, the estimated number of people who can contact the advertisement) to the user.

また、以上により、実施の形態1に係るサーバS1より取得される第1の検出情報は、人物の位置情報を含む。拡大推計モデル作成部22は、広告媒体と人物との間の距離(例えば、広告媒体の広告面と人物との間の距離)に基づいて、異なる広告効果(例えば、広告接触可能者数、広告視認者数、あるいは広告注視者数等)を推計する拡大推計モデルを作成する。視認効果計測部23は、拡大推計モデルと第1の検出情報とを用いて、広告効果を推計して出力する。これにより、実施の形態1に係るサーバS1は、拡大推計モデルを用いて、複数の広告効果をそれぞれより高精度に推計できる。 Further, as described above, the first detection information acquired from the server S1 according to the first embodiment includes position information of a person. The expanded estimation model creation unit 22 generates different advertising effects (for example, the number of people who can contact the advertisement, the advertisement Create an expanded estimation model to estimate the number of viewers, number of people watching advertisements, etc. The visual recognition effect measurement unit 23 estimates and outputs the advertising effect using the expanded estimation model and the first detection information. Thereby, the server S1 according to the first embodiment can estimate each of the plurality of advertising effects with higher accuracy using the expanded estimation model.

また、以上により、実施の形態1に係るサーバS1より取得される第1の検出情報は、人物の位置情報と人物の顔角度情報とを含む。拡大推計モデル作成部22は、撮像映像と、広告媒体に対する人物の位置情報(例えば、広告媒体に対する人物の位置、広告媒体の広告面と人物との間の距離)および人物の顔角度情報(例えば、人物の顔角度あるいは視線角度等)に基づいて、異なる広告効果(例えば、広告視認者数、あるいは広告注視者数等)を推計する拡大推計モデルを作成する。視認効果計測部23は、拡大推計モデルと第1の検出情報とを用いて、広告効果(例えば、広告視認者数、あるいは広告注視者数等)を推計して出力する。これにより、実施の形態1に係るサーバS1は、拡大推計モデルを用いて、複数の広告効果をそれぞれより高精度に推計できる。なお、顔角度は、視線角度であってもよいし、両方でもよい。 Further, as described above, the first detection information acquired from the server S1 according to the first embodiment includes the position information of the person and the face angle information of the person. The enlarged estimation model creation unit 22 extracts the captured video, the position information of the person relative to the advertising medium (e.g., the position of the person relative to the advertising medium, the distance between the advertising surface of the advertising medium and the person), and the face angle information of the person (e.g. , a person's face angle, line of sight angle, etc.), an expanded estimation model is created to estimate different advertising effects (for example, the number of people viewing the advertisement or the number of people gazing at the advertisement). The visibility effect measuring unit 23 estimates and outputs the advertising effect (for example, the number of people viewing the advertisement or the number of people watching the advertisement) using the expanded estimation model and the first detection information. Thereby, the server S1 according to the first embodiment can estimate each of the plurality of advertising effects with higher precision using the expanded estimation model. Note that the face angle may be the line of sight angle or both.

また、以上により、実施の形態1に係るサーバS1により取得される検出情報は、人物の位置情報と第1の検出エリアにおける人物の動線情報とを含む。拡大推計モデル作成部22は、広告媒体と人物との間の距離および人物の動線情報に基づいて、異なる広告効果(例えば、広告視認者数、あるいは広告注視者数等)を推計する複数の拡大推計モデルを作成する。視認効果計測部23は、複数の拡大推計モデルと検出情報とを用いて、複数の広告効果を推計して出力する。これにより、実施の形態1に係るサーバS1は、拡大推計モデルを用いて、複数の広告効果をそれぞれより高精度に推計できる。 Further, as described above, the detection information acquired by the server S1 according to the first embodiment includes the position information of the person and the flow line information of the person in the first detection area. The expanded estimation model creation unit 22 uses a plurality of models to estimate different advertising effects (for example, the number of advertisement viewers or the number of advertisement viewers) based on the distance between the advertising medium and the person and the flow line information of the person. Create an expanded estimation model. The visibility effect measuring unit 23 estimates and outputs a plurality of advertising effects using a plurality of enlarged estimation models and detection information. Thereby, the server S1 according to the first embodiment can estimate each of the plurality of advertising effects with higher accuracy using the expanded estimation model.

また、以上により、実施の形態1に係るサーバS1により取得される第1の検出情報は、人物の位置情報を含む。拡大推計モデル作成部22は、人物の位置情報に基づいて、人物が視聴エリアに滞在した滞在時間を検出された人物ごとに計測し、計測された滞在時間を用いて、滞在時間に基づく広告効果(例えば、注視時間等)を推計する拡大推計モデルを作成する。視認効果計測部23は、拡大推計モデルと滞在時間とを用いて、広告効果を推計して出力する。これにより、実施の形態1に係るサーバS1は、拡大推計モデルを用いて、広告効果の一例としての注視時間等をそれぞれより高精度に推計できる。 Further, as described above, the first detection information acquired by the server S1 according to the first embodiment includes position information of a person. The expanded estimation model creation unit 22 measures the length of time a person stayed in the viewing area for each detected person based on the location information of the person, and uses the measured length of stay to calculate advertising effectiveness based on the length of stay. Create an expanded estimation model for estimating (for example, gaze time, etc.). The visibility effect measurement unit 23 estimates and outputs the advertising effect using the expanded estimation model and the length of stay. Thereby, the server S1 according to the first embodiment can estimate the gaze time and the like as an example of advertising effectiveness with higher precision using the expanded estimation model.

また、以上により、実施の形態1に係るサーバS1は、広告媒体が設置された設置場所の環境情報と、設置場所ごとに設定され、環境情報に基づいて、広告効果を計測する拡大推計モデルとを記憶するメモリ25(記憶部の一例)、をさらに備える。視認効果計測部23は、広告媒体の設置場所に対応する拡大推計モデルを用いて広告効果を推計して出力する。これにより、実施の形態1に係るサーバS1は、広告媒体が設置された設置場所の環境情報に基づく拡大推計モデルを用いることで、広告効果をより高精度に推計できる。 In addition, as described above, the server S1 according to the first embodiment uses the environmental information of the installation location where the advertising medium is installed and the expanded estimation model that is set for each installation location and measures advertising effectiveness based on the environmental information. The device further includes a memory 25 (an example of a storage unit) that stores . The visibility effect measurement unit 23 estimates and outputs the advertising effect using an expanded estimation model corresponding to the installation location of the advertising medium. Thereby, the server S1 according to the first embodiment can estimate the advertising effect with higher accuracy by using the expanded estimation model based on the environmental information of the installation location where the advertising medium is installed.

また、以上により、実施の形態1に係るサーバS1における視認効果計測部23は、メモリ25に広告媒体の設置場所に対応する拡大推計モデルが記憶されていないと判定した場合、設置場所の環境情報と類似する環境情報を有する他の設置場所を選定し、選定された他の設置場所に対応する拡大推計モデルを用いて、広告効果を推計して出力する。これにより、実施の形態1に係るサーバS1は、類似する設置場所に設置された広告媒体の広告効果の推定に用いられる環境補正係数を、広告媒体の広告効果を推計する拡大推計モデルに適用することにより、広告効果をより高精度に推計できる。 Further, as described above, when the visibility effect measuring unit 23 in the server S1 according to the first embodiment determines that the expanded estimation model corresponding to the installation location of the advertising medium is not stored in the memory 25, the environmental information of the installation location Another installation location having environmental information similar to that of the other installation location is selected, and an expanded estimation model corresponding to the other selected installation location is used to estimate and output the advertising effect. As a result, the server S1 according to the first embodiment applies the environmental correction coefficient used for estimating the advertising effectiveness of advertising media installed in similar installation locations to the expanded estimation model for estimating the advertising effectiveness of advertising media. By doing so, advertising effectiveness can be estimated with higher accuracy.

また、以上により、実施の形態1に係るサーバS1により取得される第1の検出情報は、人物の属性情報を含む。視認効果計測部23は、拡大推計モデルと第1の検出情報とを用いて、広告効果を推計し、推計された広告効果を人物の属性情報(例えば、性別,年代別等)ごとに出力する。これにより、実施の形態1に係るサーバS1は、機拡大推計モデルを用いて、属性情報ごとの広告効果を推計できる。つまり、ユーザは、推計された広告効果に基づいて、各広告媒体に掲示される広告内容をより効果的に選定できる。 Further, as described above, the first detection information acquired by the server S1 according to the first embodiment includes attribute information of a person. The visibility effect measurement unit 23 estimates the advertising effect using the expanded estimation model and the first detection information, and outputs the estimated advertising effect for each person's attribute information (for example, gender, age group, etc.) . Thereby, the server S1 according to the first embodiment can estimate the advertising effect for each attribute information using the expanded estimation model. That is, the user can more effectively select advertisement content to be posted on each advertising medium based on the estimated advertising effectiveness.

また、以上により、実施の形態1に係るサーバS1により取得される第1の検出情報は、人物が検出された検出時刻情報を含む。視認効果計測部23は、拡大推計モデルと第1の検出情報とを用いて、広告効果を推計し、検出時刻情報に基づいて、推計された広告効果を時間帯別に出力する。これにより、実施の形態1に係るサーバS1は、拡大推計モデルを用いて、時間帯ごとの広告効果を推計できる。つまり、ユーザは、推計された広告効果に基づいて、各広告媒体に掲示される広告内容をより効果的に選定できる。 Further, as described above, the first detection information acquired by the server S1 according to the first embodiment includes detection time information at which a person was detected. The visibility effect measuring unit 23 estimates the advertising effectiveness using the expanded estimation model and the first detection information, and outputs the estimated advertising effectiveness for each time period based on the detection time information. Thereby, the server S1 according to the first embodiment can estimate the advertising effectiveness for each time period using the expanded estimation model. That is, the user can more effectively select advertisement content to be posted on each advertising medium based on the estimated advertising effectiveness.

以上、添付図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても本開示の技術的範囲に属すると了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。 Although various embodiments have been described above with reference to the accompanying drawings, the present disclosure is not limited to such examples. It is clear that those skilled in the art can come up with various changes, modifications, substitutions, additions, deletions, and equivalents within the scope of the claims, and It is understood that it falls within the technical scope of the present disclosure. Further, each of the constituent elements in the various embodiments described above may be arbitrarily combined without departing from the spirit of the invention.

本開示は、カメラの検知範囲外における広告の広告効果をより高精度に推計する広告効果推計サーバ、広告効果推計方法および広告効果推計プログラムの提示として有用である。 The present disclosure is useful as a presentation of an advertising effectiveness estimation server, an advertising effectiveness estimation method, and an advertising effectiveness estimation program that more accurately estimate the advertising effectiveness of advertisements outside the detection range of a camera.

10,20 通信部
11,21 制御部
12 人物検出部
13A 顔検出部
13B 人検出部
14,25 メモリ
15 表示部
16 入力部
22 拡大推計モデル作成部
23 視認効果計測部
24 拡大推計部
100 広告効果推計システム
AD11,AD21 広告媒体
AR11,AR21 第1の検出エリア
AR12,AR22 第2の検出エリア
C1,C11,C21 カメラ
MN 表示装置
NW ネットワーク
10, 20 Communication section 11, 21 Control section 12 Person detection section 13A Face detection section 13B Person detection section 14, 25 Memory 15 Display section 16 Input section 22 Expanded estimation model creation section 23 Visibility effect measurement section 24 Expanded estimation section 100 Advertising effect Estimation system AD11, AD21 Advertising medium AR11, AR21 First detection area AR12, AR22 Second detection area C1, C11, C21 Camera MN Display device NW Network

Claims (13)

広告媒体を視聴可能な視聴エリアの少なくとも一部を含む撮像エリアを撮像する少なくとも1つのカメラにより撮像された撮像映像と、前記撮像映像から検出された人物に関する第1の検出情報とを取得する取得部と、
前記第1の検出情報と前記視聴エリアの人物に関する第2の検出情報とに基づいて、前記視聴エリアにおける前記広告媒体の広告効果を推計する拡大推計モデルを作成するモデル作成部と、
前記拡大推計モデルと前記第1の検出情報とを用いて、前記広告効果を推計して出力する広告効果推計部と、を備える、
広告効果推計サーバ。
Obtaining a captured image captured by at least one camera that captures an image capturing area including at least a part of a viewing area where advertising media can be viewed, and first detection information regarding a person detected from the captured image. Department and
a model creation unit that creates an expanded estimation model that estimates an advertising effect of the advertising medium in the viewing area based on the first detection information and second detection information regarding the person in the viewing area;
an advertising effectiveness estimation unit that estimates and outputs the advertising effectiveness using the expanded estimation model and the first detection information;
Advertising effectiveness estimation server.
前記第1の検出情報及び第2の検出情報は、前記人物の検出人数を含み、
前記取得部は、
前記第1の検出情報を取得し、
前記モデル作成部は、
前記第1の検出情報と前記第2の検出情報とを用いて、前記広告媒体の前記広告効果を推計する前記拡大推計モデルを生成する、
請求項1に記載の広告効果推計サーバ。
The first detection information and the second detection information include the number of people detected,
The acquisition unit includes:
obtaining the first detection information;
The model creation section includes:
generating the expanded estimation model for estimating the advertising effectiveness of the advertising medium using the first detection information and the second detection information;
The advertising effectiveness estimation server according to claim 1.
前記広告効果推計部は、
前記拡大推計モデルと前記第1の検出情報とを用いて第1の広告効果を推計して出力する、
請求項2に記載の広告効果推計サーバ。
The advertising effectiveness estimation department is
estimating and outputting a first advertising effect using the expanded estimation model and the first detection information;
The advertising effectiveness estimation server according to claim 2.
前記第1の検出情報は、前記人物の位置情報を含み、
前記モデル作成部は、
前記広告媒体と前記人物との間の距離に基づいて、異なる前記広告効果を推計する拡大推計モデルを作成し、
前記広告効果推計部は、
前記拡大推計モデルと前記第1の検出情報とを用いて、前記広告効果を推計して出力する、
請求項1に記載の広告効果推計サーバ。
The first detection information includes position information of the person,
The model creation section includes:
creating an expanded estimation model that estimates different advertising effects based on the distance between the advertising medium and the person;
The advertising effectiveness estimation department is
estimating and outputting the advertising effect using the expanded estimation model and the first detection information;
The advertising effectiveness estimation server according to claim 1.
前記第1の検出情報は、前記人物の位置情報と前記人物の顔角度情報とを含み、
前記モデル作成部は、
前記広告媒体に対する前記人物の位置情報および前記人物の顔角度情報に基づいて、異なる前記広告効果を推計する拡大推計モデルを作成し、
前記広告効果推計部は、
前記拡大推計モデルと前記第1の検出情報とを用いて、前記広告効果を推計して出力する、
請求項1に記載の広告効果推計サーバ。
The first detection information includes position information of the person and face angle information of the person,
The model creation section includes:
creating an expanded estimation model for estimating different advertising effects based on position information of the person with respect to the advertising medium and face angle information of the person;
The advertising effectiveness estimation department is
estimating and outputting the advertising effect using the expanded estimation model and the first detection information;
The advertising effectiveness estimation server according to claim 1.
前記第1の検出情報は、前記人物の位置情報と前記撮像エリアにおける前記人物の動線情報とを含み、
前記モデル作成部は、
前記広告媒体と前記人物との間の距離および前記人物の動線情報に基づいて、異なる前記広告効果を推計する拡大推計モデルを作成し、
前記広告効果推計部は、
前記拡大推計モデルと前記検出情報とを用いて、前記広告効果を推計して出力する、
請求項1に記載の広告効果推計サーバ。
The first detection information includes position information of the person and flow line information of the person in the imaging area,
The model creation section includes:
creating an expanded estimation model that estimates different advertising effects based on the distance between the advertising medium and the person and the flow line information of the person;
The advertising effectiveness estimation department is
estimating and outputting the advertising effect using the expanded estimation model and the detected information;
The advertising effectiveness estimation server according to claim 1.
前記第1の検出情報は、前記人物の位置情報を含み、
前記モデル作成部は、
前記人物の位置情報に基づいて、前記人物が前記視聴エリアに滞在した滞在時間を前記人物ごとに計測し、
計測された前記滞在時間を用いて、前記滞在時間に基づく広告効果を推計する拡大推計モデルを作成し、
前記広告効果推計部は、
前記拡大推計モデルと前記滞在時間とを用いて、前記広告効果を推計して出力する、
請求項1に記載の広告効果推計サーバ。
The first detection information includes position information of the person,
The model creation section includes:
Measuring the length of time the person stayed in the viewing area based on the location information of the person,
Using the measured stay time, create an expanded estimation model that estimates advertising effectiveness based on the stay time,
The advertising effectiveness estimation department is
estimating and outputting the advertising effect using the expanded estimation model and the stay time;
The advertising effectiveness estimation server according to claim 1.
前記広告媒体が設置された設置場所の環境情報と、前記設置場所ごとに設定され、前記環境情報に基づいて、前記広告効果を計測する前記拡大推計モデルとを記憶する記憶部、をさらに備え、
前記広告効果推計部は、
前記広告媒体の前記設置場所に対応する前記拡大推計モデルを用いて前記広告効果を推計して出力する、
請求項1に記載の広告効果推計サーバ。
further comprising a storage unit that stores environmental information of the installation location where the advertising medium is installed, and the expanded estimation model that is set for each installation location and measures the advertising effectiveness based on the environmental information,
The advertising effectiveness estimation department is
estimating and outputting the advertising effect using the expanded estimation model corresponding to the installation location of the advertising medium;
The advertising effectiveness estimation server according to claim 1.
前記広告効果推計部は、
前記記憶部に前記広告媒体の前記設置場所に対応する前記拡大推計モデルが記憶されていないと判定した場合、前記設置場所の前記環境情報と類似する環境情報を有する他の設置場所を選定し、選定された他の設置場所に対応する前記拡大推計モデルを用いて前記広告効果を推計して出力する、
請求項8に記載の広告効果推計サーバ。
The advertising effectiveness estimation department is
If it is determined that the expanded estimation model corresponding to the installation location of the advertising medium is not stored in the storage unit, selecting another installation location having environmental information similar to the environmental information of the installation location; estimating and outputting the advertising effect using the expanded estimation model corresponding to the other selected installation location;
The advertising effect estimation server according to claim 8.
前記第1の検出情報は、前記人物の属性情報を含み、
前記広告効果推計部は、
前記拡大推計モデルと前記第1の検出情報とを用いて、前記広告効果を推計し、
推計された前記広告効果を前記人物の属性情報ごとに出力する、
請求項1に記載の広告効果推計サーバ。
The first detection information includes attribute information of the person,
The advertising effectiveness estimation department is
estimating the advertising effect using the expanded estimation model and the first detection information;
outputting the estimated advertising effect for each attribute information of the person;
The advertising effectiveness estimation server according to claim 1.
前記第1の検出情報は、前記人物が検出された検出時刻情報を含み、
前記広告効果推計部は、
前記拡大推計モデルと前記第1の検出情報とを用いて、前記広告効果を推計し、
前記検出時刻情報に基づいて、推計された前記広告効果を時間帯別に出力する、
請求項1に記載の広告効果推計サーバ。
The first detection information includes detection time information when the person was detected,
The advertising effectiveness estimation department is
estimating the advertising effect using the expanded estimation model and the first detection information;
outputting the estimated advertising effectiveness by time zone based on the detection time information;
The advertising effectiveness estimation server according to claim 1.
広告媒体を視聴可能な視聴エリアの少なくとも一部を含む撮像エリアを撮像する少なくとも1つのカメラとの間で通信可能な1以上のコンピュータが実行する広告効果推計方法であって、
前記カメラにより撮像された撮像映像と、前記撮像映像から検出された人物に関する第1の検出情報とを取得し、
前記第1の検出情報と前記視聴エリアの人物に関する第2の検出情報とに基づいて、前記視聴エリアにおける前記広告媒体の広告効果を推計する拡大推計モデルを作成し、
作成された前記拡大推計モデルと前記第1の検出情報とを用いて、前記広告効果を推計して出力する、
広告効果推計方法。
An advertising effectiveness estimation method executed by one or more computers capable of communicating with at least one camera that captures an imaging area that includes at least a portion of a viewing area where advertising media can be viewed, the method comprising:
acquiring a captured video captured by the camera and first detection information regarding a person detected from the captured video;
creating an expanded estimation model for estimating the advertising effectiveness of the advertising medium in the viewing area based on the first detection information and second detection information regarding the person in the viewing area;
estimating and outputting the advertising effect using the created expanded estimation model and the first detection information;
Advertising effectiveness estimation method.
広告媒体を視聴可能な視聴エリアの少なくとも一部を含む撮像エリアを撮像する少なくとも1つのカメラとの間で通信可能な1以上のコンピュータにより実行される広告効果推計プログラムであって、
前記カメラにより撮像された撮像映像と、前記撮像映像から検出された人物に関する第1の検出情報とを取得するステップと、
前記第1の検出情報と前記視聴エリアの人物に関する第2の検出情報とに基づいて、前記視聴エリアにおける前記広告媒体の広告効果を推計する拡大推計モデルを作成するステップと、
作成された前記拡大推計モデルと前記第1の検出情報とを用いて、前記広告効果を推計して出力するステップと、を実現させるための、
広告効果推計プログラム。
An advertising effectiveness estimation program executed by one or more computers capable of communicating with at least one camera that images an imaging area including at least a part of a viewing area where advertising media can be viewed,
acquiring a captured video captured by the camera and first detection information regarding a person detected from the captured video;
creating an expanded estimation model for estimating the advertising effectiveness of the advertising medium in the viewing area based on the first detection information and second detection information regarding the person in the viewing area;
estimating and outputting the advertising effect using the created expanded estimation model and the first detection information;
Advertising effectiveness estimation program.
JP2022056467A 2022-03-30 2022-03-30 Advertising effectiveness estimation server, advertising effectiveness estimation method, and advertising effectiveness estimation program Pending JP2023148447A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022056467A JP2023148447A (en) 2022-03-30 2022-03-30 Advertising effectiveness estimation server, advertising effectiveness estimation method, and advertising effectiveness estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022056467A JP2023148447A (en) 2022-03-30 2022-03-30 Advertising effectiveness estimation server, advertising effectiveness estimation method, and advertising effectiveness estimation program

Publications (1)

Publication Number Publication Date
JP2023148447A true JP2023148447A (en) 2023-10-13

Family

ID=88288263

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022056467A Pending JP2023148447A (en) 2022-03-30 2022-03-30 Advertising effectiveness estimation server, advertising effectiveness estimation method, and advertising effectiveness estimation program

Country Status (1)

Country Link
JP (1) JP2023148447A (en)

Similar Documents

Publication Publication Date Title
US10956722B2 (en) Moving information analyzing system and moving information analyzing method
US10546199B2 (en) Person counting area setting method, person counting area setting program, moving line analysis system, camera device, and person counting program
JP5272213B2 (en) ADVERTISEMENT EFFECT MEASUREMENT DEVICE, ADVERTISEMENT EFFECT MEASUREMENT METHOD, AND PROGRAM
US9443144B2 (en) Methods and systems for measuring group behavior
US20210216938A1 (en) Enterprise platform for enhancing operational performance
US20200104779A1 (en) Non-intrusive workflow assessment (niwa) for manufacturing optimization
CN110199316A (en) The image processing method of camera and camera
US11741677B1 (en) Systems and methods for employing augmented reality in appraisal and assessment operations
JP2018077837A (en) Position recognition method and system, and abnormality determination method and system
US20210166180A1 (en) Information processing apparatus, information processing method, and work evaluation system
US20200228756A1 (en) Surveillance system, surveillance network construction method, and program
Samuel et al. AI Driven Thermal People Counting for Smart Window Facade Using Portable Low‐Cost Miniature Thermal Imaging Sensors
JP2007172378A (en) Apparatus for specifying object to be gazed at
JP2016103292A (en) Method and apparatus for measuring audience size for digital sign
JP2023148447A (en) Advertising effectiveness estimation server, advertising effectiveness estimation method, and advertising effectiveness estimation program
US11909776B2 (en) Online video distribution support method, online video distribution support apparatus and online video distribution support system
JP2007243270A (en) Video image surveillance system and method therefor
US20160196576A1 (en) Systems, devices, and methods of measuring an advertising campaign
US20210385426A1 (en) A calibration method for a recording device and a method for an automatic setup of a multi-camera system
CA2983339C (en) Display systems using facial recognition for viewership monitoring purposes
JP7329967B2 (en) IMAGE PROCESSING APPARATUS, SYSTEM, IMAGE PROCESSING APPARATUS CONTROL METHOD, AND PROGRAM
Dong et al. A machine vision–based, quantitative method of capturing spatiotemporal activity for post-occupancy evaluation research
KR20150027410A (en) The method of managing a number of branches by counting a floating population and estimating sales for a floating population
KR20230036880A (en) A system for monitoring solar power generation sites based on thermal image
KR20220060402A (en) System and method for providing a customized advertising based on interest advertisement