JP2023148447A - Advertising effectiveness estimation server, advertising effectiveness estimation method, and advertising effectiveness estimation program - Google Patents
Advertising effectiveness estimation server, advertising effectiveness estimation method, and advertising effectiveness estimation program Download PDFInfo
- Publication number
- JP2023148447A JP2023148447A JP2022056467A JP2022056467A JP2023148447A JP 2023148447 A JP2023148447 A JP 2023148447A JP 2022056467 A JP2022056467 A JP 2022056467A JP 2022056467 A JP2022056467 A JP 2022056467A JP 2023148447 A JP2023148447 A JP 2023148447A
- Authority
- JP
- Japan
- Prior art keywords
- advertising
- estimation
- expanded
- information
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 44
- 238000001514 detection method Methods 0.000 claims abstract description 231
- 230000000694 effects Effects 0.000 claims description 66
- 238000009434 installation Methods 0.000 claims description 32
- 230000007613 environmental effect Effects 0.000 claims description 23
- 238000003384 imaging method Methods 0.000 claims description 19
- 238000004364 calculation method Methods 0.000 description 58
- 238000005259 measurement Methods 0.000 description 51
- 238000004891 communication Methods 0.000 description 21
- 230000008569 process Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 16
- 238000012937 correction Methods 0.000 description 7
- WLKVBNIHWHTLAI-XNJYKOPJSA-N gazer Chemical compound N=1C=NC=2N(C3C(C(O)C(CO)O3)O)C=NC=2C=1NC\C=C(/C)COC(C(C1OC2C(C(OC3C(C(O)C(O)C(CO)O3)OC3C(C(O)C(O)C(CO)O3)O)C(CO)O2)O)O)OC(CO)C1OC1OCC(O)C(O)C1O WLKVBNIHWHTLAI-XNJYKOPJSA-N 0.000 description 7
- LHDGISWXLILHQA-UHFFFAOYSA-N gazer Natural products CC(=C/CNc1ncnc2c1ncn2C3OC(CO)C(O)C3O)COC4OC(CO)C(OC5OC(CO)C(O)C5O)C(OC6OC(CO)C(OC7OC(CO)C(O)C(O)C7OC8OC(CO)C(O)C(O)C8O)C6O)C4O LHDGISWXLILHQA-UHFFFAOYSA-N 0.000 description 7
- 230000000007 visual effect Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000000611 regression analysis Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000010191 image analysis Methods 0.000 description 3
- 238000003066 decision tree Methods 0.000 description 2
- 238000005401 electroluminescence Methods 0.000 description 2
- 238000012417 linear regression Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007477 logistic regression Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011017 operating method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
本開示は、広告効果推計サーバ、広告効果推計方法および広告効果推計プログラムに関する。 The present disclosure relates to an advertising effectiveness estimation server, an advertising effectiveness estimation method, and an advertising effectiveness estimation program.
特許文献1には、視聴情報を生成するシステムが開示されている。システムは、第1広告に基づく1又は複数の第1画像に係る第1視聴情報と、属性情報に基づいて選択された第2広告に基づく1又は複数の第2画像に係る第2視聴情報と、を生成する。第1の画像は、第1広告により影響を受ける可能性のある位置にいる1又は複数の人を撮像した撮像画像である。第2の画像は、第2広告により影響を受ける可能性のある位置にいる1又は複数の人を撮像した撮像画像である。視聴情報は、各広告影響位置にいる人のうち、特定の1又は複数の属性情報を有する人々の情報を含んで生成される。
本開示は、上述した従来の事情に鑑みて案出され、カメラの検知範囲外における広告の広告効果をより高精度に推計する広告効果推計サーバ、広告効果推計方法および広告効果推計プログラムを提供することを目的とする。 The present disclosure has been devised in view of the conventional circumstances described above, and provides an advertising effectiveness estimation server, an advertising effectiveness estimation method, and an advertising effectiveness estimation program that more accurately estimate the advertising effectiveness of advertisements outside the detection range of a camera. The purpose is to
本開示は、広告媒体を視聴可能な視聴エリアの少なくとも一部を含む撮像エリアを撮像する少なくとも1つのカメラにより撮像された撮像映像と、前記撮像映像から検出された人物に関する第1の検出情報とを取得する取得部と、前記第1の検出情報と前記視聴エリアの人物に関する第2の検出情報とに基づいて、前記視聴エリアにおける前記広告媒体の広告効果を推計する拡大推計モデルを作成するモデル作成部と、前記拡大推計モデルと前記第1の検出情報とを用いて、前記広告効果を推計して出力する広告効果推計部と、を備える、広告効果推計サーバを提供する。 The present disclosure includes a captured video captured by at least one camera that captures an imaging area including at least a part of a viewing area where an advertising medium can be viewed, and first detection information regarding a person detected from the captured video. and a model that creates an expanded estimation model that estimates advertising effectiveness of the advertising medium in the viewing area based on the first detection information and second detection information regarding the person in the viewing area. An advertising effectiveness estimation server is provided, comprising: a creation unit; and an advertising effectiveness estimation unit that estimates and outputs the advertising effectiveness using the expanded estimation model and the first detection information.
また、本開示は、広告媒体を視聴可能な視聴エリアの少なくとも一部を含む撮像エリアを撮像する少なくとも1つのカメラとの間で通信可能な1以上のコンピュータが実行する広告効果推計方法であって、前記カメラにより撮像された撮像映像と、前記撮像映像から検出された人物に関する第1の検出情報とを取得し、前記第1の検出情報と前記視聴エリアの人物に関する第2の検出情報とに基づいて、前記視聴エリアにおける前記広告媒体の広告効果を推計する拡大推計モデルを作成し、作成された前記拡大推計モデルと前記第1の検出情報とを用いて、前記広告効果を推計して出力する、広告効果推計方法を提供する。 The present disclosure also provides an advertising effectiveness estimation method executed by one or more computers capable of communicating with at least one camera that captures an imaging area that includes at least a portion of a viewing area where advertising media can be viewed. , acquiring a captured video captured by the camera and first detection information regarding a person detected from the captured video, and combining the first detection information and second detection information regarding the person in the viewing area. an expanded estimation model for estimating the advertising effectiveness of the advertising medium in the viewing area based on the above information, and uses the created expanded estimation model and the first detection information to estimate and output the advertising effectiveness. We provide a method for estimating advertising effectiveness.
また、本開示は、広告媒体を視聴可能な視聴エリアの少なくとも一部を含む撮像エリアを撮像する少なくとも1つのカメラとの間で通信可能な1以上のコンピュータにより実行される広告効果推計プログラムであって、前記カメラにより撮像された撮像映像と、前記撮像映像から検出された人物に関する第1の検出情報とを取得するステップと、前記第1の検出情報と前記視聴エリアの人物に関する第2の検出情報とに基づいて、前記視聴エリアにおける前記広告媒体の広告効果を推計する拡大推計モデルを作成するステップと、作成された前記拡大推計モデルと前記第1の検出情報とを用いて、前記広告効果を推計して出力するステップと、を実現させるための、広告効果推計プログラムを提供する。 The present disclosure also provides an advertising effectiveness estimation program executed by one or more computers capable of communicating with at least one camera that captures an imaging area that includes at least a portion of a viewing area where advertising media can be viewed. the step of acquiring a captured video captured by the camera and first detection information regarding a person detected from the captured video; and second detection regarding the first detection information and a person in the viewing area. creating an expanded estimation model for estimating the advertising effectiveness of the advertising medium in the viewing area based on the information; and using the created expanded estimation model and the first detection information to estimate the advertising effectiveness. To provide an advertising effectiveness estimation program for realizing the steps of estimating and outputting.
本開示によれば、カメラの検知範囲外における広告の広告効果をより高精度に推計できる。 According to the present disclosure, it is possible to estimate the advertising effect of an advertisement outside the detection range of the camera with higher accuracy.
以下、適宜図面を参照しながら、本開示に係る広告効果推計サーバ、広告効果推計方法および広告効果推計プログラムの構成および作用を具体的に開示した各実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるものであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 EMBODIMENT OF THE INVENTION Hereinafter, each embodiment which specifically disclosed the structure and operation of the advertising effectiveness estimation server, the advertising effectiveness estimation method, and the advertising effectiveness estimation program according to this disclosure will be described in detail with reference to the drawings as appropriate. However, more detailed explanation than necessary may be omitted. For example, detailed explanations of well-known matters or redundant explanations of substantially the same configurations may be omitted. This is to avoid unnecessary redundancy in the following description and to facilitate understanding by those skilled in the art. The accompanying drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter recited in the claims.
(実施の形態1)
まず、図1を参照して、実施の形態1に係る広告効果推計システム100の全体構成について説明する。図1は、実施の形態1に係る広告効果推計システム100の全体構成例を示すブロック図である。
(Embodiment 1)
First, with reference to FIG. 1, the overall configuration of an advertising
広告効果推計システム100は、所定の場所に設置された広告媒体に対する広告効果として、設置された少なくとも1つの広告媒体に接触した人数(以降、「広告接触可能者数」と表記)、広告媒体を視認した人数(以降、「広告視認者数」と表記)、あるいは広告媒体を注視した人数(以降、「広告注視者数」と表記)、広告媒体を注視した時間(以降、「広告注視時間」と表記)等を推計可能なシステムである。
The advertising
なお、上述した広告接触可能者数、広告視認者数、広告注視者数、あるいは広告注視時間等の推計対象は、一例であり、これに限定されない。推計対象は、広告効果を示すものであって、ユーザにより任意に定義,設定されてよい。さらに、推計対象は、広告効果を推計するための指標,要素として用いられてもよい。つまり、広告効果推計システム100は、2以上の推計対象の推計結果を用いて、所定の広告効果(例えば、広告接触可能者数を広告視認者数で除算して得られる視認率等)を推計してもよい。
Note that the above-mentioned estimation targets such as the number of people who can contact the advertisement, the number of people who view the advertisement, the number of people who gaze at the advertisement, or the advertisement gaze time are merely examples, and are not limited thereto. The estimation target indicates advertising effectiveness and may be arbitrarily defined and set by the user. Furthermore, the estimation target may be used as an index or element for estimating advertising effectiveness. In other words, the advertising
広告効果推計システム100は、1以上のカメラによって、広告媒体に接触可能、あるいは広告媒体を視認可能な少なくとも一部の範囲(例えば、図3および図4に示す第1の検出エリアAR11,AR21)を撮像し、撮像された撮像画像(撮像映像)に映る人物の人物情報や人数に基づいて、少なくとも1つの広告媒体に対する広告接触可能者数、広告視認者数、あるいは広告注視者数等を推計可能な拡大推計モデルを作成する。このとき、撮影画像(撮像映像)に映る人物の人物情報や人数は、作業者による目視での計測によって生成される。ここでは、撮像画像(撮像映像)から人物の人物情報や人数を生成しているが、撮像画像(撮像映像)に限定されるものではなく、現地にて広告媒体に接触可能、あるいは広告媒体を視認可能な範囲にいる人物を目視で計測してもよい。また、学習は、人物情報は必須ではないが、性別や年齢といった人物情報を利用することで、人数だけでなく人物の特徴の傾向も推定することができる。広告効果推計システム100は、作成された拡大推計モデルを用いて広告媒体ごとの広告効果を推測(推計)し、推計された広告効果(推計結果)を出力する。
The advertising
広告効果推計システム100は、1以上のカメラC1,…と、端末装置P1と、ネットワークNWと、サーバS1と、表示装置MNとを含んで構成される。なお、端末装置P1により実現される機能がカメラC1,…により実現可能である場合には、端末装置P1は省略されてよい。あるいは、端末装置P1により実現される機能は、サーバS1に集約されてもよい。
The advertising
1以上のカメラC1,…のそれぞれは、少なくとも1つの広告媒体に接触可能、あるいは広告媒体を視認可能な範囲(例えば、図3および図4に示す第2の検出エリア)の少なくとも一部を撮像可能な位置に設置され、いずれかの広告媒体の視認範囲の少なくとも一部を含む撮像範囲(例えば、図3および図4に示す第1の検出エリア)を撮像する。カメラC1,…のそれぞれは、少なくともレンズ(不図示)とイメージセンサ(不図示)とを有して構成される。カメラC1,…のそれぞれは、例えば、広角レンズ,魚眼レンズ等の広範囲を撮像可能にするレンズが使用されてよい。イメージセンサは、例えばCCD(Charged-Coupled Device)あるいはCMOS(Complementary Metal-Oxide-Semiconductor)等の固体撮像素子であり、撮像面に結像した光学像を電気信号に変換する。カメラC1,…のそれぞれは、撮像された撮像画像(撮像映像)を端末装置P1、あるいはサーバS1に送信する。なお、カメラC1,…によって撮像された撮像画像(撮像映像)は、後述するようにネットワークNWを介して、サーバS1に送信されるが、ローカルでつながれた端末装置や外付けHDD(Hard Disk Drive)等に保存され、必要なタイミングで別の端末装置やPCからネットワークNWを介して端末装置P1に送信されてもよい。 Each of the one or more cameras C1,... captures an image of at least a portion of a range where at least one advertising medium can be contacted or visible (for example, the second detection area shown in FIGS. 3 and 4). is installed at a possible position, and images an imaging range (for example, the first detection area shown in FIGS. 3 and 4) that includes at least a part of the visible range of any advertising medium. Each of the cameras C1, . . . includes at least a lens (not shown) and an image sensor (not shown). Each of the cameras C1, . . . may use a lens capable of capturing a wide range of images, such as a wide-angle lens or a fisheye lens. The image sensor is a solid-state imaging device such as a CCD (Charged-Coupled Device) or a CMOS (Complementary Metal-Oxide-Semiconductor), and converts an optical image formed on an imaging surface into an electrical signal. Each of the cameras C1, . . . transmits a captured image (captured video) to the terminal device P1 or the server S1. The captured images (captured videos) captured by the cameras C1, . ), etc., and may be transmitted from another terminal device or PC to the terminal device P1 via the network NW at a necessary timing.
端末装置P1は、カメラC1,…のそれぞれと、ネットワークNWを介したサーバS1との間で無線通信や有線通信によって接続される。ここでいう無線通信は、例えばWi-Fi(登録商標)などの無線LAN(Local Area Network)を介した通信である。端末装置P1は、カメラC1,…のそれぞれから送信された撮像映像に映る人物を検出し、検出された人物の検出情報をサーバS1に送信する。端末装置P1は、通信部10と、制御部11と、メモリ14と、入力部16とを含んで構成される。
The terminal device P1 is connected to each of the cameras C1, . . . and the server S1 via the network NW by wireless communication or wired communication. The wireless communication referred to here is, for example, communication via a wireless LAN (Local Area Network) such as Wi-Fi (registered trademark). The terminal device P1 detects a person appearing in the captured video transmitted from each of the cameras C1, . . . and transmits detection information of the detected person to the server S1. The terminal device P1 includes a
通信部10は、1以上のカメラC1,…のそれぞれと、ネットワークNWとの間で無線通信あるいは有線通信可能に接続されて、データの送受信を実行する。通信部10は、1以上のカメラC1,…のそれぞれから送信された撮像映像を制御部11に出力する。また、通信部10は、制御部11により検出された検出情報と、撮像映像とを対応付けて、ネットワークNWを介してサーバS1に送信する。
The
制御部11は、例えばCPU(Central Processing Unit)、DSP(Digital Signal Processor)またはFPGA(Field Programmable Gate Array)を用いて構成され、端末装置P1の各部の動作を制御する。制御部11は、メモリ14と協働して、メモリ14に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。なお、ここでいう各部は、人物検出部12である。
The
また、制御部11は、カメラC1,…のそれぞれおよび端末装置P1の各部の動作情報(死活情報)を監視したり、広告効果推計システム100の利用者(例えば、広告主,広告媒体の管理者等)あるいはカメラC1,…のそれぞれの作業者等との間で締結された広告効果推計システム100の利用状況の管理等を実行したりする。制御部11は、死活情報の監視あるいは広告効果推計システム100の利用契約状況の管理等を定期的または継続的に実行し、監視結果、あるいは広告効果推計システム100の利用契約状況等を通信部10に出力し、サーバS1に送信させる。
In addition, the
人物検出部12は、撮像映像(つまり、撮像映像を構成する複数の撮像画像のそれぞれ)に画像解析処理を実行し、人物を検出する。人物検出部12は、検出された検出情報と、撮像映像とを対応付けて、通信部10に出力し、サーバS1に送信させる。人物検出部12は、顔検出部13Aと、人検出部13Bとを含んで構成される。なお、人物検出部12ではなく、入力部16から各撮像映像に対する人物の情報を受付けてもよい。この場合、入力部16から受け付ける各撮像映像に対する人物の情報は、人の作業によって撮像映像を確認して入力されるものであり、拡大推計モデル作成部22に送られるものである。なお、各撮像映像に対する人物の情報は、端末装置P1以外の他の端末装置(例えば、ユーザが使用する端末装置等)から取得されて、拡大推計モデル作成部22に出力されてもよい。
The
ここで、図2~図4のそれぞれを参照して、広告効果を示す視認者の一例としての広告接触可能者数、広告視認者数および広告注視者数のそれぞれに該当する人物について説明する。なお、以下で説明する広告接触可能者数、広告視認者数および広告注視者数のそれぞれの定義は一例であって、これに限定されないことは言うまでもない。 Here, with reference to each of FIGS. 2 to 4, a description will be given of persons corresponding to the number of people who can contact an advertisement, the number of people who view an advertisement, and the number of people who look at an advertisement as examples of viewers who indicate advertising effectiveness. It should be noted that the definitions of the number of people who can contact an advertisement, the number of people who view an advertisement, and the number of people who watch an advertisement described below are examples, and it goes without saying that the definitions are not limited thereto.
図2は、視認者の定義例を説明する図である。図3は、カメラC11が広告媒体AD11近傍に配置される場合の第1の検出エリアAR11および第2の検出エリアAR12を説明する図である。図4は、カメラC21が広告媒体AD21近傍に配置されない場合の第1の検出エリアAR21および第2の検出エリアAR22を説明する図である。なお、図3および図4に示す第1の検出エリアAR11および第2の検出エリアAR12のそれぞれは、一例であってこれに限定されないことは言うまでもない。 FIG. 2 is a diagram illustrating an example of the definition of a viewer. FIG. 3 is a diagram illustrating the first detection area AR11 and the second detection area AR12 when the camera C11 is placed near the advertising medium AD11. FIG. 4 is a diagram illustrating the first detection area AR21 and the second detection area AR22 when the camera C21 is not placed near the advertising medium AD21. It goes without saying that each of the first detection area AR11 and the second detection area AR12 shown in FIGS. 3 and 4 is an example, and is not limited thereto.
撮像エリアの一例としての第1の検出エリアAR11,AR21は、カメラC11,C12のそれぞれの検知範囲(人物を検出可能な範囲)を示す。視認エリアの一例としての第2の検出エリアAR12,AR22は、カメラC11,C21のそれぞれの検知範囲外であって、通過する人物が広告媒体を接触可能あるいは視認可能な範囲を示す。また、撮像エリアの一例としての検出エリアAR10,AR20は、サーバS1が広告媒体の拡大推計を実行するエリアであって、第1の検出エリアAR11,AR21と、第2の検出エリアAR12,AR22とを含む範囲である。 First detection areas AR11 and AR21, which are examples of imaging areas, indicate detection ranges (ranges in which a person can be detected) of the cameras C11 and C12, respectively. Second detection areas AR12 and AR22, which are examples of visible areas, are outside the detection ranges of cameras C11 and C21, respectively, and indicate ranges in which a passing person can touch or visually recognize the advertising medium. Furthermore, detection areas AR10 and AR20, which are an example of the imaging area, are areas where the server S1 executes the enlarged estimation of advertising media, and include first detection areas AR11 and AR21, and second detection areas AR12 and AR22. The range includes.
広告接触可能者数は、広告媒体AD11,AD21で広告が表示されている広告面AD12,AD22を基準として10m以内を通過する人物の人数を示す。 The number of people who can come into contact with an advertisement indicates the number of people who pass within 10 meters of the advertisement surfaces AD12 and AD22 on which advertisements are displayed in the advertisement media AD11 and AD21.
広告視認者数は、広告媒体AD11,AD21で広告が表示されている広告面AD12,AD22を基準として10m以内を通過する人物であって、かつ、この人物の視野120°内に広告媒体AD11,AD21が入ると判定された人物の人数を示す。 The number of advertisement viewers is defined as a person passing within 10 meters from the advertising surfaces AD12, AD22 on which advertisements are displayed on the advertising media AD11, AD21, and within 120° of this person's visual field. Indicates the number of people who have been determined to have AD21.
広告注視者数は、広告媒体AD11,AD21で広告が表示されている広告面AD12,AD22を基準として5m以内、を通過する人物であって、かつ、この人物の近接視野70°内に広告媒体AD11,AD21が入ると判定された人物の人数を示す。 The number of people watching an advertisement is defined as a person who passes within 5 meters from the advertising surface AD12, AD22 on which the advertisement is displayed on the advertising medium AD11, AD21, and the advertising medium is within 70° of the person's close visual field. It shows the number of people who were determined to be included in AD11 and AD21.
顔検出部13Aは、撮像画像に画像解析処理を実行し、撮像画像に映る人物のうち広告媒体ごとの視認者のそれぞれに該当する人物の顔を検出する。顔検出部13Aは、検出された人物の顔の向き(以降、「顔角度」と表記)、視線の向き(以降、「視線角度」と表記)等を検出する。また、顔検出部13Aは、検出された人物の属性情報(例えば、性別,年齢等)を検出する。なお、ここでいう視認者は、広告接触可能者数、広告視認者数あるいは広告注視者数等であるが、これに限定されず、作業者により任意に定義され、設定されてよい。 The face detection unit 13A performs image analysis processing on the captured image, and detects the faces of the people appearing in the captured image who correspond to the respective viewers for each advertising medium. The face detection unit 13A detects the direction of the detected person's face (hereinafter referred to as “face angle”), the direction of the line of sight (hereinafter referred to as “line of sight angle”), and the like. The face detection unit 13A also detects attribute information (eg, gender, age, etc.) of the detected person. Note that the viewer here includes the number of people who can contact the advertisement, the number of people who view the advertisement, the number of people who watch the advertisement, etc., but is not limited thereto, and may be arbitrarily defined and set by the operator.
人検出部13Bは、撮像画像に画像解析処理を実行し、撮像画像に映る人物を検出し、検出された人物の人数をカウントする。また、人検出部13Bは、撮像映像から検出された人物の位置情報の時系列変化に基づいて、検出された人物ごとの歩行動線情報と、を検出する。
The
なお、ここでいう歩行動線情報は、撮像映像から検出された人物の位置情報の時系列変化を示す情報であって、所定時間あるいは所定フレームごとの人物の位置情報を時系列に並べた情報であってもよいし、カメラC1,…のそれぞれの検知範囲(つまり、第1の検出エリア)内における人物の通過方向(例えば、右から左に向かう方向、左から右に向かう方向、奥から手前に向かう方向等)の情報であってもよい。 Note that the walking line information referred to here is information indicating time-series changes in the positional information of a person detected from a captured video, and is information in which the positional information of a person is arranged in chronological order at a predetermined time or every predetermined frame. or the direction in which the person passes (for example, from right to left, from left to right, from the back) within each detection range (i.e., first detection area) of cameras C1,... It may also be information about the direction (toward the front, etc.).
人物検出部12は、顔検出部13Aおよび人検出部13Bのそれぞれにより検出された検出情報(例えば、視認者のそれぞれに該当する人物の検出人数,顔角度,視線角度,属性情報,位置情報,歩行動線情報等)と、入力部16を用いて作業者により入力された実測情報(例えば、人数,顔角度,視線角度,属性情報,位置情報,歩行動線情報等)と、撮像映像とを対応付けて、通信部10に出力し、サーバS1に送信させる。実測情報についての詳細は別途後述する。なお、実測情報は必須でなく、事前に拡大推計モデル作成部22によって拡大推計モデルが作成済みの状態等のときは省略されてもよい。
The
ここで、実測情報は、端末装置P1を操作する作業者により実測された情報であって、人物検出部12の顔検出部13Aおよび人検出部13Bのそれぞれにより検出される検出情報に対応する情報である。作業者は、広告媒体の拡大推計対象となる範囲(例えば、図3および図4に示す検出エリアAR10,AR20)を撮像した撮像画像(撮像映像)を用いて、現地での目視確認により、広告媒体ごとの視認者に該当する人物の人数、これらの人物の顔角度、視線角度、属性情報(例えば、性別,年齢等)、あるいは人物ごとの歩行動線情報等を実測し、実測された実測情報を入力部16に入力する。なお、本実施例では、表示部15を端末装置P1の一部としているが、別装置として設けてもよいし、省略してもよい。
Here, the actual measurement information is information actually measured by the worker operating the terminal device P1, and corresponds to the detection information detected by each of the face detection unit 13A and the
なお、実測情報は、顔検出部13Aおよび人検出部13Bのそれぞれで検出される検出情報に対応する情報であればよい。例えば、顔検出部13Aおよび人検出部13Bのそれぞれで撮像映像に映る人物の検出人数と、人物ごとの顔角度あるいは視線角度とが検出される場合、作業者は、対応する実測情報として、人物の人数と、人物ごとの顔角度あるいは視線角度とを入力すればよい。
Note that the actual measurement information may be information corresponding to detection information detected by each of the face detection section 13A and the
なお、人物検出部12は、カメラが複数台ある場合には、検出情報と、撮像映像と、カメラC1,…のそれぞれを識別可能な識別情報(例えば、カメラごとに割り当てられたカメラID(Identification),設置エリア情報,製造番号等)をさらに対応付けてサーバS1に送信させてもよい。
In addition, when there are multiple cameras, the
メモリ14は、例えば制御部11の各処理を実行する際に用いられるワークメモリとしてのRAM(Random Access Memory)と、制御部11の動作を規定したプログラムおよびデータを格納するROM(Read Only Memory)とを有する。RAMには、制御部11により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、制御部11の動作を規定するプログラムが書き込まれている。
The
メモリ14は、カメラC1,…のそれぞれの設置位置および検知範囲(撮像範囲)の情報と、広告媒体AD11,AD21の広告面AD12,AD22の位置情報と、カメラC1,…のそれぞれが撮像した撮影画像から検出した人物に関する情報(人数等)等を記憶する。位置情報は、2次元の位置情報或いは3次元の位置情報を記憶するようにしてよい。3次元の位置情報を記憶することで、重なる位置に広告媒体が存在しても、高さの違いによって個々を特定することができる。
The
表示部15は、例えばLCD(Liquid Crystal Display)または有機EL(Electroluminescence)等のディスプレイを用いて構成される。表示部15は、制御部11から出力されたカメラC1,…のそれぞれの撮像映像を表示する。なお、表示部15は、別途外部装置として接続されたものでもよい。
The
入力部16は、例えばタッチパネル、キーボード、マウス等を用いて構成された作業者インタフェースである。入力部16は、受け付けられた端末装置P1の作業者操作を電気信号(制御指令)に変換して、制御部11に出力する。入力部16は、作業者により実測された実測情報(例えば、視認者のそれぞれに該当する人物の検出人数,顔角度,視線角度,属性情報,位置情報,歩行動線情報等)の入力を受け付ける。入力部16は、受け付けられた実測情報を制御部11の人物検出部12に出力する。なお、入力部16は、表示部15と一体的に構成されたタッチパネルであってもよい。
The
サーバS1は、ネットワークNWを介した端末装置P1と、表示装置MNとの間でそれぞれデータ送受信可能に接続される。サーバS1は、端末装置P1から送信された検出情報と、撮像映像とを用いて、カメラC1,…のそれぞれの検知範囲内外を含む所定の視認範囲で少なくとも1つの広告媒体の視認者を推計するための拡大推計モデルを作成する。サーバS1は、作成された拡大推計モデルを用いて、カメラC1,…のそれぞれの検知範囲内外を含む所定の視認範囲で少なくとも1つの広告媒体の広告効果(視認者)を推計し、推計された拡大推計結果を生成して、表示装置MNに出力して表示させる。サーバS1は、通信部20と、制御部21と、メモリ25と、拡大推計結果データベースDBと、を含んで構成される。
The server S1 is connected to the terminal device P1 and the display device MN via the network NW so that data can be transmitted and received, respectively. The server S1 uses the detection information transmitted from the terminal device P1 and the captured video to estimate the number of viewers of at least one advertising medium in a predetermined viewing range including inside and outside the detection range of each of the cameras C1,... Create an expanded estimation model for The server S1 uses the created expanded estimation model to estimate the advertising effect (viewer) of at least one advertising medium in a predetermined viewing range including inside and outside the detection range of each of the cameras C1,... The expanded estimation result is generated and output to the display device MN for display. The server S1 includes a
取得部の一例としての通信部20は、ネットワークNWを介した端末装置P1と、表示装置MNとの間でそれぞれデータ送受信可能に接続される。通信部20は、1以上のカメラC1,…のそれぞれから送信された撮像画像(撮像映像)を制御部21に出力したり、端末装置P1から送信された検出情報と、撮像映像とを制御部21に出力したりする。このとき、撮像画像(撮像映像)は、リアルタイムで撮影されたもの或いは録画されたものでもよい。また、通信部20は、制御部21により生成された拡大推計結果を示す各推計結果画面(例えば、図8に示す推計結果画面SC1、図9に示す人物属性別推計結果画面SC2、あるいは図10に示す駅・曜日別推計結果画面SC3等)を表示装置MNに送信して、出力(表示)させる。
The
制御部21は、例えばCPU、DSPまたはFPGAを用いて構成され、サーバS1の各部の動作を制御する。制御部21は、メモリ25と協働して、メモリ25に保持されたプログラムおよびデータを参照し、そのプログラムを実行することにより、各部の機能を実現する。なお、ここでいう各部は、拡大推計モデル作成部22および視認効果計測部23のそれぞれである。
The
また、制御部21は、端末装置P1から送信された実測情報、検出情報あるいはその両方に基づいて、広告効果を示す視認者を検出したり、広告効果を示す各種時間(例えば、広告注視時間等)を計測可能にしたりするための教師データ(学習データ)を生成してもよい。教師データを生成するための学習は、1つ以上の統計的分類技術を用いて行っても良い。統計的分類技術としては、例えば、重回帰分析、線形分類器(Linear Classifiers)、サポートベクターマシン(Support Vector Machines)、二次分類器(Quadratic Classifiers)、カーネル密度推測(Kernel Estimation)、決定木(Decision Trees)、人工ニューラルネットワーク(Artificial Neural Networks)、ベイジアン技術および/またはネットワーク(Bayesian Techniques and/or Networks)、隠れマルコフモデル(Hidden Markov Models)、バイナリ分類子(Binary Classifiers)、マルチクラス分類器(Multi-Class Classifiers)、クラスタリング(Clustering Technique)、ランダムフォレスト(Random Forest Technique)、ロジスティック回帰(Logistic Regression Technique)、線形回帰(Linear Regression Technique)、勾配ブースティング(Gradient Boosting Technique)等が挙げられる。但し、使用される統計的分類技術はこれらに限定されない。ここでは、端末装置P1から送信された情報に基づいて、教師データ(学習データ)を生成しているが、端末装置P1以外の装置(例えばクライアントPC等)から直接送られてきた情報に基づいてもよい。
The
拡大推計モデル作成部22は、少なくとも1つの広告媒体に対する広告効果(例えば、視認者数,視認者による広告媒体への接触時間,視認時間,注視時間等)を推計する1以上の拡大推計モデルを作成する。
The expanded estimation
視認効果計測部23は、メモリ25に記憶されている視認者基準(具体的には、広告接触可能者数、広告視認者数あるいは広告注視者数のそれぞれ)と、端末装置P1から送信された撮像映像に映る人物の人物情報に基づき、広告媒体ごとの視認者(具体的には、広告接触可能者数、広告視認者数あるいは広告注視者数のそれぞれ)を算出する。この算出結果は、視認者情報と呼ぶこととする。
The visibility
ここで、図5を参照して、サーバS1の制御部21の機能構成について説明する。図5は、実施の形態1に係るサーバS1の制御部21の内部構成例を説明するブロック図である。
Here, with reference to FIG. 5, the functional configuration of the
モデル作成部の一例としての拡大推計モデル作成部22は、1以上のカメラによって、広告媒体に接触可能、あるいは広告媒体を視認可能な範囲(例えば、図3および図4に示す第2の検出エリア)を撮像した撮像画像(撮像映像)に映る人物に関する実測情報と、広告媒体の視認範囲の少なくとも一部を含む撮像範囲(例えば、図3および図4に示す第1の検出エリア)を撮像した撮像画像(撮像映像)の検出情報とに基づいて、少なくとも1つの広告媒体に対する広告効果(例えば、視認者数,視認者による広告媒体への接触時間,視認時間,注視時間等)を推計する1以上の拡大推計モデルを作成する。ここでいう、拡大推計モデルは、例えば、広告接触可能者数計算モデル22A,広告視認者数計算モデル22B,広告注視者数計算モデル22C,あるいは広告注視時間数計算モデル22D等である。ここで作成された拡大推計モデルは、カメラC1,…のそれぞれの撮像画像(撮像映像)に対応する検出情報に対して、検知範囲外(例えば、図3および図4に示す第2の検出エリア)に位置する視認者数(つまり、広告接触可能者数、広告視認者数あるいは広告注視者数等)を補間するものである。
The expanded estimation
拡大推計モデル作成部22により作成される拡大推計モデルについて説明する。広告接触可能者数計算モデル22Aは、カメラC1,…により撮像された撮像映像(撮像画像)を用いて、少なくとも1つの広告媒体の広告接触可能者数を推計するモデルである。広告視認者数計算モデル22Bは、カメラC1,…により撮像された撮像映像(撮像画像)を用いて、少なくとも1つの広告媒体の広告視認者数を推計するモデルである。広告注視者数計算モデル22Cは、カメラC1,…により撮像された撮像映像(撮像画像)を用いて、少なくとも1つの広告媒体の広告注視者数を推計するモデルである。また、広告注視時間数計算モデル22Dは、カメラC1,…により撮像された撮像映像(撮像画像)を用いて、少なくとも1つの広告媒体の広告視認者による注視時間を推計するモデルである。
The expanded estimation model created by the expanded estimation
なお、ここでいう広告注視時間は、人物が広告媒体を注視している間の時間であって、人物の歩行動線情報に基づいて、第1の検知エリア内に滞在していると判定された滞在時間であってもよいし、人物の顔角度,視線角度が、広告媒体の方向を向いている時間であってもよい。 Note that the advertising gaze time referred to here is the time during which the person is gazing at the advertising medium, and is determined to be staying within the first detection area based on the person's walking line information. It may be the length of time the person stays in the room, or it may be the time during which the person's face angle and line of sight angle are facing the direction of the advertising medium.
拡大推計モデル作成部22は、端末装置P1から送信された実測情報と検出情報とを用いて、広告接触可能者数計算モデル22Aと、広告視認者数計算モデル22Bと、広告注視者数計算モデル22Cと、広告注視時間数計算モデル22Dとをそれぞれ作成する。拡大推計モデル作成部22は、作成された各種拡大推計モデルと、拡大推計モデルの作成に用いられた検出情報とを対応付けて、視認効果計測部23に出力する。
The expanded estimation
また、拡大推計モデル作成部22は、各種拡大推計モデルと、各種拡大推計モデルの作成に使用された実測情報および検出情報のそれぞれとを対応付けて出力してよい。これにより、後述する視認効果計測部23は、入力部16を介して取得(入力)された実測情報に基づく実測値と、検出情報に基づく拡大推計結果(つまり、推測値)とを比較する推計結果画面SC1(図8参照)を生成して、出力できる。
Further, the expanded estimation
以下、各種拡大推計モデルの作成処理について説明する。 The creation process of various expanded estimation models will be explained below.
(広告接触可能者数計算モデルの作成処理)
拡大推計モデル作成部22は、端末装置P1から送信された広告媒体に接触可能、あるいは広告媒体を視認可能な範囲(例えば、図3および図4に示す第1および第2の検出エリア)を撮像した撮像画像(撮像映像)の実測情報と、広告媒体の視認範囲の少なくとも一部を含む撮像範囲(例えば、図3および図4に示す第1の検出エリア)を撮像した撮像画像(撮像映像)の検出情報と、広告接触可能者の視認者基準に基づいて、推計結果を補正する補正係数を算出し、広告接触可能者数を算出するための広告接触可能者数計算モデル22Aを作成する。拡大推計モデル作成部22は、作成された広告接触可能者数計算モデル22Aと、広告接触可能者数計算モデル22Aの作成に使用された検出情報とを対応付けて、拡大推計部24の広告接触可能者数計算部24Aに出力する。
(Creation process of calculation model for number of people who can be contacted by advertisement)
The expanded estimation
なお、広告接触可能者数計算モデル22Aの作成処理において、完成した広告接触可能者数計算モデル22Aと設置場所の環境情報を対応づけてメモリ25に記憶しておいてもよい。これにより、サーバS1は、実測情報が存在しないような場合でも、設置場所の環境情報から類似した広告接触可能者数計算モデル22Aを適用させることができようになる。
In the process of creating the
ここでいう、視認者基準は、推計対象である視認者の定義(図2参照)に基づいて、所定の視認者を検出するための基準である。例えば、広告接触可能者数を算出するための基準は、実測情報および検出情報のそれぞれ、あるいは撮像映像から広告接触可能者数に該当する人物を検出するための検出条件を定義する基準であって、作業者により任意に設定される。例えば、図2に示す例において、広告接触可能者数を算出するための基準は、「広告面から10m以内を通過した全人数」である。 The viewer standard here is a standard for detecting a predetermined viewer based on the definition of the viewer who is the estimation target (see FIG. 2). For example, the standard for calculating the number of people who can be contacted by an advertisement is a standard that defines detection conditions for detecting people who correspond to the number of people who can be contacted by an advertisement from each of actual measurement information and detection information, or captured video. , arbitrarily set by the operator. For example, in the example shown in FIG. 2, the standard for calculating the number of people who can come into contact with an advertisement is "the total number of people who passed within 10 meters of the advertisement surface."
ここでいう、環境補正係数は、広告媒体が設置されている設置場所の環境情報に対応して設定される係数であって、作成された拡大推計モデルにより推計される広告効果の重み付け処理を実行するための係数である。例えば、環境補正係数は、実測情報と検出情報との関係性から算出される。そのほか、広告媒体が設置された設置場所を利用する利用者数、設置場所を通行する通行量(人数)、広告媒体の広告面積、設置場所における人物の歩行動線の方向ごとの割合、広告媒体を視認可能な面積(領域)、広告媒体の設置場所(例えば、駅,建物,通路,道路等)の環境情報に基づいて設定される係数、あるいはこれらの環境情報を用いたヒューリスティック分析に基づいて決定される係数などを設けてよい。例えば、環境補正係数は、広告媒体の設置場所が駅構内である場合、駅構内において駅利用者がこの広告媒体を視認可能な面積、この駅を利用する1日の利用者数、あるいは所定の時間帯の利用者数や人流等の情報を用いて決定されてよい。 The environmental correction coefficient referred to here is a coefficient that is set according to the environmental information of the installation location where the advertising medium is installed, and performs the weighting process of the advertising effect estimated by the created expanded estimation model. This is the coefficient for For example, the environmental correction coefficient is calculated from the relationship between actually measured information and detected information. In addition, the number of users using the installation location where the advertising media is installed, the amount of traffic passing through the installation location (number of people), the advertising area of the advertising media, the proportion of people's walking lines in each direction at the installation location, the advertising media coefficients set based on the environmental information of the visible area (area), the installation location of advertising media (e.g., stations, buildings, passages, roads, etc.), or based on heuristic analysis using these environmental information. A determined coefficient or the like may be provided. For example, if the advertising medium is installed inside a station, the environmental correction coefficient may be calculated based on the area within the station where the advertising medium can be seen by station users, the number of people using this station per day, or a predetermined amount of The determination may be made using information such as the number of users and the flow of people during the time period.
なお、拡大推計モデル作成部22は、広告媒体の設置場所に対応する広告接触可能者数計算モデル22Aが設定されてない場合、この広告媒体の設置場所の環境情報と類似する環境情報を有する他の広告媒体の設置場所があるか否かを判定する。環境情報は、例えば、施設規模、利用者総数、人流あるいは人物の動線、広告前のエリアの形状、住民の人数、訪問者数等が判定基準として考えられる。拡大推計モデル作成部22は、広告媒体の設置場所の環境情報と類似する環境情報を有する他の広告媒体の設置場所があると判定した場合、この他の設置場所に対応する広告接触可能者数計算モデル22Aを参照し、広告効果の推計対象である広告媒体の広告接触可能者数計算モデル22Aとして選定してもよい。そのほかにも、広告媒体の視認範囲の少なくとも一部を含む撮像範囲を撮影した撮像画像(撮像映像)の検出情報又は視認者情報が類似する場所に適応されている広告接触可能者数計算モデル22Aを選定するようにしてよい。
Note that, if the advertising contactable
(広告視認者数計算モデルの作成処理)
また、拡大推計モデル作成部22は、端末装置P1から送信された広告媒体に接触可能、あるいは広告媒体を視認可能な範囲(例えば、図3および図4に示す検出エリアAR10,AR20)の実測情報と、広告媒体の視認範囲の少なくとも一部を含む撮像範囲(例えば、図3および図4に示す第1の検出エリア)を撮像した撮像画像(撮像映像)の検出情報と、広告視認者の視認者基準に基づいて、広告視認者数計算モデル22Bを作成する。拡大推計モデル作成部22は、作成された広告視認者数計算モデル22Bと、広告視認者数計算モデル22Bの作成に使用された検出情報とを対応付けて、拡大推計部24の広告視認者数計算部24Bに出力する。
(Creation process of calculation model for number of advertisement viewers)
The expanded estimation
ここでいう、広告視認者数を算出するための視認者基準は、実測情報および検出情報のそれぞれ、あるいは撮像映像から広告視認者数に該当する人物を検出するための検出条件を定義する基準であって、作業者により任意に設定される。例えば、図2に示す例において、広告視認者数を算出するための基準は、「広告面から10m以内で視野(120度)に広告媒体が入る人数」である。 Here, the viewer standard for calculating the number of advertisement viewers is a standard that defines detection conditions for detecting people who correspond to the number of advertisement viewers from actual measurement information and detection information, or captured video. It is set arbitrarily by the operator. For example, in the example shown in FIG. 2, the standard for calculating the number of advertisement viewers is "the number of people within 10 meters from the advertisement surface and within the field of view (120 degrees)".
(広告注視者数計算モデルの作成処理)
また、拡大推計モデル作成部22は、端末装置P1から送信された広告媒体に接触可能、あるいは広告媒体を視認可能な範囲(例えば、図3および図4に示す検出エリアAR10,AR20)の実測情報と、広告媒体の視認範囲の少なくとも一部を含む撮像範囲(例えば、図3および図4に示す第1の検出エリア)を撮像した撮像画像(撮像映像)の検出情報と、広告注視者の視認者基準に基づいて、広告注視者数計算モデル22Cを作成する。拡大推計モデル作成部22は、作成された広告注視者数計算モデル22Cと、広告注視者数計算モデル22Cの作成に使用された検出情報とを対応付けて、拡大推計部24の広告注視者数計算部24Cに出力する。
(Creating model for calculating the number of people watching advertisements)
The expanded estimation
ここでいう、広告注視者数を算出するための基準は、実測情報および検出情報のそれぞれ、あるいは撮像映像から広告注視者数に該当する人物を検出するための検出条件を定義する基準であって、作業者により任意に設定される。例えば、図2に示す例において、広告注視者数を算出するための基準は、「広告面から10m以内で近接視野(70度)に広告媒体が入る人数」である。 Here, the standard for calculating the number of people watching advertisements is the standard for defining detection conditions for detecting people corresponding to the number of people watching advertisements from actual measurement information and detection information, or from captured images. , arbitrarily set by the operator. For example, in the example shown in FIG. 2, the standard for calculating the number of people gazing at an advertisement is "the number of people within 10 meters from the advertisement surface and within the close visual field (70 degrees)".
(広告注視時間数計算モデルの作成処理)
また、拡大推計モデル作成部22は、端末装置P1から送信された広告媒体に接触可能、あるいは広告媒体を視認可能な範囲(例えば、図3および図4に示す検出エリアAR10,AR20)の実測情報と、広告媒体の視認範囲の少なくとも一部を含む撮像範囲(例えば、図3および図4に示す第1の検出エリア)を撮像した撮像画像(撮像映像)の検出情報と、広告注視時間を算出するための視認者基準に基づいて、広告注視時間数計算モデル22Dを作成する。拡大推計モデル作成部22は、作成された広告注視時間数計算モデル22Dと、広告注視時間数計算モデル22Dの作成に使用された検出情報とを対応付けて、拡大推計部24の広告注視時間数計算部24Dに出力する。
(Creation process of advertisement gaze time calculation model)
The expanded estimation
ここでいう、広告注視時間を算出するための演算式は、実測情報および検出情報のそれぞれ、あるいは撮像映像から広告注視者数に該当する人物を検出し、検出された人物が第1の検知エリア内に滞在する滞在時間、あるいは検出された人物の顔角度,視線角度が広告媒体を向いている時間を計測(算出)するための計測条件を定義する演算式であって、作業者により任意に設定される。なお、広告注視時間を算出するための演算式は、計測された第1の検知エリア内に滞在する滞在時間、顔角度、あるいは視線角度が広告媒体を向いている時間が、所定時間(例えば、3秒,5秒等)以上であると判定した場合にはこの人物の広告注視時間として計測し、所定時間未満であると判定した場合にはこの人物の広告注視時間として計測しない計測条件等が設定されていてもよい。 Here, the calculation formula for calculating advertisement gaze time is to detect a person corresponding to the number of advertisement gazers from each of the actual measurement information and detection information or from the captured video, and to detect the detected person from the first detection area. It is an arithmetic expression that defines the measurement conditions for measuring (calculating) the length of time a person stays in an advertising medium, or the time that a detected person's face angle and line of sight angle are facing the advertising medium. Set. In addition, the calculation formula for calculating advertisement gaze time is such that the time spent in the measured first detection area, the face angle, or the time when the line of sight angle is facing the advertising medium is determined by the predetermined time (e.g., If it is determined that it is longer than 3 seconds, 5 seconds, etc., it will be measured as this person's advertisement gaze time, and if it is determined that it is less than a predetermined time, it will not be measured as this person's advertisement gaze time. May be set.
なお、上述した機械学習方法の一例として、拡大推計モデル作成部22は、例えば、実測情報から抽出された情報を目的変数に、検出情報から抽出された情報を説明変数にそれぞれ設定し、重回帰分析を実行することで視認者に該当する人物を検出するための機械学習を実行してもよい。
As an example of the machine learning method described above, the expanded estimation
これら拡大推計モデル(具体的には、広告接触可能者数計算モデル、広告視認者数計算モデル、広告注視者数計算モデル広告注視時間数計算モデル)を作成する際に、本実施形態では、端末装置P1から送信された情報を用いているが、メモリ25や拡大推計結果データベースDBに記憶されている過去の数値を用いてもよい。また、本実施形態では、実測情報、検出情報、視認者基準に基づいて、拡大モデルを作成しているが、事前に視認効果計測部23にて実測情報及び検出情報それぞれの視認者情報を算出し、それぞれの視認者情報に基づいて作成してもよい。
In this embodiment, when creating these expanded estimation models (specifically, the model for calculating the number of people who can be exposed to advertisements, the model for calculating the number of people who view advertisements, the model for calculating the number of people who watch advertisements, and the model for calculating the number of hours of advertisement viewing), Although the information transmitted from the device P1 is used, past numerical values stored in the
広告効果推計部の一例としての視認効果計測部23は、拡大推計部24により推計された広告効果(視認者数、時間数等の情報)を拡大推計結果データベースDBに格納する。また、視認効果計測部23は、拡大推計部24により推計された広告効果(視認者数あるいは時間数等)に基づいて、各推計結果画面(例えば、図8に示す推計結果画面SC1、図9に示す人物属性別推計結果画面SC2、あるいは図10に示す駅・曜日別推計結果画面SC3等)を生成して、表示装置MNに送信して出力させる。
The visibility
視認効果計測部23は、広告接触可能者数計算部24A、広告視認者数計算部24B、広告注視者数計算部24C、および広告注視時間数計算部24Dのそれぞれの機能を実現し、各種視認者数あるいは各種時間を算出する。
The visibility
広告接触可能者数計算部24Aは、拡大推計モデル作成部22から出力された広告接触可能者数計算モデル22Aと、広告接触可能者数計算モデル22Aの作成に使用された検出情報とを用いて、広告接触可能者数を算出する。例えば、広告接触可能者数計算部24Aは、広告接触可能者数計算モデル22Aと、第1の検出エリア内における人物の検出人数とに基づいて、広告接触可能者数を算出する。
The number of people who can be exposed to
広告視認者数計算部24Bは、拡大推計モデル作成部22から出力された広告視認者数計算モデル22Bと、広告視認者数計算モデル22Bの作成に使用された検出情報とを用いて、広告視認者数を算出する。
The advertisement viewer
例えば、広告視認者数計算部24Bは、広告視認者数計算モデル22Bと、第1の検出エリア内で検出された人物のうち人物の顔角度あるいは視線角度を基準方向として、広告視認者数計算モデル22Bと、基準方向を中心とする視野120°内に広告媒体が位置する(つまり、検出された人物の視野120°内に広告媒体が位置する)人物の検出人数と、広告媒体の広告面の中心点を基準に120°内のエリアを通行する人物の歩行動線情報とを用いて、広告視認者数を算出してよい。なお、補正係数は、広告媒体の広告面の中心から120°のエリアを通過する人物の歩行動線情報に基づいて、ヒューリスティック分析により決定されてよい。
For example, the advertisement viewer
広告注視者数計算部24Cは、拡大推計モデル作成部22から出力された広告注視者数計算モデル22Cと、広告注視者数計算モデル22Cの作成に使用された検出情報とを用いて、広告注視者数を算出する。
The advertisement gazer
例えば、広告注視者数計算部24Cは、広告注視者数計算モデル22Cと、第1の検出エリア内で検出された人物のうち人物の顔角度あるいは視線角度を基準方向として、この基準方向を中心とする近接視野70°内に広告媒体が位置する(つまり、検出された人物の近接視野70°内に広告媒体が位置する)人物(つまり、広告注視者)の検出人数とを用いて、広告注視者数を算出してもよいし、広告注視者数計算モデル22Cと、基準方向を中心とする近接視野70°内に広告媒体が位置する人物の検出人数と、広告媒体の広告面の中心点を基準に近接視野70°内を通行する人物の歩行動線情報とを用いて、広告注視者数を算出してもよい。なお、補正係数は、近接視野70°内に広告媒体が位置する人物の検出情報の重回帰分析により決定されてもよいし、広告媒体の広告面の中心から70°のエリアを通過する人物の歩行動線情報に基づいて、ヒューリスティック分析により決定されてもよい。
For example, the advertisement gazer
広告注視時間数計算部24Dは、拡大推計モデル作成部22から出力された広告注視時間数計算モデル22Dと、広告注視時間数計算モデル22Dの作成に使用された検出情報とを用いて、広告注視時間を算出(計測)する。
The advertisement gaze
記憶部の一例としてのメモリ25は、例えば制御部21の各処理を実行する際に用いられるワークメモリとしてのRAMと、制御部21の動作を規定したプログラムおよびデータを格納するROMとを有する。RAMには、制御部21により生成あるいは取得されたデータもしくは情報が一時的に保存される。ROMには、制御部21の動作を規定するプログラムが書き込まれている。メモリ25は、拡大推計モデル作成部22により作成された各種拡大推計モデルのそれぞれを広告媒体ごとに記憶する。また、メモリ25は、各種拡大推計モデルの作成に用いられる視認者基準,作成された拡大推計モデルの情報等を記憶する。なお、これら情報の一部又は全ては端末装置P1のメモリ14や外部のメモリに記憶されていてもよい。
The
拡大推計結果データベースDBは、RAMおよびROMなどによる半導体メモリと、SSD(Solid State Drive)あるいはHDD等によるストレージデバイスのうちいずれかを含む記憶デバイスを有して構成される。拡大推計結果データベースDBは、視認効果計測部23により推計された拡大推計結果を格納する。
The expanded estimation result database DB includes a storage device including a semiconductor memory such as a RAM and a ROM, and a storage device such as an SSD (Solid State Drive) or an HDD. The expanded estimation result database DB stores expanded estimation results estimated by the visibility
表示装置MNは、サーバS1との間でデータ送受信可能に接続される。なお、図1に示す表示装置MNは、ネットワークNWを介してサーバS1との間で無線通信可能に接続される例を示すが、サーバS1との間で有線通信可能に接続されるディスプレイであってもよい。表示装置MNは、例えばLCD(Liquid Crystal Display)または有機EL(Electroluminescence)等のディスプレイを有する、例えばPC、ノートPC、タブレット端末、スマートフォン等の端末装置である。表示装置MNは、サーバS1から送信された各推計結果画面(例えば、図8に示す推計結果画面SC1、図9に示す人物属性別推計結果画面SC2、あるいは図10に示す駅・曜日別推計結果画面SC3等)を出力(表示)する。 The display device MN is connected to the server S1 so as to be able to transmit and receive data. Note that the display device MN shown in FIG. 1 is an example connected to the server S1 via the network NW so as to be able to communicate wirelessly, but it is not a display that is connected to the server S1 so as to be capable of wired communication. It's okay. The display device MN is a terminal device such as a PC, a notebook PC, a tablet terminal, or a smartphone, which has a display such as an LCD (Liquid Crystal Display) or an organic EL (Electroluminescence). The display device MN displays each estimation result screen transmitted from the server S1 (for example, the estimation result screen SC1 shown in FIG. 8, the estimation result screen SC2 by person attribute shown in FIG. 9, or the estimation result by station/day of the week shown in FIG. 10). screen SC3, etc.) is output (displayed).
また、表示装置MNは、ユーザ操作を受け付け可能であって、ユーザ操作に基づいて、サーバS1から送信された推計結果画面のレイアウト変更操作(例えば、グラフ種別の変更、推計結果画面に表示される広告媒体数等)を受け付けたり、推計結果画面で表示される表示対象に関する選択操作(例えば、視認者数、時間、人物の属性情報、曜日、広告媒体の設置場所等)を受け付けたりする。 The display device MN is also capable of accepting user operations, and based on the user operations, the display device MN also performs a layout change operation of the estimation result screen transmitted from the server S1 (for example, changing the graph type, changing the layout displayed on the estimation result screen). number of advertising media, etc.), and selection operations related to display targets displayed on the estimation result screen (for example, number of viewers, time, attribute information of a person, day of the week, location of advertising media, etc.).
なお、以上の説明において、推計結果画面は、一例としてサーバS1により生成され、表示装置MNにより出力(表示)される例について説明するが、これに限定されない。例えば、推計結果画面は、表示装置MNにより生成されてもよい。このような場合、サーバS1は、拡大推計結果と、拡大推計された広告媒体に関する情報、広告媒体が設置された場所情報、拡大推計処理に用いられた情報(例えば、撮像映像,実測情報,検出情報等)等の推計結果画面の生成に用いられるデータを表示装置MNに送信することで、表示装置MNによる推計結果画面を生成可能にしてもよい。 Note that in the above description, an example will be described in which the estimation result screen is generated by the server S1 and output (displayed) by the display device MN, but the estimation result screen is not limited to this. For example, the estimation result screen may be generated by the display device MN. In such a case, the server S1 stores the expanded estimation results, information about the advertising media that has been expanded and estimated, information on the location where the advertising media is installed, and information used in the expanded estimation process (for example, captured video, actual measurement information, detected information, etc.). The display device MN may be able to generate the estimation result screen by transmitting data used to generate the estimation result screen, such as information, etc., to the display device MN.
次に、図6を参照して、広告効果推計システム100の動作手順について説明する。図6は、実施の形態1に係る広告効果推計システム100の動作手順例を示すフローチャートである。なお、図6に示すステップSt1~ステップSt2の処理は、カメラC1,…のそれぞれにより実行されてよい。また、カメラの台数は、少なくとも1台であればよい。
Next, with reference to FIG. 6, the operating procedure of the advertising
カメラC1,…のそれぞれは、広告媒体に接触可能あるいは広告媒体を視認可能な第2の検出エリア(例えば、図3および図4に示す第2の検出エリアAR12,AR22のそれぞれ)の少なくとも一部を含む第1の検出エリア(例えば、図3および図4に示す第1の検出エリアAR11,AR21のそれぞれ)を撮像する。カメラC1,…のそれぞれは、撮像された撮像映像を端末装置P1に送信する。 Each of the cameras C1, . (For example, each of the first detection areas AR11 and AR21 shown in FIGS. 3 and 4) is imaged. Each of the cameras C1, . . . transmits captured images to the terminal device P1.
なお、広告効果推計システム100は、1台のカメラにより推計対象範囲である複数の広告媒体のそれぞれの第2の検出エリアの少なくとも一部を含む第1の検出エリアを撮像してもよいし、複数のカメラのそれぞれにより推計対象範囲である1つの広告媒体の第2の検出エリアの少なくとも一部を含む第1の検出エリアを撮像してもよい。また、広告効果推計システム100は、1以上のカメラのそれぞれにより推計対象範囲である1以上の広告媒体の第2の検出エリア全体を含む第1の検出エリアを撮像してもよい。
Note that the advertising
また、広告視認者数、広告注視者数、あるいは広告注視時間等を推測する場合、カメラC1,…のそれぞれは、人物の顔を撮像可能な位置(例えば、広告媒体の周囲等)に設置されることが望ましいが、これに限定されなくてよい。 In addition, when estimating the number of people viewing advertisements, the number of people gazing at advertisements, or the length of time they gazed at advertisements, each of the cameras C1, ... should be installed at a position where it is possible to image a person's face (for example, around the advertising medium, etc.). Although it is desirable that the
端末装置P1の制御部11は、1以上のカメラC1,…のそれぞれから送信された撮像映像を取得する(St1)。人物検出部12は、取得された撮像映像から人物の検出処理を実行し、検出情報(例えば、視認者のそれぞれに該当する人物の検出人数,顔角度,視線角度,属性情報,位置情報,歩行動線情報等)を取得する(St2)。また、入力部16は、作業者による実測情報の入力を受け付ける。制御部11は、入力部16により受け付けられた実測情報を取得する(St2)。なお、事前に拡大推計モデル作成部22によって拡大推計モデルが作成済みの状態等のときは、実測情報の取得処理は必須でなく、省略されてもよい。制御部11は、取得された実測情報と、検出情報とを対応付けて、サーバS1に送信する。
The
サーバS1の制御部21は、端末装置P1から送信された実測情報と、検出情報を取得し、取得された実測情報と、検出情報とを用いて拡大推計モデルの作成処理を実行する(St3)。具体的には、広告媒体に接触可能、あるいは広告媒体を視認可能な範囲(例えば、図3および図4に示す検出エリアAR10,AR20)の人物に関する実測情報と、広告媒体の視認範囲の少なくとも一部を含む撮像範囲(例えば、図3および図4に示す第1の検出エリア)を撮像した撮像画像(撮像映像)に基づく検出情報である。制御部21は、人物検出処理により取得された検出情報と、端末装置P1から取得された検出情報とを用いて、拡大推計モデルの作成処理を実行する。
The
サーバS1の制御部21は、作成された拡大推計モデル(例えば、広告接触可能者数計算モデル22A,広告視認者数計算モデル22B,広告注視者数計算モデル22C,広告注視時間数計算モデル22D等)と、取得された検出情報とを用いて、広告媒体ごとの拡大推計処理を実行する(St4)。制御部21は、拡大推計処理により得られた視認者数あるいは視認時間等に基づいて、広告媒体ごとの各推計結果画面を生成し、表示装置MNに送信する。
The
表示装置MNは、サーバS1から送信された各推計結果画面を出力(表示)する(St5)。 The display device MN outputs (displays) each estimation result screen transmitted from the server S1 (St5).
以上により、実施の形態1に係る広告効果推計システム100は、カメラの検知範囲内に広告媒体が位置していない場合であっても、この広告媒体の広告効果を推計(推測)できる。したがって、広告効果推計システム100は、既に設置されたカメラの検知範囲内(つまり、第1の検出エリア)に広告媒体の第2の検知エリアの少なくとも一部が含まれる場合には、新たにカメラを設置したり、カメラの設置位置を変更したりすることなく、広告媒体の広告効果を推計(推測)できる。また、広告効果推計システム100は、カメラの検知範囲内(つまり、第1の検出エリア)に含まれる複数の第2の検知エリアのそれぞれに対応する広告媒体の広告効果を推計(推測)可能であるため、1つのカメラで複数の広告媒体のそれぞれの広告効果を推計(推測)できる。
As described above, the advertising
次に、図7を参照して、広告効果推計システム100の拡大推計モデル作成手順について説明する。図7は、実施の形態1に係る広告効果推計システム100の拡大推計モデル作成手順例を示すフローチャートである。なお、図7に示す拡大推計モデル作成手順は、図6に示すステップSt3の処理で実行される。
Next, with reference to FIG. 7, a procedure for creating an expanded estimation model of the advertising
サーバS1の制御部21は、端末装置P1から送信された作業者の目視により実測された視認者実測人数と、カメラC1,…のそれぞれにより検出された視認者検出人数とを取得する(St31)。
The
拡大推計モデル作成部22は、人物検出処理により検出された検出人数を説明変数に、作業者の目視により実測された実測人数を目的変数にそれぞれ設定して、重回帰分析(つまり、機械学習)を実行する(St32)。なお、拡大推計モデルの作成方法はこれに限定されないことは言うまでもない。例えば、機械学習ではなくヒューリスティックに係数を決定してもよい。
The expanded estimation
拡大推計モデル作成部22は、機械学習を実行し、1以上の拡大推計モデル(例えば、広告接触可能者数計算モデル22A,広告視認者数計算モデル22B,広告注視者数計算モデル22C,広告注視時間数計算モデル22D等)を作成する(St33)。
The expanded estimation
次に、図8を参照して、推計結果画面SC1について説明する。図8は、広告効果の実測値と推測値とを比較する推計結果画面SC1の一例を説明する図である。 Next, the estimation result screen SC1 will be explained with reference to FIG. FIG. 8 is a diagram illustrating an example of an estimation result screen SC1 that compares the measured value and the estimated value of advertising effectiveness.
推計結果画面SC1は、拡大推計結果の一例であって、広告接触可能者数計算モデル22Aを用いて推計(推測)された1日あたりの平均広告接触可能者数(つまり、推測値)と、作業者の目視確認により実測された1日あたりの平均広告接触可能者数(つまり、実測値)とを比較するための棒グラフであって、縦軸に1日あたりの平均広告接触可能者数を示し、横軸に曜日を示す。これにより、広告効果推計システム100は、実測値と推計値との差分をユーザに可視化することができる。
The estimation result screen SC1 is an example of the expanded estimation result, and shows the average number of people who can be contacted by advertisements per day (in other words, an estimated value) estimated (estimated) using the number of people who can be contacted by
次に、図9参照して、人物属性別推計結果画面SC2について説明する。図9は、広告効果の人物属性別推計結果画面SC2の一例を説明する図である。 Next, the person attribute-based estimation result screen SC2 will be described with reference to FIG. FIG. 9 is a diagram illustrating an example of the advertising effectiveness estimation result screen SC2 by person attribute.
人物属性別推計結果画面SC2は、拡大推計結果の一例であって、広告接触可能者数計算モデル22Aを用いて推計(推測)された1日あたりの平均広告接触可能者数(つまり、推測値)を、人物の属性情報である年齢情報に基づいて、人物属性別、時間帯別に分類した棒グラフと、広告視認者数計算モデル22Bを用いて推計(推測)された平均広告視認者数を平均広告接触可能者数で除算して得られる広告媒体の視認率を示す線グラフとで示す。なお、図9に示す人物属性別推計結果画面SC2は、属性情報が「男性」である人物を年代別、時間帯別に分類した拡大推計結果である。
The estimation result screen SC2 by person attribute is an example of the expanded estimation result, and shows the average number of people who can be exposed to advertisements per day (in other words, the estimated value) estimated (estimated) using the number of people who can be exposed to
人物属性別推計結果画面SC2は、縦軸が1日あたりの平均広告接触可能者数と広告媒体の視認率とを示し、横軸が時間帯をそれぞれ示す。これにより、広告効果推計システム100は、時間帯別、人物属性別の拡大推計結果(広告効果)をユーザに可視化することができる。
In the person attribute-specific estimation result screen SC2, the vertical axis indicates the average number of people who can contact the advertisement per day and the visibility rate of the advertising medium, and the horizontal axis indicates the time period. Thereby, the advertising
また、人物属性別推計結果画面SC2は、人物属性別推計結果画面SC2に表示される拡大推計結果に関する指定操作を受け付け可能な表示対象選択欄SL1,SL2,SL3のそれぞれを含む。 Furthermore, the person attribute-based estimation result screen SC2 includes display target selection fields SL1, SL2, and SL3 that can accept designation operations regarding the expanded estimation results displayed on the person attribute-based estimation result screen SC2.
表示対象選択欄SL1は、表示対象である広告媒体の指定操作を受け付ける。図9に示す例において表示対象選択欄SL1は、「B駅」に設置された広告媒体が指定されている。 The display target selection field SL1 accepts an operation for specifying an advertising medium to be displayed. In the example shown in FIG. 9, the display target selection field SL1 specifies advertising media installed at "B station".
表示対象選択欄SL2は、拡大推計に用いられた検出情報の検出日時として平日または休日の指定操作を受け付ける。図9に示す例において表示対象選択欄SL2は、「平日」が指定されている。 The display target selection field SL2 accepts an operation for specifying a weekday or a holiday as the detection date and time of the detection information used for the expanded estimation. In the example shown in FIG. 9, "weekdays" is specified in the display target selection column SL2.
表示対象選択欄SL3は、拡大推計に用いられた検出情報の検出日時として曜日あるいは日時の指定操作を受け付ける。図9に示す例において表示対象選択欄SL3は、「すべて」(つまり、月曜日~日曜日)が指定されている。具体的に、月曜日にのみチェックを入れると月曜日のデータのみが表示される。なお、休日の定義は任意で設定できる(例えば、休日に祝日を含む、あるいは含まない等)。 The display target selection field SL3 accepts an operation for specifying the day of the week or the date and time as the detection date and time of the detection information used in the expanded estimation. In the example shown in FIG. 9, "all" (that is, Monday to Sunday) is specified in the display target selection field SL3. Specifically, if you check only Monday, only Monday's data will be displayed. Note that the definition of holidays can be set arbitrarily (for example, holidays include or do not include holidays, etc.).
次に、図10を参照して、駅・曜日別推計結果画面SC3について説明する。図10は、広告効果の駅・曜日別推計結果画面SC3の一例を説明する図である。 Next, with reference to FIG. 10, the station/day-of-week estimation result screen SC3 will be described. FIG. 10 is a diagram illustrating an example of the advertising effect estimation result screen SC3 by station and day of the week.
駅・曜日別推計結果画面SC3は、拡大推計結果の一例であって、広告接触可能者数計算モデル22Aを用いて推計(推測)された1日あたりの平均広告接触可能者数(つまり、推測値)を曜日別に分類した棒グラフと、広告視認者数計算モデル22Bを用いて推計(推測)された平均広告視認者数を平均広告接触可能者数で除算して得られる広告媒体の視認率を示す線グラフとで示す。また、図10に示す駅・曜日別推計結果画面SC3は、「A駅」に設置された広告媒体の拡大推計結果ST1と、「B駅」に設置された広告媒体の拡大推計結果ST2とを並べて表示する。これにより、ユーザは、異なる場所に設置された2つの広告媒体の拡大推計結果ST1,ST2のそれぞれを一目で比較できる。
The estimation result screen SC3 by station and day of the week is an example of the expanded estimation result, and shows the average number of people who can be exposed to advertisements per day (in other words, estimated) using the
駅・曜日別推計結果画面SC3は、縦軸が1日あたりの平均広告接触可能者数と広告媒体の視認率とを示し、横軸が時間帯をそれぞれ示す。これにより、広告効果推計システム100は、時間帯別、人物属性別の拡大推計結果(広告効果)をユーザに可視化することができる。
In the estimation result screen SC3 by station and day of the week, the vertical axis shows the average number of people who can contact the advertisement per day and the visibility rate of advertising media, and the horizontal axis shows the time of day. Thereby, the advertising
以上により、実施の形態1に係るサーバS1(広告効果推計サーバの一例)は、広告媒体を視聴可能な検出エリアAR10,AR20(視聴エリアの一例)の少なくとも一部を含む第1の検出エリアAR11,AR21(撮像エリアの一例)を撮像する少なくとも1つのカメラC1,…により撮像された撮像映像と、撮像映像から検出された人物に関する第1の検出情報とを取得する通信部20(取得部の一例)と、第1の検出情報と検出エリアAR10,AR20の人物に関する第2の検出情報とに基づいて、検出エリアAR10,AR20における広告媒体AD11,AD21の広告効果を推計する拡大推計モデルを作成する拡大推計モデル作成部22(モデル作成部の一例)と、拡大推計モデルと第1の検出情報とを用いて、広告効果を推計して出力する視認効果計測部23(広告効果推計部の一例)と、を備える。なお、ここでいう1以上のコンピュータは、例えば、少なくともサーバS1を含んで構成される。 As described above, the server S1 according to Embodiment 1 (an example of an advertising effectiveness estimation server) operates in a first detection area AR11 that includes at least a portion of detection areas AR10 and AR20 (an example of a viewing area) where advertising media can be viewed. , AR21 (an example of an imaging area), the communication unit 20 (of the acquisition unit) acquires the captured video captured by at least one camera C1, . . . An expanded estimation model is created to estimate the advertising effectiveness of advertising media AD11, AD21 in detection areas AR10, AR20 based on the first detection information and the second detection information regarding people in detection areas AR10, AR20. An expanded estimation model creation unit 22 (an example of a model creation unit) that estimates and outputs advertising effectiveness using the expanded estimation model and the first detection information, and a visibility effect measurement unit 23 (an example of an advertising effectiveness estimation unit) ) and. Note that the one or more computers referred to here include, for example, at least the server S1.
これにより、実施の形態1に係るサーバS1は、カメラC1,…により撮像された撮像映像と、撮像映像(つまり、カメラC1,…の検知範囲内であって、第1の検出エリアAR11,AR21の範囲)から検出された検出情報とを用いて作成された拡大推計モデルを用いて、広告媒体を視認可能な視認エリア(つまり、カメラC1,…の検知範囲外を含む検出エリアAR10,AR20の範囲)を通過する人物に対する広告媒体の広告効果を推計できる。つまり、サーバS1は、カメラC1,…の検知範囲内(第1の検出エリアAR11,AR21)に広告媒体を視認可能な検出エリアAR10,AR20の全範囲が含まれない場合であっても、カメラの検知範囲外における広告の広告効果をより高精度に推計できる。 As a result, the server S1 according to the first embodiment can detect the captured images captured by the cameras C1, . . . and the captured images (that is, within the detection range of the cameras C1, . Using an expanded estimation model created using the detection information detected from the detection information detected from the detection range of the camera C1,... It is possible to estimate the advertising effectiveness of advertising media for people who pass through the following range. In other words, the server S1 detects the detection range of the cameras C1, ... even if the detection range (the first detection areas AR11, AR21) does not include the entire range of the detection areas AR10, AR20 where advertising media can be viewed. The advertising effectiveness of advertisements outside the detection range can be estimated with higher accuracy.
また、以上により、実施の形態1における第1の検出情報および第2の検出情報は、人物の検出人数を含む。通信部20は、第1の検出情報を取得する。拡大推計モデル作成部22は、第1の検出情報と第2の検出情報とを用い、広告媒体の広告効果を推計する拡大推計モデルを生成する。これにより、実施の形態1に係るサーバS1は、撮像映像に映る人物の正しい人数と、人物検出部12により検出された撮像映像に映る人物の検出人数とを用いて、人物検出部12による人物の検出誤差を学習した拡大推計モデルを生成できる。したがって、サーバS1は、カメラの検知範囲外における広告の広告効果をより高精度に推計できる。
Further, as described above, the first detection information and the second detection information in the first embodiment include the number of detected people. The
また、以上により、実施の形態1に係るサーバS1の視認効果計測部23は、拡大推計モデルと第1の検出情報とを用いて推測値(第1の広告効果の一例であって、例えば、図8に示す広告接触可能者数の推測値)を推計して出力する。これにより、実施の形態1に係るサーバS1は、ユーザに推計された広告効果(例えば、広告接触可能者数の推測値)を出力できる。
Further, as described above, the visibility
また、以上により、実施の形態1に係るサーバS1より取得される第1の検出情報は、人物の位置情報を含む。拡大推計モデル作成部22は、広告媒体と人物との間の距離(例えば、広告媒体の広告面と人物との間の距離)に基づいて、異なる広告効果(例えば、広告接触可能者数、広告視認者数、あるいは広告注視者数等)を推計する拡大推計モデルを作成する。視認効果計測部23は、拡大推計モデルと第1の検出情報とを用いて、広告効果を推計して出力する。これにより、実施の形態1に係るサーバS1は、拡大推計モデルを用いて、複数の広告効果をそれぞれより高精度に推計できる。
Further, as described above, the first detection information acquired from the server S1 according to the first embodiment includes position information of a person. The expanded estimation
また、以上により、実施の形態1に係るサーバS1より取得される第1の検出情報は、人物の位置情報と人物の顔角度情報とを含む。拡大推計モデル作成部22は、撮像映像と、広告媒体に対する人物の位置情報(例えば、広告媒体に対する人物の位置、広告媒体の広告面と人物との間の距離)および人物の顔角度情報(例えば、人物の顔角度あるいは視線角度等)に基づいて、異なる広告効果(例えば、広告視認者数、あるいは広告注視者数等)を推計する拡大推計モデルを作成する。視認効果計測部23は、拡大推計モデルと第1の検出情報とを用いて、広告効果(例えば、広告視認者数、あるいは広告注視者数等)を推計して出力する。これにより、実施の形態1に係るサーバS1は、拡大推計モデルを用いて、複数の広告効果をそれぞれより高精度に推計できる。なお、顔角度は、視線角度であってもよいし、両方でもよい。
Further, as described above, the first detection information acquired from the server S1 according to the first embodiment includes the position information of the person and the face angle information of the person. The enlarged estimation
また、以上により、実施の形態1に係るサーバS1により取得される検出情報は、人物の位置情報と第1の検出エリアにおける人物の動線情報とを含む。拡大推計モデル作成部22は、広告媒体と人物との間の距離および人物の動線情報に基づいて、異なる広告効果(例えば、広告視認者数、あるいは広告注視者数等)を推計する複数の拡大推計モデルを作成する。視認効果計測部23は、複数の拡大推計モデルと検出情報とを用いて、複数の広告効果を推計して出力する。これにより、実施の形態1に係るサーバS1は、拡大推計モデルを用いて、複数の広告効果をそれぞれより高精度に推計できる。
Further, as described above, the detection information acquired by the server S1 according to the first embodiment includes the position information of the person and the flow line information of the person in the first detection area. The expanded estimation
また、以上により、実施の形態1に係るサーバS1により取得される第1の検出情報は、人物の位置情報を含む。拡大推計モデル作成部22は、人物の位置情報に基づいて、人物が視聴エリアに滞在した滞在時間を検出された人物ごとに計測し、計測された滞在時間を用いて、滞在時間に基づく広告効果(例えば、注視時間等)を推計する拡大推計モデルを作成する。視認効果計測部23は、拡大推計モデルと滞在時間とを用いて、広告効果を推計して出力する。これにより、実施の形態1に係るサーバS1は、拡大推計モデルを用いて、広告効果の一例としての注視時間等をそれぞれより高精度に推計できる。
Further, as described above, the first detection information acquired by the server S1 according to the first embodiment includes position information of a person. The expanded estimation
また、以上により、実施の形態1に係るサーバS1は、広告媒体が設置された設置場所の環境情報と、設置場所ごとに設定され、環境情報に基づいて、広告効果を計測する拡大推計モデルとを記憶するメモリ25(記憶部の一例)、をさらに備える。視認効果計測部23は、広告媒体の設置場所に対応する拡大推計モデルを用いて広告効果を推計して出力する。これにより、実施の形態1に係るサーバS1は、広告媒体が設置された設置場所の環境情報に基づく拡大推計モデルを用いることで、広告効果をより高精度に推計できる。
In addition, as described above, the server S1 according to the first embodiment uses the environmental information of the installation location where the advertising medium is installed and the expanded estimation model that is set for each installation location and measures advertising effectiveness based on the environmental information. The device further includes a memory 25 (an example of a storage unit) that stores . The visibility
また、以上により、実施の形態1に係るサーバS1における視認効果計測部23は、メモリ25に広告媒体の設置場所に対応する拡大推計モデルが記憶されていないと判定した場合、設置場所の環境情報と類似する環境情報を有する他の設置場所を選定し、選定された他の設置場所に対応する拡大推計モデルを用いて、広告効果を推計して出力する。これにより、実施の形態1に係るサーバS1は、類似する設置場所に設置された広告媒体の広告効果の推定に用いられる環境補正係数を、広告媒体の広告効果を推計する拡大推計モデルに適用することにより、広告効果をより高精度に推計できる。
Further, as described above, when the visibility
また、以上により、実施の形態1に係るサーバS1により取得される第1の検出情報は、人物の属性情報を含む。視認効果計測部23は、拡大推計モデルと第1の検出情報とを用いて、広告効果を推計し、推計された広告効果を人物の属性情報(例えば、性別,年代別等)ごとに出力する。これにより、実施の形態1に係るサーバS1は、機拡大推計モデルを用いて、属性情報ごとの広告効果を推計できる。つまり、ユーザは、推計された広告効果に基づいて、各広告媒体に掲示される広告内容をより効果的に選定できる。
Further, as described above, the first detection information acquired by the server S1 according to the first embodiment includes attribute information of a person. The visibility
また、以上により、実施の形態1に係るサーバS1により取得される第1の検出情報は、人物が検出された検出時刻情報を含む。視認効果計測部23は、拡大推計モデルと第1の検出情報とを用いて、広告効果を推計し、検出時刻情報に基づいて、推計された広告効果を時間帯別に出力する。これにより、実施の形態1に係るサーバS1は、拡大推計モデルを用いて、時間帯ごとの広告効果を推計できる。つまり、ユーザは、推計された広告効果に基づいて、各広告媒体に掲示される広告内容をより効果的に選定できる。
Further, as described above, the first detection information acquired by the server S1 according to the first embodiment includes detection time information at which a person was detected. The visibility
以上、添付図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても本開示の技術的範囲に属すると了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。 Although various embodiments have been described above with reference to the accompanying drawings, the present disclosure is not limited to such examples. It is clear that those skilled in the art can come up with various changes, modifications, substitutions, additions, deletions, and equivalents within the scope of the claims, and It is understood that it falls within the technical scope of the present disclosure. Further, each of the constituent elements in the various embodiments described above may be arbitrarily combined without departing from the spirit of the invention.
本開示は、カメラの検知範囲外における広告の広告効果をより高精度に推計する広告効果推計サーバ、広告効果推計方法および広告効果推計プログラムの提示として有用である。 The present disclosure is useful as a presentation of an advertising effectiveness estimation server, an advertising effectiveness estimation method, and an advertising effectiveness estimation program that more accurately estimate the advertising effectiveness of advertisements outside the detection range of a camera.
10,20 通信部
11,21 制御部
12 人物検出部
13A 顔検出部
13B 人検出部
14,25 メモリ
15 表示部
16 入力部
22 拡大推計モデル作成部
23 視認効果計測部
24 拡大推計部
100 広告効果推計システム
AD11,AD21 広告媒体
AR11,AR21 第1の検出エリア
AR12,AR22 第2の検出エリア
C1,C11,C21 カメラ
MN 表示装置
NW ネットワーク
10, 20
Claims (13)
前記第1の検出情報と前記視聴エリアの人物に関する第2の検出情報とに基づいて、前記視聴エリアにおける前記広告媒体の広告効果を推計する拡大推計モデルを作成するモデル作成部と、
前記拡大推計モデルと前記第1の検出情報とを用いて、前記広告効果を推計して出力する広告効果推計部と、を備える、
広告効果推計サーバ。 Obtaining a captured image captured by at least one camera that captures an image capturing area including at least a part of a viewing area where advertising media can be viewed, and first detection information regarding a person detected from the captured image. Department and
a model creation unit that creates an expanded estimation model that estimates an advertising effect of the advertising medium in the viewing area based on the first detection information and second detection information regarding the person in the viewing area;
an advertising effectiveness estimation unit that estimates and outputs the advertising effectiveness using the expanded estimation model and the first detection information;
Advertising effectiveness estimation server.
前記取得部は、
前記第1の検出情報を取得し、
前記モデル作成部は、
前記第1の検出情報と前記第2の検出情報とを用いて、前記広告媒体の前記広告効果を推計する前記拡大推計モデルを生成する、
請求項1に記載の広告効果推計サーバ。 The first detection information and the second detection information include the number of people detected,
The acquisition unit includes:
obtaining the first detection information;
The model creation section includes:
generating the expanded estimation model for estimating the advertising effectiveness of the advertising medium using the first detection information and the second detection information;
The advertising effectiveness estimation server according to claim 1.
前記拡大推計モデルと前記第1の検出情報とを用いて第1の広告効果を推計して出力する、
請求項2に記載の広告効果推計サーバ。 The advertising effectiveness estimation department is
estimating and outputting a first advertising effect using the expanded estimation model and the first detection information;
The advertising effectiveness estimation server according to claim 2.
前記モデル作成部は、
前記広告媒体と前記人物との間の距離に基づいて、異なる前記広告効果を推計する拡大推計モデルを作成し、
前記広告効果推計部は、
前記拡大推計モデルと前記第1の検出情報とを用いて、前記広告効果を推計して出力する、
請求項1に記載の広告効果推計サーバ。 The first detection information includes position information of the person,
The model creation section includes:
creating an expanded estimation model that estimates different advertising effects based on the distance between the advertising medium and the person;
The advertising effectiveness estimation department is
estimating and outputting the advertising effect using the expanded estimation model and the first detection information;
The advertising effectiveness estimation server according to claim 1.
前記モデル作成部は、
前記広告媒体に対する前記人物の位置情報および前記人物の顔角度情報に基づいて、異なる前記広告効果を推計する拡大推計モデルを作成し、
前記広告効果推計部は、
前記拡大推計モデルと前記第1の検出情報とを用いて、前記広告効果を推計して出力する、
請求項1に記載の広告効果推計サーバ。 The first detection information includes position information of the person and face angle information of the person,
The model creation section includes:
creating an expanded estimation model for estimating different advertising effects based on position information of the person with respect to the advertising medium and face angle information of the person;
The advertising effectiveness estimation department is
estimating and outputting the advertising effect using the expanded estimation model and the first detection information;
The advertising effectiveness estimation server according to claim 1.
前記モデル作成部は、
前記広告媒体と前記人物との間の距離および前記人物の動線情報に基づいて、異なる前記広告効果を推計する拡大推計モデルを作成し、
前記広告効果推計部は、
前記拡大推計モデルと前記検出情報とを用いて、前記広告効果を推計して出力する、
請求項1に記載の広告効果推計サーバ。 The first detection information includes position information of the person and flow line information of the person in the imaging area,
The model creation section includes:
creating an expanded estimation model that estimates different advertising effects based on the distance between the advertising medium and the person and the flow line information of the person;
The advertising effectiveness estimation department is
estimating and outputting the advertising effect using the expanded estimation model and the detected information;
The advertising effectiveness estimation server according to claim 1.
前記モデル作成部は、
前記人物の位置情報に基づいて、前記人物が前記視聴エリアに滞在した滞在時間を前記人物ごとに計測し、
計測された前記滞在時間を用いて、前記滞在時間に基づく広告効果を推計する拡大推計モデルを作成し、
前記広告効果推計部は、
前記拡大推計モデルと前記滞在時間とを用いて、前記広告効果を推計して出力する、
請求項1に記載の広告効果推計サーバ。 The first detection information includes position information of the person,
The model creation section includes:
Measuring the length of time the person stayed in the viewing area based on the location information of the person,
Using the measured stay time, create an expanded estimation model that estimates advertising effectiveness based on the stay time,
The advertising effectiveness estimation department is
estimating and outputting the advertising effect using the expanded estimation model and the stay time;
The advertising effectiveness estimation server according to claim 1.
前記広告効果推計部は、
前記広告媒体の前記設置場所に対応する前記拡大推計モデルを用いて前記広告効果を推計して出力する、
請求項1に記載の広告効果推計サーバ。 further comprising a storage unit that stores environmental information of the installation location where the advertising medium is installed, and the expanded estimation model that is set for each installation location and measures the advertising effectiveness based on the environmental information,
The advertising effectiveness estimation department is
estimating and outputting the advertising effect using the expanded estimation model corresponding to the installation location of the advertising medium;
The advertising effectiveness estimation server according to claim 1.
前記記憶部に前記広告媒体の前記設置場所に対応する前記拡大推計モデルが記憶されていないと判定した場合、前記設置場所の前記環境情報と類似する環境情報を有する他の設置場所を選定し、選定された他の設置場所に対応する前記拡大推計モデルを用いて前記広告効果を推計して出力する、
請求項8に記載の広告効果推計サーバ。 The advertising effectiveness estimation department is
If it is determined that the expanded estimation model corresponding to the installation location of the advertising medium is not stored in the storage unit, selecting another installation location having environmental information similar to the environmental information of the installation location; estimating and outputting the advertising effect using the expanded estimation model corresponding to the other selected installation location;
The advertising effect estimation server according to claim 8.
前記広告効果推計部は、
前記拡大推計モデルと前記第1の検出情報とを用いて、前記広告効果を推計し、
推計された前記広告効果を前記人物の属性情報ごとに出力する、
請求項1に記載の広告効果推計サーバ。 The first detection information includes attribute information of the person,
The advertising effectiveness estimation department is
estimating the advertising effect using the expanded estimation model and the first detection information;
outputting the estimated advertising effect for each attribute information of the person;
The advertising effectiveness estimation server according to claim 1.
前記広告効果推計部は、
前記拡大推計モデルと前記第1の検出情報とを用いて、前記広告効果を推計し、
前記検出時刻情報に基づいて、推計された前記広告効果を時間帯別に出力する、
請求項1に記載の広告効果推計サーバ。 The first detection information includes detection time information when the person was detected,
The advertising effectiveness estimation department is
estimating the advertising effect using the expanded estimation model and the first detection information;
outputting the estimated advertising effectiveness by time zone based on the detection time information;
The advertising effectiveness estimation server according to claim 1.
前記カメラにより撮像された撮像映像と、前記撮像映像から検出された人物に関する第1の検出情報とを取得し、
前記第1の検出情報と前記視聴エリアの人物に関する第2の検出情報とに基づいて、前記視聴エリアにおける前記広告媒体の広告効果を推計する拡大推計モデルを作成し、
作成された前記拡大推計モデルと前記第1の検出情報とを用いて、前記広告効果を推計して出力する、
広告効果推計方法。 An advertising effectiveness estimation method executed by one or more computers capable of communicating with at least one camera that captures an imaging area that includes at least a portion of a viewing area where advertising media can be viewed, the method comprising:
acquiring a captured video captured by the camera and first detection information regarding a person detected from the captured video;
creating an expanded estimation model for estimating the advertising effectiveness of the advertising medium in the viewing area based on the first detection information and second detection information regarding the person in the viewing area;
estimating and outputting the advertising effect using the created expanded estimation model and the first detection information;
Advertising effectiveness estimation method.
前記カメラにより撮像された撮像映像と、前記撮像映像から検出された人物に関する第1の検出情報とを取得するステップと、
前記第1の検出情報と前記視聴エリアの人物に関する第2の検出情報とに基づいて、前記視聴エリアにおける前記広告媒体の広告効果を推計する拡大推計モデルを作成するステップと、
作成された前記拡大推計モデルと前記第1の検出情報とを用いて、前記広告効果を推計して出力するステップと、を実現させるための、
広告効果推計プログラム。 An advertising effectiveness estimation program executed by one or more computers capable of communicating with at least one camera that images an imaging area including at least a part of a viewing area where advertising media can be viewed,
acquiring a captured video captured by the camera and first detection information regarding a person detected from the captured video;
creating an expanded estimation model for estimating the advertising effectiveness of the advertising medium in the viewing area based on the first detection information and second detection information regarding the person in the viewing area;
estimating and outputting the advertising effect using the created expanded estimation model and the first detection information;
Advertising effectiveness estimation program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022056467A JP2023148447A (en) | 2022-03-30 | 2022-03-30 | Advertising effectiveness estimation server, advertising effectiveness estimation method, and advertising effectiveness estimation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022056467A JP2023148447A (en) | 2022-03-30 | 2022-03-30 | Advertising effectiveness estimation server, advertising effectiveness estimation method, and advertising effectiveness estimation program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023148447A true JP2023148447A (en) | 2023-10-13 |
Family
ID=88288263
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022056467A Pending JP2023148447A (en) | 2022-03-30 | 2022-03-30 | Advertising effectiveness estimation server, advertising effectiveness estimation method, and advertising effectiveness estimation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023148447A (en) |
-
2022
- 2022-03-30 JP JP2022056467A patent/JP2023148447A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10956722B2 (en) | Moving information analyzing system and moving information analyzing method | |
US10546199B2 (en) | Person counting area setting method, person counting area setting program, moving line analysis system, camera device, and person counting program | |
JP5272213B2 (en) | ADVERTISEMENT EFFECT MEASUREMENT DEVICE, ADVERTISEMENT EFFECT MEASUREMENT METHOD, AND PROGRAM | |
US9443144B2 (en) | Methods and systems for measuring group behavior | |
US20210216938A1 (en) | Enterprise platform for enhancing operational performance | |
US20200104779A1 (en) | Non-intrusive workflow assessment (niwa) for manufacturing optimization | |
CN110199316A (en) | The image processing method of camera and camera | |
US11741677B1 (en) | Systems and methods for employing augmented reality in appraisal and assessment operations | |
JP2018077837A (en) | Position recognition method and system, and abnormality determination method and system | |
US20210166180A1 (en) | Information processing apparatus, information processing method, and work evaluation system | |
US20200228756A1 (en) | Surveillance system, surveillance network construction method, and program | |
Samuel et al. | AI Driven Thermal People Counting for Smart Window Facade Using Portable Low‐Cost Miniature Thermal Imaging Sensors | |
JP2007172378A (en) | Apparatus for specifying object to be gazed at | |
JP2016103292A (en) | Method and apparatus for measuring audience size for digital sign | |
JP2023148447A (en) | Advertising effectiveness estimation server, advertising effectiveness estimation method, and advertising effectiveness estimation program | |
US11909776B2 (en) | Online video distribution support method, online video distribution support apparatus and online video distribution support system | |
JP2007243270A (en) | Video image surveillance system and method therefor | |
US20160196576A1 (en) | Systems, devices, and methods of measuring an advertising campaign | |
US20210385426A1 (en) | A calibration method for a recording device and a method for an automatic setup of a multi-camera system | |
CA2983339C (en) | Display systems using facial recognition for viewership monitoring purposes | |
JP7329967B2 (en) | IMAGE PROCESSING APPARATUS, SYSTEM, IMAGE PROCESSING APPARATUS CONTROL METHOD, AND PROGRAM | |
Dong et al. | A machine vision–based, quantitative method of capturing spatiotemporal activity for post-occupancy evaluation research | |
KR20150027410A (en) | The method of managing a number of branches by counting a floating population and estimating sales for a floating population | |
KR20230036880A (en) | A system for monitoring solar power generation sites based on thermal image | |
KR20220060402A (en) | System and method for providing a customized advertising based on interest advertisement |