JP2018097412A - Information processing device, information processing method and program - Google Patents

Information processing device, information processing method and program Download PDF

Info

Publication number
JP2018097412A
JP2018097412A JP2016238412A JP2016238412A JP2018097412A JP 2018097412 A JP2018097412 A JP 2018097412A JP 2016238412 A JP2016238412 A JP 2016238412A JP 2016238412 A JP2016238412 A JP 2016238412A JP 2018097412 A JP2018097412 A JP 2018097412A
Authority
JP
Japan
Prior art keywords
person
image
area
camera
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016238412A
Other languages
Japanese (ja)
Inventor
伊藤 洋輔
Yosuke Ito
洋輔 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016238412A priority Critical patent/JP2018097412A/en
Publication of JP2018097412A publication Critical patent/JP2018097412A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To correlate behavior of a person to be imaged to the characteristic appropriately, without complicating device configuration.SOLUTION: An information processing device 30 comprises: identifying means for identifying behavior of a person to be imaged from a first image obtained by imaging a monitoring area; identification means for identifying the person whose behavior is identified by the identifying means, from a second image obtained by imaging a specific area which is a part within the monitoring area; extraction means for extracting characteristic of the person identified by the identification means from the second image; and correlation means for correlating the behavior of the person identified by the identifying means to the characteristic of the person extracted by the extraction means.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理方法およびプログラムに関する。   The present invention relates to an information processing apparatus, an information processing method, and a program.

近年、ネットワークカメラ(以下、「NWカメラ」という。)から得られる画像の解析を活用した技術は、店舗内の監視以外にも用いられている。例えば、小売店のレジ前にNWカメラを設置しておき、NWカメラから得られる画像から、顧客の特徴(顔、年齢、性別など)を抽出し、その顧客の特徴とレジでの購買情報とを関連付けてマーケティング分析に活用する技術がある。  In recent years, a technique using analysis of an image obtained from a network camera (hereinafter referred to as “NW camera”) has been used other than in-store monitoring. For example, an NW camera is installed in front of a cash register at a retail store, and customer characteristics (face, age, gender, etc.) are extracted from the image obtained from the NW camera, and the customer characteristics and purchase information at the cash register There is a technology that associates and uses for marketing analysis.

特許文献1には、店舗内における顧客の行動を分析して、マーケティングに役立つデータを収集する顧客行動記録装置が開示されている。この技術は、施設に入店する人物を撮像する入口カメラと、施設内を移動する人物を撮像する施設内カメラと、商品の購入代金の支払いを行う人物を撮像する会計エリアカメラと、を備える。   Patent Document 1 discloses a customer behavior recording device that analyzes customer behavior in a store and collects data useful for marketing. This technology includes an entrance camera that images a person entering the facility, an in-facility camera that images a person moving through the facility, and an accounting area camera that images a person who pays for the purchase of goods. .

特開2010−113692号公報JP 2010-113692 A

上記特許文献1に記載の技術では、入口カメラ、施設内カメラおよび会計エリアカメラのそれぞれにおいて撮像された人物の対応付けを、撮像された人物の顔部分の画像を照合することにより行っている。そのため、各カメラは、それぞれ人物の顔を正面から捉えられる位置に設置する必要がある。
レジスペースの天井付近やレジに立つ店員の斜め後ろに防犯用カメラを設置している場合、その防犯用カメラをマーケティング分析用途として流用することも考えられる。しかしながら、そういった場所に設置されている防犯用カメラでは、顧客の顔が正面から捉えられなかったり、店員によって顧客の顔が映らなかったりする場合があるため、顧客の顔検出に失敗したり、人物特徴を抽出する際の精度が低下したりしてしまう。
In the technique disclosed in Patent Document 1, the person imaged in each of the entrance camera, the in-facility camera, and the accounting area camera is associated by collating the image of the captured human face portion. Therefore, each camera needs to be installed at a position where a person's face can be captured from the front.
If a security camera is installed near the ceiling of the cash register space or diagonally behind the store clerk standing at the cash register, the security camera may be used for marketing analysis purposes. However, with security cameras installed in such places, the customer's face may not be captured from the front, or the customer's face may not be reflected by the store clerk. The accuracy at the time of extracting a feature will fall.

したがって、レジ前に立つ顧客を正面から撮像するためには、防犯用カメラとは別に、マーケティング専用カメラを設置しなければならない。そして、そのマーケティング専用カメラは、レジごとにそれぞれ設置しなければならない。その理由は、レジが複数存在する場合、1つのレジ本体にカメラを設置しただけでは、画角が足りずに全てのレジ前に存在する顧客を撮像できないためである。つまり、上記特許文献1に記載の技術では、会計エリアカメラとしてレジの台数分のマーケティング専用カメラが必要となり、レジ台数が多い場合、コストが増大してしまう。
そこで、本発明は、装置構成を複雑化することなく、撮像対象の人物の行動と特徴とを適切に対応付けることを目的としている。
Therefore, in order to capture an image of a customer standing in front of a cash register from the front, a marketing camera must be installed separately from the security camera. And the camera for marketing must be installed for each cash register. The reason is that, when there are a plurality of cash registers, simply installing a camera on one cash register body cannot capture images of customers existing before all cash registers due to insufficient angle of view. That is, in the technique described in Patent Document 1, marketing cameras corresponding to the number of cash registers are required as accounting area cameras, and the cost increases when the number of cash registers is large.
Therefore, an object of the present invention is to appropriately associate the behavior and characteristics of a person to be imaged without complicating the apparatus configuration.

上記課題を解決するために、本発明に係る情報処理装置の一態様は、監視領域を撮像した第一の画像から撮像対象の人物の行動を特定する特定手段と、前記監視領域内の一部の特定領域を撮像した第二の画像から、前記特定手段により行動を特定された前記人物を識別する識別手段と、前記第二の画像から前記識別手段により識別された前記人物の特徴を抽出する抽出手段と、前記特定手段により特定された前記人物の行動と、前記抽出手段により抽出された前記人物の特徴とを対応付ける対応付け手段と、を備える。   In order to solve the above problem, an aspect of the information processing apparatus according to the present invention includes a specifying unit that specifies a behavior of a person to be imaged from a first image obtained by imaging a monitoring area, and a part of the monitoring area. The identification means for identifying the person whose action is specified by the specifying means is extracted from the second image obtained by imaging the specific area, and the characteristics of the person identified by the identification means are extracted from the second image An extraction unit; and an association unit that associates the behavior of the person specified by the specifying unit with the characteristics of the person extracted by the extraction unit.

本発明によれば、装置構成を複雑化することなく、撮像対象の人物の行動と特徴とを適切に対応付けることができる。   According to the present invention, it is possible to appropriately associate the behavior and characteristics of the person to be imaged without complicating the apparatus configuration.

第一の実施形態におけるシステムのネットワーク構成図である。It is a network block diagram of the system in 1st embodiment. 情報処理装置のハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware constitutions of information processing apparatus. マーケティング分析処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a marketing analysis process. 事前設定の流れを示す概念図である。It is a conceptual diagram which shows the flow of a preset. 映像解析処理の概念図である。It is a conceptual diagram of a video analysis process. 映像解析処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a video analysis process. 映像解析処理で使用するデータ構造の一例である。It is an example of the data structure used by video analysis processing. マーケティングレポート作成処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a marketing report creation process. マーケティングレポート作成処理で使用するデータ構造の一例である。It is an example of the data structure used by marketing report creation processing. マーケティングレポートの一例である。It is an example of a marketing report. 第二の実施形態におけるシステムのネットワーク構成図である。It is a network block diagram of the system in 2nd embodiment. 第二の実施形態の映像解析処理の概念図である。It is a conceptual diagram of the video analysis process of 2nd embodiment.

以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。
なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正又は変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the accompanying drawings.
The embodiment described below is an example as means for realizing the present invention, and should be appropriately modified or changed depending on the configuration and various conditions of the apparatus to which the present invention is applied. It is not limited to the embodiment.

(第一の実施形態)
図1は、本実施形態におけるシステムの動作環境の一例を示したネットワーク構成図である。本実施形態では、施設(店舗)内に設置したネットワークカメラを利用してマーケティング分析を行い、マーケティングレポートサービスを提供するマーケティング分析システムについて説明する。
マーケティング分析システム10は、レジカメラ20Aと、出口カメラ20Bと、情報処理装置30と、POS(Point Of Sales)レジ40と、クライアント装置50Aおよび50Bと、を備える。レジカメラ20A、出口カメラ20B、情報処理装置30、POSレジ40、クライアント装置50Aおよび50Bは、ネットワーク60によって接続されている。なお、ネットワーク60は、LAN(Local Area Network)やインターネット、WAN(Wide Area Network)などとすることができる。なお、ネットワーク60への物理的な接続形態は、有線であってもよいし、無線であってもよい。
(First embodiment)
FIG. 1 is a network configuration diagram showing an example of the operating environment of the system in the present embodiment. In this embodiment, a marketing analysis system that performs marketing analysis using a network camera installed in a facility (store) and provides a marketing report service will be described.
The marketing analysis system 10 includes a register camera 20A, an exit camera 20B, an information processing device 30, a POS (Point Of Sales) register 40, and client devices 50A and 50B. The cash register camera 20A, the exit camera 20B, the information processing device 30, the POS cash register 40, and the client devices 50A and 50B are connected by a network 60. The network 60 may be a LAN (Local Area Network), the Internet, a WAN (Wide Area Network), or the like. The physical connection form to the network 60 may be wired or wireless.

本実施形態では、情報処理装置30は、クラウドコンピューティング基盤上で構築するものとして説明する。ただし、上記に限ったものではなく、情報処理装置30をオンプレミスのサーバ上に構築するようにしてもよい。
レジカメラ20Aは、店舗内における複数のPOSレジ40が設置されたレジスペースの天井付近に設置され、各POSレジ40のレジ前領域と店舗の出入口付近に設定された出口領域とを含む監視領域を撮像する。レジカメラ20Aは、広角カメラもしくは全方位カメラを用いることができる。レジカメラ20Aにより撮像された画像は、監視領域内を移動する撮像対象の人物(顧客)の行動を特定する用途に使用される。なお、レジカメラ20Aにより撮像された画像は、防犯を目的とした用途に使用することもできる。
In the present embodiment, the information processing apparatus 30 is described as being built on a cloud computing platform. However, the present invention is not limited to the above, and the information processing apparatus 30 may be constructed on an on-premises server.
The register camera 20A is installed in the vicinity of the ceiling of the register space where a plurality of POS registers 40 are installed in the store, and includes a pre-register region of each POS register 40 and an exit region set in the vicinity of the store entrance. Image. As the registration camera 20A, a wide-angle camera or an omnidirectional camera can be used. The image picked up by the register camera 20A is used for the purpose of specifying the action of the person (customer) to be picked up moving within the monitoring area. In addition, the image imaged by the register camera 20A can be used for a purpose for crime prevention.

出口カメラ20Bは、監視領域内の一部の特定領域を撮像するカメラである。ここで、監視領域内の一部の特定領域は、店舗の出口領域である。出口カメラ20Bは、店舗の出入口から店内に向けて設置されたカメラであり、店舗の出口領域において、店舗の外に出る顧客の顔を正面から撮像できる位置に設置されている。出口カメラ20Bにより撮像された画像は、顧客の人物特徴を抽出する用途に使用される。
情報処理装置30は、レジカメラ20Aおよび出口カメラ20Bにより撮像された画像(映像)を取得し、マーケティング分析処理を行う。具体的には、情報処理装置30は、レジカメラ20Aの画像から撮像対象の人物の行動を特定し、出口カメラ20Bの画像から上記の行動を特定された人物を識別し、当該人物の特徴を抽出する。そして、情報処理装置30は、人物の行動と特徴とを対応付けてマーケティングデータとして出力する。さらに、情報処理装置30は、マーケティングデータに基づいて、人物の行動を分析したマーケティングレポートを作成し、出力する。
The exit camera 20B is a camera that captures an image of a specific area in the monitoring area. Here, a part of the specific area in the monitoring area is an exit area of the store. The exit camera 20B is a camera installed from the store entrance to the store, and is installed at a position where the face of the customer who goes out of the store can be imaged from the front in the store exit area. The image picked up by the exit camera 20B is used for the purpose of extracting customer personal features.
The information processing apparatus 30 acquires an image (video) captured by the cashier camera 20A and the exit camera 20B and performs a marketing analysis process. Specifically, the information processing apparatus 30 identifies the action of the person to be imaged from the image of the registration camera 20A, identifies the person who has identified the action from the image of the exit camera 20B, and determines the characteristics of the person. Extract. Then, the information processing apparatus 30 associates the person's action with the feature and outputs the marketing data as marketing data. Furthermore, the information processing apparatus 30 creates and outputs a marketing report that analyzes the behavior of the person based on the marketing data.

本実施形態では、情報処理装置30は、購入客の購買行動を特定し、購入客の購買行動と人物特徴とを対応付けたマーケティングデータを出力する。ここで、購買行動は、購入客が商品を購入する行動であり、購入客が購買を行ったPOSレジ40が送信する購買情報により特定することができる。つまり、本実施形態におけるマーケティングデータは、特定の人物特徴を持った購入客の購買傾向を分析するためのデータであるといえる。情報処理装置30は、レジカメラ20Aの画像に対して映像解析処理を行い、その映像解析処理の結果とPOSレジ40が送信する購買情報とを用いて、購入客の購買行動を特定する。   In the present embodiment, the information processing apparatus 30 specifies the purchase behavior of the purchaser and outputs marketing data in which the purchase behavior of the purchaser is associated with the personal characteristics. Here, the purchase behavior is behavior in which the purchaser purchases the product, and can be specified by purchase information transmitted by the POS register 40 that the purchaser has purchased. That is, it can be said that the marketing data in the present embodiment is data for analyzing the purchasing tendency of the purchaser having a specific person characteristic. The information processing apparatus 30 performs video analysis processing on the image of the registration camera 20A, and specifies purchase behavior of the purchaser using the result of the video analysis processing and purchase information transmitted by the POS register 40.

また、情報処理装置30は、レジカメラ20Aの画像に対して映像解析処理を行い、購買を行った購入客をレジ前領域から出口領域まで追跡し、その追跡結果に基づいて、出口カメラ20Bの画像から上記の追跡した購入客を識別する。そして、情報処理装置30は、出口カメラ20Bの画像に対して映像解析処理を行い、追跡した購入客の顔を検出し、検出した顔画像に基づいて人物特徴を抽出する。
POSレジ40は、店舗内に1台以上設置され、購買情報を情報処理装置30に送信する。本実施形態では、店舗内に3台のPOSレジ40a〜40c(図4)が設置されている場合について説明する。POSレジ40が送信する購買情報は、レジを識別するためのレジID、購買時刻、購入商品を識別するための商品ID等を含む。
Further, the information processing apparatus 30 performs video analysis processing on the image of the register camera 20A, tracks the purchaser who has made the purchase from the pre-register area to the exit area, and based on the tracking result, the exit camera 20B Identify the tracked buyer from the image. Then, the information processing apparatus 30 performs video analysis processing on the image of the exit camera 20B, detects the tracked purchaser's face, and extracts a person feature based on the detected face image.
One or more POS cash registers 40 are installed in the store and transmit purchase information to the information processing apparatus 30. In the present embodiment, a case where three POS cash registers 40a to 40c (FIG. 4) are installed in the store will be described. The purchase information transmitted by the POS register 40 includes a register ID for identifying the register, a purchase time, a product ID for identifying the purchased product, and the like.

クライアント装置50Aは、映像解析設定用のクライアントPCである。クライアント装置50Aは、操作者からの操作を受け付け、情報処理装置30へ映像解析処理の事前設定を送信する。クライアント装置50Aは、操作者からレジカメラ20Aにより撮像された画像中のレジ前領域および出口領域に対応する領域の設定や、出口カメラ20Bにより撮像された画像中の出口領域に対応する領域の設定に関する情報を受け付ける。   The client device 50A is a client PC for video analysis setting. The client device 50 </ b> A receives an operation from the operator, and transmits a video analysis processing preset to the information processing device 30. The client device 50A sets an area corresponding to the pre-registration area and the exit area in the image captured by the registration camera 20A from the operator and an area corresponding to the exit area in the image captured by the exit camera 20B. Accept information about.

クライアント装置50Bは、サービス利用クライアントPCである。クライアント装置50Bは、操作者からの指示を受け付け、情報処理装置30へマーケティング分析指示を送信する。クライアント装置50Bは、例えば、操作者から分析対象店舗や分析対象レジの選択、分析対象期間の設定に関する情報を受け付ける。また、クライアント装置50Bは、情報処理装置30により生成されたマーケティングレポートを受信し、操作者へ提示する機能を有する。
なお、クライアント装置50Aおよび50Bは、PCに限定されるものではなく、タブレット端末などでも代用可能である。また、クライアント装置50Aおよび50Bは、別々の端末である場合に限定されるものではなく、1つの端末であってもよい。
The client device 50B is a service use client PC. The client device 50B receives an instruction from the operator, and transmits a marketing analysis instruction to the information processing device 30. For example, the client device 50B receives information related to selection of an analysis target store and an analysis target cash register and setting of an analysis target period from the operator. Further, the client device 50B has a function of receiving a marketing report generated by the information processing device 30 and presenting it to the operator.
Note that the client devices 50A and 50B are not limited to PCs, and may be replaced by tablet terminals or the like. Further, the client devices 50A and 50B are not limited to separate terminals, and may be a single terminal.

情報処理装置30は、カメラ制御部301と、映像解析部302と、POSデータ処理部303と、分析処理部304と、を備える。
カメラ制御部301は、レジカメラ20Aおよび出口カメラ20Bの動作を制御する。例えば、カメラ制御部301は、レジカメラ20Aおよび出口カメラ20Bに対して画像送信指示を送信し、画像送信指示を受けて各カメラ20A、20Bが送信した画像を受信する。そして、カメラ制御部301は、各カメラ20A、20Bから受信した画像を録画映像71として保存する。また、カメラ制御部301は、後述する映像解析部302からの指示に従い、録画映像71を映像解析部302に送信する。
The information processing apparatus 30 includes a camera control unit 301, a video analysis unit 302, a POS data processing unit 303, and an analysis processing unit 304.
The camera control unit 301 controls the operations of the registration camera 20A and the exit camera 20B. For example, the camera control unit 301 transmits an image transmission instruction to the cashier camera 20A and the exit camera 20B, and receives an image transmitted from each of the cameras 20A and 20B in response to the image transmission instruction. The camera control unit 301 stores the images received from the cameras 20A and 20B as the recorded video 71. Further, the camera control unit 301 transmits the recorded video 71 to the video analysis unit 302 in accordance with an instruction from the video analysis unit 302 described later.

映像解析部302は、レジカメラ20Aおよび出口カメラ20Bにより撮像された画像を解析する。具体的には、映像解析部302は、後述する分析処理部306から映像解析指示を受け取ると、録画映像71として保存された画像のうち解析対象の画像を、カメラ制御部301を介して受信し、映像解析処理を行う。このとき、映像解析部302は、クライアント装置50Aから受け取った事前設定に従って映像解析処理を行う。映像解析処理の詳細については後述する。
POSデータ処理部303は、POSサーバとしての機能を有する。POSデータ処理部303は、POSレジ40から購買情報を受け取り、受け取った購買情報をPOSデータ72として保存する。
The video analysis unit 302 analyzes images captured by the registration camera 20A and the exit camera 20B. Specifically, when receiving a video analysis instruction from an analysis processing unit 306 described later, the video analysis unit 302 receives an analysis target image among the images stored as the recorded video 71 via the camera control unit 301. Perform video analysis processing. At this time, the video analysis unit 302 performs video analysis processing according to the preset setting received from the client device 50A. Details of the video analysis processing will be described later.
The POS data processing unit 303 has a function as a POS server. The POS data processing unit 303 receives purchase information from the POS register 40 and stores the received purchase information as POS data 72.

分析処理部304は、マーケティングサーバとしての機能を有する。分析処理部304は、クライアント装置50Bからマーケティング分析指示を受け取ると、映像解析部302に対して映像解析指示を出力する。そして、分析処理部304は、映像解析部302から受け取った映像解析処理の結果と、POSデータ処理部303を介して受け取ったPOSデータ72とを組み合わせ、マーケティングデータ73を作成し保存する。また、分析処理部304は、マーケティングデータ73をもとにマーケティングレポートを作成するマーケティングレポート作成処理を行い、作成したマーケティングレポートをクライアント装置50Bに出力する。
なお、録画映像71、POSデータ72およびマーケティングデータ73は、情報処理装置30内の記憶領域に保存されてもよいし、ネットワーク60に接続された不図示のストレージ装置に保存されてもよい。
The analysis processing unit 304 has a function as a marketing server. Upon receiving the marketing analysis instruction from the client device 50B, the analysis processing unit 304 outputs a video analysis instruction to the video analysis unit 302. Then, the analysis processing unit 304 combines the result of the video analysis processing received from the video analysis unit 302 and the POS data 72 received via the POS data processing unit 303 to create and store the marketing data 73. The analysis processing unit 304 performs a marketing report creation process for creating a marketing report based on the marketing data 73, and outputs the created marketing report to the client device 50B.
Note that the recorded video 71, the POS data 72, and the marketing data 73 may be stored in a storage area in the information processing apparatus 30, or may be stored in a storage device (not shown) connected to the network 60.

図2は、情報処理装置30のハードウェア構成の一例を示す図である。
情報処理装置30は、CPU31と、RAM32と、ROM33と、HDD34と、出力装置35と、入力装置36と、通信装置37と、システムバス38とを備える。
CPU31は、情報処理装置30における動作を統括的に制御するプロセッサであり、システムバス38を介して、各構成部(32〜37)を制御する。RAM32は、ROM33やHDD34からロードされたプログラムやデータを一時的に記憶するための領域を有する。さらに、RAM32は、通信装置37を介して外部装置から受信したデータを一時的に記憶するためのエリアを有する。また、RAM32は、CPU31が各処理を実行する際に用いるワークエリアも有する。
FIG. 2 is a diagram illustrating an example of a hardware configuration of the information processing apparatus 30.
The information processing device 30 includes a CPU 31, a RAM 32, a ROM 33, an HDD 34, an output device 35, an input device 36, a communication device 37, and a system bus 38.
The CPU 31 is a processor that comprehensively controls the operation of the information processing apparatus 30, and controls each component (32 to 37) via the system bus 38. The RAM 32 has an area for temporarily storing programs and data loaded from the ROM 33 and the HDD 34. Further, the RAM 32 has an area for temporarily storing data received from an external device via the communication device 37. The RAM 32 also has a work area used when the CPU 31 executes each process.

ROM33は、CPU31がマーケティングレポートサービスの機能を実現するために必要なプログラムを記憶する不揮発性メモリである。上記プログラムは、OS(オペレーティングシステム)上で動作するアプリケーションプログラムであってよい。なお、当該プログラムは、HDD34や不図示の記録媒体に記録されていてもよい。CPU31は、OSとアプリケーションプログラムとをROM33あるいはHDD34から読み出してRAM32にロードし、実行することで各種の機能動作を実現することができる。   The ROM 33 is a non-volatile memory that stores a program necessary for the CPU 31 to realize the function of the marketing report service. The program may be an application program that runs on an OS (Operating System). The program may be recorded on the HDD 34 or a recording medium (not shown). The CPU 31 can implement various functional operations by reading the OS and application programs from the ROM 33 or the HDD 34, loading them into the RAM 32, and executing them.

出力装置35は、各種処理結果やユーザインタフェース画面(UI画面)を表示するモニタにより構成される。入力装置36は、キーボードやマウス等のポインティングデバイス、タッチパネル等により構成することができる。情報処理装置30のユーザ(例えば、システム設定者)は、入力装置36を操作して情報処理装置30に対して指示を入力することができる。通信装置37は、ネットワーク60に接続された外部装置と通信するためのインタフェースである。システムバス38は、CPU31、RAM32、ROM33、HDD34、出力装置35、入力装置36および通信装置37を通信可能に接続する。   The output device 35 includes a monitor that displays various processing results and a user interface screen (UI screen). The input device 36 can be configured by a pointing device such as a keyboard and a mouse, a touch panel, and the like. A user of the information processing apparatus 30 (for example, a system setting person) can input an instruction to the information processing apparatus 30 by operating the input device 36. The communication device 37 is an interface for communicating with an external device connected to the network 60. The system bus 38 connects the CPU 31, RAM 32, ROM 33, HDD 34, output device 35, input device 36, and communication device 37 so that they can communicate with each other.

図1に示す情報処理装置30の各部の機能は、CPU31がプログラムを実行することで実現され得る。ただし、図1で示す各要素のうち少なくとも一部が専用のハードウェアとして動作するようにしてもよい。この場合、専用のハードウェアは、CPU31の制御に基づいて動作する。なお、クライアント装置50Aおよび50Bも、図2と同様のハードウェア構成を有することができる。   Functions of each unit of the information processing apparatus 30 illustrated in FIG. 1 can be realized by the CPU 31 executing a program. However, at least some of the elements shown in FIG. 1 may operate as dedicated hardware. In this case, the dedicated hardware operates based on the control of the CPU 31. Note that the client devices 50A and 50B can also have the same hardware configuration as in FIG.

図3は、情報処理装置30が実行するマーケティング分析処理の流れを示すフローチャートである。情報処理装置30は、CPU31が必要なプログラムを読み出して実行することにより、図3に示す各処理を実現することができる。ただし、上述したように、図1に示す各要素のうち少なくとも一部が専用のハードウェアとして動作することで図3の処理が実現されるようにしてもよい。この場合、専用のハードウェアは、CPU31の制御に基づいて動作する。以降、アルファベットSはフローチャートにおけるステップを意味するものとする。   FIG. 3 is a flowchart showing a flow of marketing analysis processing executed by the information processing apparatus 30. The information processing apparatus 30 can implement each process illustrated in FIG. 3 by the CPU 31 reading and executing a necessary program. However, as described above, at least a part of each element shown in FIG. 1 may operate as dedicated hardware so that the processing in FIG. 3 may be realized. In this case, the dedicated hardware operates based on the control of the CPU 31. Hereinafter, the alphabet S means a step in the flowchart.

まずS1において、映像解析部302は、クライアント装置50Aから事前設定を受け付ける。ここで、事前設定は、上述したように、レジカメラ20Aにより撮像された画像中のレジ前領域および出口領域に対応する領域の設定、出口カメラ20Bにより撮像された画像中の出口領域に対応する領域の設定を少なくとも含む。事前設定の詳細については、図4を用いて後述する。
S2では、分析処理部304は、クライアント装置50Bからマーケティング分析指示を受け付ける。ここで、マーケティング分析指示は、上述したように、分析対象店舗の識別番号や分析対象レジのレジ番号、分析対象期間を含む。分析処理部304は、マーケティング分析指示を受け取ると、映像解析部302に対して映像解析指示を出力する。
First, in S1, the video analysis unit 302 receives a preset from the client device 50A. Here, as described above, the pre-setting corresponds to the setting of the area corresponding to the pre-registration area and the exit area in the image captured by the registration camera 20A, and the exit area in the image captured by the exit camera 20B. At least the setting of the area is included. Details of the presetting will be described later with reference to FIG.
In S2, the analysis processing unit 304 receives a marketing analysis instruction from the client device 50B. Here, as described above, the marketing analysis instruction includes the identification number of the analysis target store, the cash register number of the analysis target cash register, and the analysis target period. Upon receiving the marketing analysis instruction, the analysis processing unit 304 outputs the video analysis instruction to the video analysis unit 302.

S3では、映像解析部302は、分析処理部304からの映像解析指示を受け、映像解析処理を実行する。映像解析部302は、映像解析処理に際し、カメラ制御部301を介してレジカメラ20Aおよび出口カメラ20Bから解析対象の画像を取得する。ここで、解析対象の画像は、上記分析対象期間に相当する時刻に撮像された画像である。そして、映像解析部302は、取得した画像に対して映像解析処理を実行する。映像解析処理の詳細については、図5〜図7を用いて後述する。
S4では、分析処理部304は、S3における映像解析処理の解析結果とPOSデータ72とをもとに、マーケティングデータを作成する。また、分析処理部304は、マーケティングデータをもとに、マーケティングレポートを作成する。このマーケティングレポート作成処理の詳細については、図8〜図10を用いて後述する。
In S <b> 3, the video analysis unit 302 receives a video analysis instruction from the analysis processing unit 304 and executes video analysis processing. The video analysis unit 302 acquires images to be analyzed from the registration camera 20A and the exit camera 20B via the camera control unit 301 during the video analysis process. Here, the analysis target image is an image captured at a time corresponding to the analysis target period. Then, the video analysis unit 302 performs video analysis processing on the acquired image. Details of the video analysis processing will be described later with reference to FIGS.
In S4, the analysis processing unit 304 creates marketing data based on the analysis result of the video analysis processing in S3 and the POS data 72. The analysis processing unit 304 creates a marketing report based on the marketing data. Details of this marketing report creation processing will be described later with reference to FIGS.

(事前設定)
図4は、映像解析部302がクライアント装置50Aから事前設定を受け付ける処理の流れを説明するための図である。図4(A)は、マーケティングの対象となる店舗とカメラの設置位置とを示す図であり、図4(B)および図4(C)は、クライアント装置50Aに表示される事前設定画面の一例である。
本実施形態では、映像解析処理において、レジ前領域に侵入した人物の検出と、出口領域に侵入した人物の検出を行う必要がある。そのため、事前設定では、各カメラ20A、20Bにより撮像された画像中のどの領域がレジ前領域または出口領域に相当するのかを設定する。
(Pre-setting)
FIG. 4 is a diagram for explaining a flow of processing in which the video analysis unit 302 receives a preset from the client device 50A. FIG. 4A is a diagram showing a store to be marketed and a camera installation position. FIGS. 4B and 4C are examples of a preset screen displayed on the client device 50A. It is.
In the present embodiment, it is necessary to detect a person who has entered the pre-register area and a person who has entered the exit area in the video analysis process. Therefore, in the pre-setting, it is set which area in the image captured by each camera 20A, 20B corresponds to the pre-registration area or the exit area.

図4(A)に示すように、店舗80内には、レジスペース81と通路スペース82とが設けられている。レジカメラ20Aは、レジスペース81の天井付近に設置され、出口カメラ20Bは、出入口付近に設置されている。購入客P1、P2は、出入口から店舗80内に入り、通路スペース82を移動して商品棚から商品を取り出し、レジ前領域に移動して購入代金を支払った後、出口領域に移動して出入口から店舗80の外に出る。本実施形態では、クライアント装置50Aの操作者は、領域設定画面を操作して、レジ前領域および出口領域に対応する領域をそれぞれ指定する。   As shown in FIG. 4A, a cash register space 81 and a passage space 82 are provided in the store 80. The registration camera 20A is installed near the ceiling of the registration space 81, and the exit camera 20B is installed near the entrance / exit. Purchasers P1 and P2 enter the store 80 from the entrance, move through the aisle space 82 to take out the product from the product shelf, move to the pre-register area and pay the purchase price, and then move to the exit area and enter the entrance To go outside the store 80. In the present embodiment, the operator of the client device 50A operates the area setting screen and designates areas corresponding to the pre-registration area and the exit area, respectively.

図4(B)は、クライアント装置50Aにて表示される、レジカメラ20Aに対する領域設定画面51の例である。クライアント装置50Aの操作者は、図4(B)に示す領域設定画面51を見ながら、レジカメラ20Aにより撮像された画像中のレジ前領域および出口領域に対応する領域を設定する。
領域設定画面51は、画像表示部52と指定ボタン53とを備える。画像表示部52は、レジカメラ20Aにより撮像された画像を表示する領域である。また、指定ボタン53は、レジ前領域の設定対象とするレジを指定するためのボタンである。指定ボタン53には、事前に情報処理装置30から取得したレジ名など、各レジを識別可能な情報を表示する。
FIG. 4B is an example of an area setting screen 51 for the registration camera 20A displayed on the client device 50A. The operator of the client device 50A sets areas corresponding to the pre-registration area and the exit area in the image captured by the registration camera 20A while looking at the area setting screen 51 shown in FIG. 4B.
The area setting screen 51 includes an image display unit 52 and a designation button 53. The image display unit 52 is an area for displaying an image captured by the registration camera 20A. The designation button 53 is a button for designating a register to be set in the pre-register area. The designation button 53 displays information for identifying each cash register, such as a cash register name acquired from the information processing apparatus 30 in advance.

クライアント装置50Aの操作者は、マウス等を使用して、画像表示部52に表示された画像内におけるレジ前領域を指定する。操作者は、購入客が購入代金を支払うためにレジ前に侵入したと判断できる領域を、レジ前領域として指定する。続いて、クライアント装置50Aの操作者は、指定したレジ前領域がどのレジの前の領域に相当するのかを、指定ボタン53を用いて指示する。
例えば、図4(B)において、操作者がレジ前領域83aを指定した後、「レジ1」の指定ボタン53を指定すれば、レジ前領域83aがPOSレジ40aの前の領域として設定される。同様に、レジ前領域83bをPOSレジ40bの前の領域、レジ前領域83cをPOSレジ40cの前の領域として設定することができる。このように、POSレジ40a〜40cとレジ前領域83a〜83cとをそれぞれ紐付けすることができる。
The operator of the client device 50A designates a pre-registration region in the image displayed on the image display unit 52 using a mouse or the like. The operator designates an area where it can be determined that the purchaser has entered before the checkout to pay the purchase price as the pre-checkout area. Subsequently, the operator of the client device 50 </ b> A uses the designation button 53 to instruct to which area the designated pre-registration area corresponds.
For example, in FIG. 4B, if the operator designates the pre-registration area 83a and then designates the designation button 53 of “Register 1”, the pre-registration area 83a is set as the area in front of the POS register 40a. . Similarly, the pre-registration area 83b can be set as an area before the POS register 40b, and the pre-registration area 83c can be set as an area before the POS register 40c. In this manner, the POS registers 40a to 40c and the pre-register areas 83a to 83c can be associated with each other.

また、クライアント装置50Aの操作者は、マウス等を使用して、画像表示部52に表示された画像内における出口領域に対応する領域を指定する。操作者は、顧客(購入客を含む)が店の外に出ようとしたと判断できる領域を、出口領域84として指定する。
なお、レジ前領域の指定に際し、クライアント装置50Aの操作者は、先に指定ボタン53によってレジ名を指定し、その後に対応するレジ前領域を指定してもよい。また、画像表示部52には、レジカメラ20Aにより撮像された、ある特定の時刻の静止画像を表示するようにしてもよいし、動画像を表示してもよい。動画像を表示した場合、会計を行う購入客がレジ前のどのあたりに立つのかを見ながらレジ前領域を指定することができる。
Further, the operator of the client device 50A designates an area corresponding to the exit area in the image displayed on the image display unit 52 using a mouse or the like. The operator designates, as the exit area 84, an area in which it can be determined that the customer (including the customer) is going out of the store.
When designating the pre-registration area, the operator of the client device 50A may first designate the registration name using the designation button 53 and then designate the corresponding pre-registration area. Further, the image display unit 52 may display a still image captured by the registration camera 20A at a specific time or a moving image. When a moving image is displayed, it is possible to designate a pre-registration area while looking at where the purchaser who is paying stands before the checkout.

図4(C)は、クライアント装置50Aにて表示される、出口カメラ20Bの領域設定画面54の例である。クライアント装置50Aの操作者は、図4(C)に示す領域設定画面54を見ながら、出口カメラ20Bにより撮像された画像中の出口領域に対応する領域を設定する。
領域設定画面54は、画像表示部55を備える。画像表示部55は、出口カメラ20Bにより撮像された画像を表示する領域である。この画像表示部55には、図4(B)の画像表示部52と同様に、出口カメラ20Bにより撮像された、ある特定の時刻の静止画像を表示してもよいし、動画像を表示してもよい。クライアント装置50Aの操作者は、マウス等を使用して、画像表示部55に表示された画像内において出口領域84を指定する。このときクライアント装置50Aは、レジカメラ20Aの画像に対して設定された出口領域84と、出口カメラ20Bの画像に対して設定された出口領域84との対応付けを行う。
クライアント装置50Aは、事前設定が完了すると、その事前設定に関する情報を映像解析部302に送信する。
FIG. 4C is an example of the area setting screen 54 of the exit camera 20B displayed on the client device 50A. The operator of the client device 50A sets an area corresponding to the exit area in the image captured by the exit camera 20B while viewing the area setting screen 54 shown in FIG.
The area setting screen 54 includes an image display unit 55. The image display unit 55 is an area for displaying an image captured by the exit camera 20B. Similar to the image display unit 52 of FIG. 4B, the image display unit 55 may display a still image captured by the exit camera 20B at a specific time or a moving image. May be. The operator of the client device 50A designates the exit area 84 in the image displayed on the image display unit 55 using a mouse or the like. At this time, the client device 50A associates the exit area 84 set for the image of the registration camera 20A with the exit area 84 set for the image of the exit camera 20B.
When the presetting is completed, the client device 50A transmits information related to the presetting to the video analysis unit 302.

(映像解析処理)
以下、映像解析処理について、図5〜図7を用いて具体的に説明する。
図5は、映像解析部302が実行する映像解析処理の概念図である。図5(A)は、レジカメラ20Aにより撮像された画像21Aであり、図5(B)は、出口カメラ20Bにより撮像された画像21Bである。図5(A)では、レジ前領域83bに侵入した購入客P3が、レジ前領域83bから出口領域84に移動した様子を示している。符号P3´は、出口領域84における購入客P3を示している。
(Video analysis processing)
Hereinafter, the video analysis processing will be specifically described with reference to FIGS.
FIG. 5 is a conceptual diagram of video analysis processing executed by the video analysis unit 302. 5A is an image 21A captured by the registration camera 20A, and FIG. 5B is an image 21B captured by the exit camera 20B. FIG. 5A shows a state where the purchaser P3 who has entered the pre-register area 83b has moved from the pre-register area 83b to the exit area 84. Reference sign P3 ′ indicates the purchaser P3 in the exit area 84.

映像解析部302は、レジカメラ20Aの画像から撮像対象の人物の行動(購入客の購買行動)を特定するために、まず、レジ前領域83a〜83cのいずれかに侵入した購入客を検知する。そして、映像解析部302は、レジ前領域に侵入した購入客がレジ前領域に侵入している時刻(レジ侵入時刻範囲)と、どのPOSレジ40に対応するレジ前領域に侵入しているかを検出する。また、映像解析部302は、レジカメラ20Aの画像をもとに、レジ前領域に侵入した購入客を追跡し、その追跡結果に基づいて、当該購入客が出口領域84に侵入している時刻(出口侵入時刻範囲)を検出する。   The video analysis unit 302 first detects a purchaser who has entered one of the pre-registration areas 83a to 83c in order to specify the behavior of the person to be imaged (the purchase behavior of the purchaser) from the image of the registration camera 20A. . Then, the video analysis unit 302 determines the time when the purchaser who has entered the pre-register area enters the pre-register area (the register intrusion time range) and which POS register 40 corresponds to the pre-register area. To detect. Further, the video analysis unit 302 tracks the purchaser who has entered the pre-registration area based on the image of the registration camera 20A, and based on the tracking result, the time when the purchaser has entered the exit area 84. (Exit entry time range) is detected.

次に、映像解析部302は、レジカメラ20Aの画像をもとに追跡した購入客を、出口カメラ20Bの画像から識別する。本実施形態では、映像解析部302は、上記の出口侵入時刻範囲において出口カメラ20により撮像された画像における出口領域に対応する領域に存在する人物を、レジカメラ20Aの画像をもとに追跡した購入客として識別する。そして、映像解析部302は、出口カメラ20Bの画像から、識別した購入客の顔を検出し、その顔画像に基づいて購入客の人物特徴を抽出する。
以上の映像解析処理により、いつ、どのレジ前にいた購入客が、どういった人物特徴を持った人物であるかを解析することができる。
Next, the video analysis unit 302 identifies the purchase customer tracked based on the image of the cashier camera 20A from the image of the exit camera 20B. In the present embodiment, the video analysis unit 302 tracks a person existing in the area corresponding to the exit area in the image captured by the exit camera 20 in the exit entry time range described above based on the image of the registration camera 20A. Identify as a buyer. Then, the video analysis unit 302 detects the identified purchaser's face from the image of the exit camera 20B, and extracts the personal features of the purchaser based on the face image.
Through the above video analysis processing, it is possible to analyze when and at what cash register a purchaser who has a person characteristic.

図6は、映像解析処理の流れを示すフローチャートである。この図6の処理は、図3のS3において実行される。図6(A)は、レジカメラ20Aの画像を解析対象とした映像解析処理、図6(B)は、出口カメラ20Bの画像を解析対象とした映像解析処理である。
先ず、図6(A)のS31において、映像解析部302は、レジカメラ20Aにより撮像された解析対象の画像から、図4(B)に示すレジ前領域83a〜83cのいずれかに侵入した人物(購入客)を検知する。このとき、映像解析部302は、購入客情報91として、図7に示すように、購入客ID91a、レジID91b、レジ侵入時刻範囲91cを記録する。ここで、購入客ID91aは、購入客を一意に特定するためのIDであり、S31において購入客が検知されるたびに、映像解析部302がIDを発行する。レジID91bは、購入客が侵入したレジ前領域に対応するレジを特定するためのIDである。レジ侵入時刻範囲91cは、購入客がレジ前領域に入った時刻からレジ前領域から出た時刻までを示す。
FIG. 6 is a flowchart showing the flow of the video analysis process. The process of FIG. 6 is executed in S3 of FIG. 6A is a video analysis process for which the image of the registration camera 20A is an analysis target, and FIG. 6B is a video analysis process for which the image of the exit camera 20B is an analysis target.
First, in S31 of FIG. 6A, the video analysis unit 302 enters a person who has entered one of the pre-registration areas 83a to 83c shown in FIG. 4B from the analysis target image captured by the registration camera 20A. (Purchaser) is detected. At this time, the video analysis unit 302 records the purchase customer ID 91a, the cash register ID 91b, and the cash register entry time range 91c as the customer information 91 as shown in FIG. Here, the purchase customer ID 91a is an ID for uniquely identifying the purchase customer, and the video analysis unit 302 issues an ID every time a purchase customer is detected in S31. The cash register ID 91b is an ID for specifying a cash register corresponding to the pre-register area where the purchaser has invaded. The cash register intrusion time range 91c indicates from the time when the purchaser enters the area before the cash register to the time when the purchaser leaves the area before the cash register.

S32では、映像解析部302は、レジカメラ20Aにより撮像された解析対象の画像をもとに、S31において検知された購入客を追跡する。追跡方法としては、例えば、解析対象の画像と予め格納されたテンプレートとを比較することにより、解析対象の画像中から人物の顔領域(あるいは、頭部領域)を検出して、人物を追跡する方法を用いることができる。なお、人物の追跡処理を実現する方法は、上記に限定されるものではなく、任意の方法を適用可能である。   In S32, the video analysis unit 302 tracks the purchaser detected in S31 based on the analysis target image captured by the cashier camera 20A. As a tracking method, for example, the face area (or head area) of a person is detected from the analysis target image by comparing the analysis target image with a template stored in advance, and the person is tracked. The method can be used. Note that the method of realizing the person tracking process is not limited to the above, and any method can be applied.

S33では、映像解析部302は、レジカメラ20Aにより撮像された解析対象の画像をもとに、S31において検知した購入客が出口領域84に侵入したことを検知する。このとき、映像解析部302は、図7に示す購入客情報91として、対応する購入客の出口侵入時刻範囲91dを記録する。出口侵入時刻範囲91dは、購入客が出口領域84に入った時刻から出口領域84から出た時刻までを示す。   In S <b> 33, the video analysis unit 302 detects that the purchase customer detected in S <b> 31 has entered the exit area 84 based on the analysis target image captured by the registration camera 20 </ b> A. At this time, the video analysis unit 302 records a corresponding purchase customer exit intrusion time range 91d as the purchase customer information 91 shown in FIG. The exit intrusion time range 91d indicates from the time when the purchaser enters the exit area 84 to the time when the customer leaves the exit area 84.

次に、図6(B)のS34において、映像解析部302は、購入客ID91aごとに、出口侵入時刻範囲91d付近で撮像された出口カメラ20Bの画像を、解析対象の画像として取得する。S35では、映像解析部302は、購入客ID91aごとに顔検出を行う。具体的には、S35では、映像解析部302は、S34において取得された解析対象の画像中の出口領域84内に存在している人物を、顔検出の対象となる購入客として識別し、顔検出を行う。出口領域84内に存在する人物に対して顔検出を行うことで、偶然その時刻に出口カメラ20Bに映ってしまった別の購入客に対して誤って顔検出を行ってしまうことを回避することができる。   Next, in S34 of FIG. 6B, the video analysis unit 302 acquires, as the analysis target image, the image of the exit camera 20B captured in the vicinity of the exit entry time range 91d for each purchaser ID 91a. In S35, the video analysis unit 302 performs face detection for each purchaser ID 91a. Specifically, in S35, the video analysis unit 302 identifies a person existing in the exit area 84 in the analysis target image acquired in S34 as a purchase customer who is a target of face detection, and the face Perform detection. By performing face detection for a person existing in the exit area 84, it is possible to avoid accidentally performing face detection for another purchaser who appears on the exit camera 20B at that time. Can do.

S36では、映像解析部302は、購入客ID91aごとに人物特徴を抽出する。具体的には、S36では、映像解析部302は、S35において顔検出された購入客の顔画像をもとに、購入客の年齢、性別といった人物特徴を抽出する。人物特徴の抽出方法としては、例えば、解析対象の画像から特徴量を抽出し、抽出した特徴量と予め学習済みの判定基準データとを用いて年齢や性別を推定する方法を用いることができる。なお、人物特徴の推定処理を実現する方法は、上記に限定されるものではなく、任意の方法を適用可能である。   In S36, the video analysis unit 302 extracts a person feature for each purchaser ID 91a. Specifically, in S36, the video analysis unit 302 extracts person features such as the purchaser's age and sex based on the purchaser's face image detected in S35. As a method for extracting a person feature, for example, a method of extracting a feature amount from an image to be analyzed and estimating age and sex using the extracted feature amount and pre-learned criterion data can be used. The method for realizing the human feature estimation process is not limited to the above, and any method can be applied.

映像解析部302は、S36において推定された人物特徴(性別、年齢)を、図7に示す購入客情報91に、対応する購入客の人物特徴91eとして記録する。本実施形態では、購入客の年齢は、「10代」、「20代」、「30代」…のようにクラス分けして記録されるものとする。
以上の映像解析処理により、どのレジで(レジID91b)、いつごろ(レジ侵入時刻範囲91c)購買を行った購入客が、どういった人物特徴91eを持っているのかの情報を得ることができる。
The video analysis unit 302 records the person characteristic (gender, age) estimated in S36 as the corresponding customer characteristic 91e of the purchaser in the purchaser information 91 shown in FIG. In the present embodiment, it is assumed that the age of the purchaser is classified and recorded as “10's”, “20's”, “30's”.
Through the video analysis process described above, it is possible to obtain information about what personal characteristics 91e the purchaser who has made purchases at (in cash register ID 91b) and when (in cash register entry time range 91c) has. .

(マーケティングレポート作成処理)
以下、マーケティングレポート作成処理について、図8〜図10を用いて具体的に説明する。
図8は、マーケティングレポート作成処理の流れを示すフローチャートである。この図8の処理は、図3のS4において実行される。分析処理部304は、映像解析部302による映像解析処理の結果と、POSデータ72とに基づいて、購入客の人物特徴と購買情報とを対応付けてマーケティングデータ73を作成する。そして、分析処理部304は、マーケティングデータ73を用いてマーケティングレポートを作成する。
(Marketing report creation process)
Hereinafter, the marketing report creation process will be specifically described with reference to FIGS.
FIG. 8 is a flowchart showing a flow of marketing report creation processing. The process of FIG. 8 is executed in S4 of FIG. Based on the result of the video analysis processing performed by the video analysis unit 302 and the POS data 72, the analysis processing unit 304 creates marketing data 73 by associating the purchaser's personal characteristics with purchase information. Then, the analysis processing unit 304 creates a marketing report using the marketing data 73.

先ずS41において、分析処理部304は、POSデータ処理部303を介して、図7の購入客ID91aごとに、対応するPOSデータ72を取得する。図9(A)は、POSデータ72を構成する購買情報92のデータ構造を示す図である。購買情報92は、購買ID92a、レジID92b、購買時刻92cおよび商品ID92dを含む。分析処理部304は、購入客ID91aごとに、購入客情報91に含まれるレジID91bおよびレジ侵入時刻範囲91cを参照し、レジID92bがレジID91bと一致し、且つ購買時刻92cがレジ侵入時刻範囲91cに含まれる購買情報92を取得する。   First, in S41, the analysis processing unit 304 acquires the corresponding POS data 72 for each purchaser ID 91a in FIG. 7 via the POS data processing unit 303. FIG. 9A is a diagram showing a data structure of purchase information 92 constituting the POS data 72. The purchase information 92 includes a purchase ID 92a, a cash register ID 92b, a purchase time 92c, and a product ID 92d. The analysis processing unit 304 refers to the cash register ID 91b and the cash register entry time range 91c included in the customer information 91 for each customer ID 91a. Purchase information 92 included in the.

つまり、分析処理部304は、購入客が購買を行ったPOSレジ40と購買を行った時刻とに関する情報を含む購入客情報をもとに、購入客が購買を行ったPOSレジ40から送信された、購入客の購入商品に関する情報を含む購買情報を取得する。例えば、図7の購入客ID=「0013」の購入客に関しては、「レジ2」で「2015年6月10日の11:31:24−11:31:53」に購買が行われたことを示す購買情報92を取得する。図9(A)に示す例では、購買ID=「00041」が、上記条件に適合する。そのため、購買ID=「00041」の購買情報が、購入客ID=「0013」の購入客の購買情報であると判断することができる。   In other words, the analysis processing unit 304 is transmitted from the POS register 40 where the purchaser has purchased based on the purchaser information including information on the POS register 40 where the purchaser purchased and the time when the purchase was made. In addition, purchase information including information related to the purchase product of the purchaser is acquired. For example, the purchaser with purchaser ID = “0013” in FIG. 7 was purchased at “Register 2” at “11: 31: 24-11: 31: 53 on June 10, 2015”. Is obtained. In the example shown in FIG. 9A, purchase ID = “00041” meets the above condition. Therefore, it can be determined that the purchase information of purchase ID = “00041” is the purchase information of the purchaser of purchaser ID = “0013”.

S42では、分析処理部304は、購入客の人物特徴と購買情報とを対応付けたマーケティング情報を、マーケティングデータ73として格納する。図9(B)は、マーケティングデータ73を構成するマーケティング情報93のデータ構造を示す図である。マーケティング情報93は、購入客ID93a、人物特徴93bおよび購買ID93cを含む。マーケティング情報93は、どういった人物特徴93bを持った購入客が、どういった購買行動(購買ID93c)を行ったかを示す情報である。   In S <b> 42, the analysis processing unit 304 stores, as marketing data 73, marketing information that associates the purchaser's personal characteristics with purchase information. FIG. 9B is a diagram showing a data structure of marketing information 93 constituting the marketing data 73. The marketing information 93 includes a purchaser ID 93a, a person feature 93b, and a purchase ID 93c. The marketing information 93 is information indicating what purchase behavior (purchase ID 93c) the purchase customer having the person characteristic 93b has performed.

S43では、分析処理部304は、S42において作成されたマーケティングデータをもとに、マーケティングレポートを作成する。そして、分析処理部304は、作成したマーケティングレポートをクライアント装置50Bに送信する。
マーケティングレポートの例を図10(A)〜図10(C)に示す。図10(A)は、年代性別ごとの購入金額をグラフ化したものである。図10(B)は、20代女性の商品カテゴリ別売り上げをグラフ化したものである。図10(C)は、20代女性のサンダルカテゴリの商品別売り上げをグラフ化したものである。なお、図10に示すマーケティングレポートは一例であり、レポート内容や表示方法は上記に限定されない。
In S43, the analysis processing unit 304 creates a marketing report based on the marketing data created in S42. Then, the analysis processing unit 304 transmits the created marketing report to the client device 50B.
Examples of marketing reports are shown in FIGS. 10 (A) to 10 (C). FIG. 10A is a graph showing the purchase amount for each age group. FIG. 10B is a graph showing sales by product category of women in their 20s. FIG. 10C is a graph of sales by product in the sandals category of women in their 20s. In addition, the marketing report shown in FIG. 10 is an example, and the report content and the display method are not limited to the above.

以上のように、情報処理装置30は、広角カメラなどのレジカメラ20Aにより店舗のレジ前領域と出口領域とを含む監視領域が撮像された画像と、出口カメラ20Bにより監視領域内の一部の特定領域である出口領域が撮像された画像とを取得する。そして、情報処理装置30は、レジカメラ20Aの画像から撮像対象の人物の行動(購入客の購買行動)を特定する。また、情報処理装置30は、出口カメラ20Bにより撮像された画像から、上記の購買行動を特定された人物を識別して当該人物の人物特徴を抽出し、購買行動と人物特徴とを対応付ける。   As described above, the information processing apparatus 30 includes an image in which a monitoring area including a pre-register area and an exit area of a store is captured by a registration camera 20A such as a wide angle camera, and a part of the monitoring area in the monitoring area by an exit camera 20B. An image obtained by capturing an exit area as a specific area is acquired. Then, the information processing apparatus 30 specifies the behavior of the person to be imaged (the purchase behavior of the purchaser) from the image of the register camera 20A. In addition, the information processing apparatus 30 identifies the person whose purchase behavior is specified from the image captured by the exit camera 20B, extracts the personal feature of the person, and associates the purchase behavior with the personal feature.

このように、情報処理装置30は、広域画像からは購入客の購買行動のみを特定し、特定領域において撮像された画像から抽出された購入客の人物特徴に、上記購買行動を紐付ける。したがって、購買行動と人物特徴とを紐付けるために、購入客が購買行動を行う領域であるレジ前領域において、購入客を正面から撮像して人物特徴を抽出する必要がない。つまり、複数のレジ本体それぞれに、人物特徴を抽出するためのカメラを設置する必要がない。そのため、レジ台数分のカメラが不要になり、その分のコストを削減することができる。   In this way, the information processing apparatus 30 identifies only the purchase behavior of the purchaser from the wide area image, and associates the purchase behavior with the personal feature of the purchaser extracted from the image captured in the specific area. Therefore, in order to link the purchase behavior and the person feature, it is not necessary to image the purchase customer from the front and extract the person feature in the pre-registration region where the purchase customer performs the purchase behavior. That is, it is not necessary to install a camera for extracting person features in each of the plurality of cash register bodies. This eliminates the need for cameras corresponding to the number of cash registers, thereby reducing the cost.

また、情報処理装置30は、購入客の購買行動の特定に際し、まず、施設(店舗)のレジ前領域を撮像したレジカメラ20Aの画像から購入客が購買を行ったPOSレジと購買を行った時刻とに関する情報を含む購入客情報を取得する。このとき、情報処理装置30は、レジカメラ20Aの画像から、POSレジごとに設定されたレジ前領域に侵入した人物を検知し、侵入したレジ前領域に対応するPOSレジと当該レジ前領域に侵入した時刻とを検出する。次に、情報処理装置30は、購入客が侵入したレジ前領域に対応するPOSレジから、購入商品に関する情報を含む購買情報を取得する。そして、情報処理装置30は、取得された購入客情報と購買情報とを対応付ける。   Further, when the purchase behavior of the purchaser is specified, the information processing apparatus 30 first purchases with the POS register purchased by the purchaser from the image of the register camera 20A that images the area before the cash register of the facility (store). Acquire buyer information including time and information. At this time, the information processing apparatus 30 detects a person who has entered the pre-registration area set for each POS register from the image of the registration camera 20A, and stores the POS register corresponding to the pre-registration area and the pre-registration area. Detect the time of intrusion. Next, the information processing apparatus 30 acquires purchase information including information related to the purchased product from the POS register corresponding to the pre-register area where the purchaser has invaded. Then, the information processing device 30 associates the acquired purchaser information with the purchase information.

これにより、情報処理装置30は、購入客がいつ、どのレジで購買を行ったかを示す購買行動を特定することができる。したがって、購買行動と人物特徴とを対応付けることで、いつ、どのレジで購買を行った人物が、どのような人物特徴を持った人物であるかといったマーケティングデータを得ることができる。
さらに、情報処理装置30は、レジカメラ20Aの画像から特定された購買行動と、出口カメラ20Bの画像から抽出された人物特徴との紐付けに際し、レジカメラ20Aの画像に映る人物と出口カメラ20Bの画像に映る人物との紐付けを行う。その際、情報処理装置30は、レジカメラ20Aの画像をもとに購入客がレジ前領域に侵入したことを検知すると、当該購入客をレジ前領域から出口領域まで追跡する。また、情報処理装置30は、その追跡結果に基づいて、購入客が特定領域(出口領域)に侵入している時刻を検出する。
Thereby, the information processing apparatus 30 can specify the purchase behavior indicating when and at which cash register the purchaser has made a purchase. Therefore, by associating the purchase behavior with the personal feature, it is possible to obtain marketing data such as when and at what cash register the person who made the purchase is a personal feature.
Furthermore, the information processing device 30 associates the purchase behavior specified from the image of the cashier camera 20A with the person feature extracted from the image of the exit camera 20B and the person reflected in the image of the cashier camera 20A and the exit camera 20B. Link with the person in the image. At this time, when the information processing apparatus 30 detects that the purchaser has entered the pre-register area based on the image of the register camera 20A, the information processing apparatus 30 tracks the purchase customer from the pre-register area to the exit area. Further, the information processing device 30 detects the time when the purchaser has entered the specific area (exit area) based on the tracking result.

そして、情報処理装置30は、購入客が出口領域に侵入したとされる時刻に撮像された出口カメラ20Bの画像を取得し、その画像における出口領域に対応する領域内に存在する人物を、上記の購買を行った購入客として識別する。つまり、購入客がレジカメラ20Aの画像における出口領域に対応する領域に侵入している時刻は、購入客が出口カメラ20Bの画像における出口領域に対応する領域に侵入している時刻と等しいことを利用する。これにより、レジカメラ20Aの画像に映る人物と出口カメラ20Bの画像に映る人物との紐付けを適切に行うことができる。   Then, the information processing apparatus 30 acquires the image of the exit camera 20B captured at the time when the purchase customer has entered the exit area, and identifies the person existing in the area corresponding to the exit area in the image as described above. Identify the customer who made the purchase. That is, the time when the purchaser has entered the area corresponding to the exit area in the image of the cashier camera 20A is equal to the time when the purchaser has entered the area corresponding to the exit area in the image of the exit camera 20B. Use. Thereby, it is possible to appropriately associate the person shown in the image of the registration camera 20A and the person shown in the image of the exit camera 20B.

また、情報処理装置30は、出口カメラ20Bの画像から購入客の顔を検出し、検出された顔画像に基づいて、人物特徴として性別および年齢の少なくとも一方を抽出する。したがって、購買行動と人物特徴とが対応付けられたマーケティングデータをもとに、年代性別ごとの購入金額や20代女性の商品カテゴリ別もしくは商品別の売り上げなどの分析が可能となる。
さらに、情報処理装置30は、マーケティングデータに基づいてマーケティングレポートを作成し、これをクライアント装置50Bに出力する。ここで、マーケティングレポートは、購入客の行動を分析した結果をグラフ化したものとすることができる。これにより、クライアント装置50Bの操作者は、マーケティングレポートをもとに顧客の年代層や売れ筋商品等を容易に把握することができる。
Further, the information processing apparatus 30 detects the purchaser's face from the image of the exit camera 20B, and extracts at least one of gender and age as a person feature based on the detected face image. Therefore, based on the marketing data in which the purchase behavior and the personal features are associated, it is possible to analyze the purchase amount for each age group, sales for each product category of women in their 20s, or sales for each product.
Furthermore, the information processing device 30 creates a marketing report based on the marketing data and outputs it to the client device 50B. Here, the marketing report can be a graph showing the result of analyzing the behavior of the purchaser. As a result, the operator of the client device 50B can easily grasp the customer's age group, best-selling products, and the like based on the marketing report.

以上のように、情報処理装置30は、レジカメラ20Aの画像から購入客と購買情報とを特定し、出口カメラ20Bの画像から購入客の人物特徴を抽出する。したがって、レジ台数が多い場合であっても、装置構成を複雑化することなく、購入客の購買行動と人物特徴とを適切に対応付けることができる。つまり、コストを増大することなくマーケティング分析に役立つ情報を収集することができる。
なお、本実施形態では、出口カメラ20Bの画像を人物特徴の抽出に用いる場合について説明したが、レジカメラ20Aの画像を顔検出および人物特徴の抽出に用いてもよい。この場合、レジカメラ20Aの画像を用いて顔検出および人物特徴の抽出を行った結果、それらの処理に失敗した場合に、本実施形態で示した追跡処理と、出口カメラ20Bの画像を用いた顔検出および人物特徴推定とを行うようにしてもよい。こうすることで、追跡処理にかかる計算コストを低減することが可能となる。
As described above, the information processing apparatus 30 identifies the purchaser and purchase information from the image of the cashier camera 20A, and extracts the personal features of the purchaser from the image of the exit camera 20B. Therefore, even when the number of cashiers is large, it is possible to appropriately associate the purchase behavior of the purchaser with the personal characteristics without complicating the device configuration. That is, it is possible to collect information useful for marketing analysis without increasing costs.
In the present embodiment, the case where the image of the exit camera 20B is used for extracting the human feature has been described. However, the image of the registration camera 20A may be used for detecting the face and extracting the human feature. In this case, as a result of performing face detection and person feature extraction using the image of the registration camera 20A, if the processing fails, the tracking process shown in this embodiment and the image of the exit camera 20B are used. Face detection and person feature estimation may be performed. By doing so, it is possible to reduce the calculation cost for the tracking process.

また、本実施形態では、監視領域内の一部の特定領域を施設(店舗)の出口領域とし、出口領域において購入客の顔を正面から撮像し、人物特徴を抽出する場合について説明したが、特定領域は出口領域に限定されない。特定領域は、各POSレジ40において購買を行った購入客が必ず通過する監視領域内の領域であり、購入客の顔を正面から撮像可能な領域であればよい。   In the present embodiment, a specific area in the monitoring area is used as an exit area of the facility (store), and the face of the purchaser is imaged from the front in the exit area, and the person feature is extracted. The specific area is not limited to the exit area. The specific area is an area in a monitoring area through which a purchaser who purchases at each POS register 40 always passes, and may be an area where the face of the purchaser can be imaged from the front.

(第二の実施形態)
次に、本発明の第二の実施形態について説明する。
上述した第一の実施形態では、情報処理装置30は、購買情報と人物特徴とを対応付けてマーケティングデータとして保存する場合について説明した。第二の実施形態では、購入客の動線データを、購買情報および人物特徴と対応付けてマーケティングデータとして保存する場合について説明する。
図11は、本実施形態におけるマーケティング分析システム10の動作環境の一例を示したネットワーク構成図である。図11において、上述した第一の実施形態と同様の構成を有する部分には図1と同一符号を付し、以下、構成の異なる部分を中心に説明する。
(Second embodiment)
Next, a second embodiment of the present invention will be described.
In the first embodiment described above, the information processing apparatus 30 has been described with respect to the case where the purchase information and the person feature are associated with each other and stored as marketing data. In the second embodiment, a case will be described in which purchaser flow line data is stored as marketing data in association with purchase information and person characteristics.
FIG. 11 is a network configuration diagram showing an example of the operating environment of the marketing analysis system 10 in the present embodiment. In FIG. 11, parts having the same configurations as those of the first embodiment described above are denoted by the same reference numerals as those in FIG. 1, and hereinafter, the parts having different configurations will be mainly described.

マーケティング分析システム10は、店内カメラ20Cをさらに備える。店内カメラ20Cは、店内を広くカバーできるよう、全方位カメラもしくは広角カメラを用いることが望ましい。店内カメラ20Cは、図12(A)に示すように、例えば店内中央の天井付近に設置され、購入客が買い回る様子を撮像することができる。なお、店内カメラ20Cは、店内の広さに応じて、複数台設置することもできる。店内カメラ20Cを複数台設置した場合、店内カメラ20C間の対応関係は既知であるものとする。   The marketing analysis system 10 further includes an in-store camera 20C. The in-store camera 20C is desirably an omnidirectional camera or a wide-angle camera so that the inside of the store can be covered widely. As shown in FIG. 12A, the in-store camera 20C is installed, for example, in the vicinity of the ceiling in the center of the store, and can capture an image of a purchaser buying around. A plurality of in-store cameras 20C can be installed in accordance with the size of the store. When a plurality of in-store cameras 20C are installed, it is assumed that the correspondence between the in-store cameras 20C is known.

カメラ制御部301は、レジカメラ20Aや出口カメラ20Bにより撮像された画像に加えて、店内カメラ20Cにより撮像された画像を、録画映像71として保存する。
映像解析部302は、レジカメラ20Aおよび出口カメラ20Bの画像に対する映像解析処理に加えて、店内カメラ20Cの画像に対する映像解析処理を行う。具体的には、映像解析部302は、店内カメラ20Cにより撮像された画像をもとに、店舗内を移動する人物(顧客)の動線を抽出する処理を行う。これにより、例えば、図12(A)に示すような購入客P1の動線F1が抽出される。映像解析部302は、映像解析処理により購入客の動線を抽出すると、抽出した動線を示すデータを動線データ74として保存する。
The camera control unit 301 stores an image captured by the in-store camera 20C as the recorded video 71 in addition to the image captured by the cashier camera 20A and the exit camera 20B.
The video analysis unit 302 performs video analysis processing on the images of the in-store camera 20C in addition to video analysis processing on the images of the registration camera 20A and the exit camera 20B. Specifically, the video analysis unit 302 performs a process of extracting a flow line of a person (customer) moving in the store based on an image captured by the store camera 20C. Thereby, for example, the flow line F1 of the purchaser P1 as shown in FIG. 12A is extracted. When the flow line of the purchaser is extracted by the video analysis process, the video analysis unit 302 stores data indicating the extracted flow line as the flow line data 74.

分析処理部304は、映像解析部302による映像解析処理の結果として得られる動線データを含む購入客情報と、POSデータ処理部303を介して得られるPOSデータ72とを組み合わせ、マーケティングデータ73を作成する。図12(B)は、本実施形態におけるマーケティングデータ73を構成するマーケティング情報94の例である。マーケティング情報94は、購入客ID94a、人物特徴94b、購買ID94cおよび動線データID94dを含む。購入客ID94a、人物特徴94bおよび購買ID94cは、図9(B)のマーケティング情報93における購入客ID93a、人物特徴93bおよび購買ID93cと同様である。   The analysis processing unit 304 combines the purchase customer information including the flow line data obtained as a result of the video analysis processing by the video analysis unit 302 and the POS data 72 obtained through the POS data processing unit 303 to obtain the marketing data 73. create. FIG. 12B is an example of the marketing information 94 constituting the marketing data 73 in the present embodiment. The marketing information 94 includes a purchaser ID 94a, a person feature 94b, a purchase ID 94c, and a flow line data ID 94d. The purchase customer ID 94a, the person feature 94b, and the purchase ID 94c are the same as the purchase customer ID 93a, the person feature 93b, and the purchase ID 93c in the marketing information 93 of FIG. 9B.

以上のように、本実施形態における情報処理装置30は、店内カメラ20Cにより撮像された画像から撮像対象の人物の行動として当該人物の動線を特定し、動線データを人物特徴と対応付ける。したがって、マーケティングレポートを受け取ったユーザは、特定の人物特徴を持った人物が、特定の売り場に多く訪れるなどの傾向を把握することができ、売り場のレイアウト変更などに反映することができる。
なお、本実施形態においては、レジカメラ20Aと店内カメラ20Cとを別々に設置する場合について説明したが、店内カメラ20Cによってレジカメラ20Aの撮像範囲をカバーできる場合には、レジカメラ20Aは必ずしも設置する必要はない。
As described above, the information processing apparatus 30 according to the present embodiment identifies the flow line of the person as the action of the person to be imaged from the image captured by the in-store camera 20C, and associates the flow line data with the person feature. Therefore, the user who has received the marketing report can grasp the tendency that a person having a specific person characteristic visits a specific sales floor, and can reflect the tendency to a layout change of the sales floor.
In this embodiment, the case where the register camera 20A and the in-store camera 20C are separately installed has been described. However, when the in-store camera 20C can cover the imaging range of the register camera 20A, the register camera 20A is not necessarily installed. do not have to.

(変形例)
上記各実施形態においては、情報処理装置30は、少なくとも購入客の購買情報と人物特徴とを対応付ける場合について説明したが、顧客の動線データのみを人物特徴に対応付けるようにしてもよい。この場合にも、各商品棚に購入客を正面から撮像するカメラを設置する必要がなくなり、コストを増大することなくマーケティング分析に必要な情報を収集することができる。さらに、人物特徴と対応付ける情報は、購買情報や動線データに限定されない。人物特徴と対応付ける情報は、人物の行動を示す情報であればよく、例えば、どのような商品を手に取ったかといった情報であってもよい。
また、上記各実施形態においては、監視領域を店舗内とする場合について説明したが、店舗に限定されない。例えば、遊園地等の娯楽施設や博物館等の展示施設といった店舗以外の施設にも適用可能である。この場合、年代性別ごとの人気アトラクションや人気展示エリアなどを分析可能なマーケティングデータを得ることが可能となる。
(Modification)
In each of the embodiments described above, the information processing apparatus 30 has been described with respect to a case where at least purchase information of a purchaser is associated with a person feature. However, only customer flow line data may be associated with a person feature. Also in this case, it is not necessary to install a camera for imaging the purchaser from the front in each product shelf, and information necessary for marketing analysis can be collected without increasing costs. Furthermore, the information associated with the person feature is not limited to purchase information or flow line data. The information associated with the person feature may be information indicating a person's action, and may be information such as what product is picked up.
Moreover, in each said embodiment, although the case where the monitoring area | region was made into a shop was demonstrated, it is not limited to a shop. For example, the present invention can be applied to facilities other than stores such as amusement facilities such as an amusement park and exhibition facilities such as a museum. In this case, it is possible to obtain marketing data that can analyze popular attractions and popular exhibition areas for each age group.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記録媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a recording medium, and one or more processors in the computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

10…マーケティング分析システム、20A…レジカメラ、20B…出口カメラ、30…情報処理装置、40…POSレジ、50A,50B…クライアント装置、301…カメラ制御部、302…映像解析部、303…POSデータ処理部、304…分析処理部   DESCRIPTION OF SYMBOLS 10 ... Marketing analysis system, 20A ... Cash register camera, 20B ... Exit camera, 30 ... Information processing device, 40 ... POS cash register, 50A, 50B ... Client device, 301 ... Camera control part, 302 ... Video analysis part, 303 ... POS data Processing unit, 304 ... analysis processing unit

Claims (12)

監視領域を撮像した第一の画像から撮像対象の人物の行動を特定する特定手段と、
前記監視領域内の一部の特定領域を撮像した第二の画像から、前記特定手段により行動を特定された前記人物を識別する識別手段と、
前記第二の画像から前記識別手段により識別された前記人物の特徴を抽出する抽出手段と、
前記特定手段により特定された前記人物の行動と、前記抽出手段により抽出された前記人物の特徴とを対応付ける対応付け手段と、を備えることを特徴とする情報処理装置。
A specifying means for specifying the action of the person to be imaged from the first image obtained by imaging the monitoring area;
Identification means for identifying the person whose action is specified by the specifying means, from a second image obtained by imaging a part of the specific area in the monitoring area;
Extraction means for extracting features of the person identified by the identification means from the second image;
An information processing apparatus comprising: an association unit that associates the behavior of the person specified by the specifying unit with the feature of the person extracted by the extraction unit.
前記特定手段は、前記人物の購買行動を特定することを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the specifying unit specifies a purchase behavior of the person. 前記特定手段は、前記人物の動線を特定することを特徴とする請求項1または2に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the specifying unit specifies a flow line of the person. 前記第一の画像は、施設のレジ前領域を含む領域を撮像した画像であり、
前記特定手段は、
前記第一の画像から前記人物が購買を行ったPOSレジと購買を行った時刻とに関する情報を含む購入客情報を取得する第一の取得手段と、
前記POSレジから購入商品に関する情報を含む購買情報を取得する第二の取得手段と、を備え、
前記第一の取得手段により取得された購入客情報と、前記第二の取得手段により取得された購買情報とに基づいて、前記購買行動を特定することを特徴とする請求項2に記載の情報処理装置。
The first image is an image obtained by capturing an area including a pre-registration area of a facility,
The specifying means is:
First acquisition means for acquiring customer information including information on the POS cash register where the person has purchased and the time of purchase from the first image;
Second acquisition means for acquiring purchase information including information related to purchased products from the POS cash register,
3. The information according to claim 2, wherein the purchase behavior is specified based on purchaser information acquired by the first acquisition unit and purchase information acquired by the second acquisition unit. Processing equipment.
前記識別手段は、
前記第一の画像をもとに前記人物を追跡する追跡手段と、
前記追跡手段による追跡結果に基づいて、前記人物が前記特定領域に侵入している時刻を検出する検出手段と、を備え、
前記検出手段により検出された時刻に撮像された前記第二の画像において前記特定領域に対応する領域内に存在する人物を、前記特定手段により行動を特定された人物として識別することを特徴とする請求項1から4のいずれか1項に記載の情報処理装置。
The identification means includes
Tracking means for tracking the person based on the first image;
Detecting means for detecting a time at which the person has entered the specific area based on a tracking result by the tracking means; and
In the second image captured at the time detected by the detecting means, a person existing in an area corresponding to the specific area is identified as a person whose action is specified by the specifying means. The information processing apparatus according to any one of claims 1 to 4.
前記特定領域は、施設の出口領域であることを特徴とする請求項1から5のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the specific area is an exit area of a facility. 前記抽出手段は、
前記第二の画像から前記識別手段により識別された前記人物の顔を検出し、検出された顔画像に基づいて前記特徴を抽出することを特徴とする請求項1から6のいずれか1項に記載の情報処理装置。
The extraction means includes
The face of the person identified by the identification means is detected from the second image, and the feature is extracted based on the detected face image. The information processing apparatus described.
前記抽出手段は、前記人物の性別および年齢の少なくとも一方を前記特徴として抽出することを特徴とする請求項1から7のいずれか1項に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the extraction unit extracts at least one of the sex and age of the person as the feature. 前記対応付け手段により対応付けられた情報に基づいて、前記人物の行動を分析したレポートを作成する作成手段をさらに備えることを特徴とする請求項1から8のいずれか1項に記載の情報処理装置。   The information processing according to any one of claims 1 to 8, further comprising a creation unit that creates a report analyzing the behavior of the person based on the information associated by the association unit. apparatus. 監視領域を撮像した第一の画像から撮像対象の人物の行動を特定するステップと、
前記監視領域内の一部の特定領域を撮像した第二の画像から、前記行動を特定された前記人物を識別するステップと、
前記第二の画像から識別された前記人物の特徴を抽出するステップと、
特定された前記人物の行動と、抽出された前記人物の特徴とを対応付けるステップと、を含むことを特徴とする情報処理方法。
Identifying the action of the person to be imaged from the first image obtained by imaging the monitoring area;
Identifying the person identified as the action from a second image obtained by imaging a part of the specific area within the monitoring area;
Extracting features of the person identified from the second image;
An information processing method comprising: associating the identified action of the person with the extracted feature of the person.
コンピュータを、請求項1から9のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the information processing apparatus of any one of Claim 1 to 9. 請求項11に記載のプログラムを記録した、コンピュータが読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 11 is recorded.
JP2016238412A 2016-12-08 2016-12-08 Information processing device, information processing method and program Pending JP2018097412A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016238412A JP2018097412A (en) 2016-12-08 2016-12-08 Information processing device, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016238412A JP2018097412A (en) 2016-12-08 2016-12-08 Information processing device, information processing method and program

Publications (1)

Publication Number Publication Date
JP2018097412A true JP2018097412A (en) 2018-06-21

Family

ID=62633273

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016238412A Pending JP2018097412A (en) 2016-12-08 2016-12-08 Information processing device, information processing method and program

Country Status (1)

Country Link
JP (1) JP2018097412A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020145500A (en) * 2019-03-04 2020-09-10 株式会社 ディー・エヌ・エー System, method, program, and apparatus for verifying predetermined motion by person

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020145500A (en) * 2019-03-04 2020-09-10 株式会社 ディー・エヌ・エー System, method, program, and apparatus for verifying predetermined motion by person
JP7258603B2 (en) 2019-03-04 2023-04-17 株式会社 ディー・エヌ・エー Systems, methods, programs, and devices for verifying predetermined actions by humans

Similar Documents

Publication Publication Date Title
US11507933B2 (en) Cashier interface for linking customers to virtual data
JP6730079B2 (en) Monitoring device and program
US20180075461A1 (en) Customer behavior analysis device and customer behavior analysis system
TWI778030B (en) Store apparatus, store management method and program
JP5632512B1 (en) Human behavior analysis device, human behavior analysis system, human behavior analysis method, and monitoring device
JP6261197B2 (en) Display control apparatus, display control method, and program
US20170330208A1 (en) Customer service monitoring device, customer service monitoring system, and customer service monitoring method
JP5728871B2 (en) Mobility management system, information processing apparatus, mobility management method, and program
JP6314987B2 (en) In-store customer behavior analysis system, in-store customer behavior analysis method, and in-store customer behavior analysis program
JP6648508B2 (en) Purchasing behavior analysis program, purchasing behavior analysis method, and purchasing behavior analysis device
JP6374757B2 (en) Human detection system and method
WO2019038968A1 (en) Storefront device, storefront system, storefront management method, and program
JP2017083980A (en) Behavior automatic analyzer and system and method
US20180293598A1 (en) Personal behavior analysis device, personal behavior analysis system, and personal behavior analysis method
JP2005309951A (en) Sales promotion support system
JP6565639B2 (en) Information display program, information display method, and information display apparatus
US20210042971A1 (en) Information processing device, display method, and program storage medium for monitoring object movement
JP2019139321A (en) Customer behavior analysis system and customer behavior analysis method
JP2015141722A (en) Clerk work management device, clerk work management system, and clerk work management method
US9324292B2 (en) Selecting an interaction scenario based on an object
JP2023162229A (en) Monitoring device and program
JP2018097412A (en) Information processing device, information processing method and program
JP6498065B2 (en) Information processing apparatus, processing method, and program
JP2017102564A (en) Display control program, display control method and display control device
JP2016024601A (en) Information processing apparatus, information processing system, information processing method, commodity recommendation method, and program