JP2016201105A - Information processor and information processing method - Google Patents

Information processor and information processing method Download PDF

Info

Publication number
JP2016201105A
JP2016201105A JP2016063044A JP2016063044A JP2016201105A JP 2016201105 A JP2016201105 A JP 2016201105A JP 2016063044 A JP2016063044 A JP 2016063044A JP 2016063044 A JP2016063044 A JP 2016063044A JP 2016201105 A JP2016201105 A JP 2016201105A
Authority
JP
Japan
Prior art keywords
product
unit
marketing information
information
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016063044A
Other languages
Japanese (ja)
Inventor
智教 福田
Tomokazu Fukuda
智教 福田
雅志 神谷
Masashi Kamiya
雅志 神谷
雄大 中村
Takehiro Nakamura
雄大 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JP2016201105A publication Critical patent/JP2016201105A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To finally enable the acquisition of marketing information that is not accompanied with a purchasing behavior without attaching an RF tag to each commodity.SOLUTION: An information processor includes an imaging part 101 for sequentially imaging an image partially including a commodity shelf 1, a commodity specification part for specifying commodity 4 included in the image picked up by the imaging part 101, a movement direction specification part for specifying a movement direction of the commodity 4 specified by the commodity specification part, a marketing information determination part for determining whether the commodity 4 is taken up from the commodity shelf 1 or the commodity 4 is returned onto the commodity shelf 1 on the basis of the movement direction specified by the movement direction specification part, and creating marketing information including this determination result, and a data storage part for storing the marketing information created by the marketing information determination part.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置及び情報処理方法に関し、特に、商品のマーケティング情報を収集する情報処理装置及び情報処理方法に関する。   The present invention relates to an information processing apparatus and an information processing method, and more particularly, to an information processing apparatus and an information processing method that collect marketing information about products.

特許文献1には、マーケティング情報を収集するためのPOS(Point Of Sales)システムとして、一般物体認識技術を活用するシステムが記載されている。このPOSシステムは、対象となる商品を撮像装置により撮像した画像データからその対象商品の特徴量を抽出し、予め用意された商品データと比較して類似度を算出し、算出された類似度に応じて、その対象商品の種別等を検出する。このようなシステムは、青果等の生鮮食品のように、バーコードを付加することができない商品の情報を手軽に収集することができる。
また、RF(Radio Frequency)タグを使用して、商品棚付近においてマーケティング情報を収集するシステムもある(例えば、特許文献2)。
なお、一般物体認識技術については、非特許文献1に開示されている。
Patent Document 1 describes a system that utilizes general object recognition technology as a POS (Point Of Sales) system for collecting marketing information. This POS system extracts the feature quantity of the target product from the image data obtained by capturing the target product with the imaging device, calculates the degree of similarity by comparing with the previously prepared product data, and calculates the calculated similarity. In response, the type of the target product is detected. Such a system can easily collect information on commodities for which barcodes cannot be added, such as fresh foods such as fruits and vegetables.
There is also a system for collecting marketing information in the vicinity of a product shelf using an RF (Radio Frequency) tag (for example, Patent Document 2).
The general object recognition technique is disclosed in Non-Patent Document 1.

特開2014−206988号公報(段落0008〜0065、図2)JP 2014-206988 A (paragraphs 0008 to 0065, FIG. 2) 国際公開第2014/087559号(段落0019〜0065、図1)International Publication No. 2014/087559 (paragraphs 0019-0065, FIG. 1)

Oncel Tuzel、Fatih Porikli、Peter Meer著「Region Covariance: A Fast Descriptor for Detection and Classification」European Conference on Computer Vision (ECCV)、2006年5月1日Oncel Tuzel, Fatih Porikli, Peter Meer, “Region Covariance: A Fast Descriptor for Detection and Classification” European Conference on Computer, June 2010, Vis.

特許文献1に記載されたシステムは、会計時のレジにてマーケティング情報を収集しているため、例えば、商品棚付近で商品を手に取り選ぶこと等、最終的に購買行動を伴わないマーケティング情報を収集することはできない。
一方、特許文献2に記載されたシステムは、商品棚付近でもマーケティング情報を収集できるが、商品毎にRFタグを貼り付ける必要があり、店舗における従業員の作業負担が増加してしまう。
Since the system described in Patent Document 1 collects marketing information at the cash register at the time of accounting, for example, marketing information that does not ultimately involve purchasing behavior, such as picking up a product near the product shelf, etc. Cannot be collected.
On the other hand, the system described in Patent Document 2 can collect marketing information even near the product shelf, but it is necessary to affix an RF tag for each product, which increases the work burden on employees in the store.

そこで、本発明は、上述のような問題を解決するためになされたもので、商品毎にRFタグを貼り付けることなく、最終的に購買行動を伴わないマーケティング情報を取得できるようにすることを目的とする。   Accordingly, the present invention has been made to solve the above-described problems, and is intended to be able to finally acquire marketing information that does not involve purchasing behavior without attaching an RF tag for each product. Objective.

本発明の一態様に係る情報処理装置は、商品棚を一部に含む画像を順次撮像する撮像部と、前記撮像部で撮像された画像に含まれている商品を特定する商品特定部と、前記商品特定部で特定された商品の動き方向を特定する動き方向特定部と、前記動き方向特定部で特定された動き方向から、前記商品が前記商品棚から取り上げられたか、又は、前記商品が前記商品棚に戻されたかを判定し、判定結果を含むマーケティング情報を生成するマーケティング情報判定部と、前記マーケティング情報判定部で生成されたマーケティング情報を記憶するデータ記憶部と、を備えることを特徴とする。   An information processing apparatus according to an aspect of the present invention includes an imaging unit that sequentially captures an image including a product shelf in part, a product identification unit that identifies a product included in the image captured by the imaging unit, The product is picked up from the product shelf from the movement direction specifying unit that specifies the movement direction of the product specified by the product specifying unit and the movement direction specified by the movement direction specifying unit, or the product is A marketing information determination unit that determines whether the product has been returned to the product shelf and generates marketing information including a determination result, and a data storage unit that stores the marketing information generated by the marketing information determination unit. And

本発明の一態様に係る情報処理方法は、商品棚を一部に含む画像を順次撮像し、前記撮像された画像に含まれている商品を特定し、前記特定された商品の動き方向を特定し、前記特定された動き方向から、前記商品が前記商品棚から取り上げられたか、又は、前記商品が前記商品棚に戻されたかを判定し、判定結果を含むマーケティング情報を生成し、前記生成されたマーケティング情報を記憶することを特徴とする。   An information processing method according to an aspect of the present invention sequentially captures an image partially including a product shelf, identifies a product included in the captured image, and identifies a movement direction of the identified product. Then, it is determined whether the product has been picked up from the product shelf or the product has been returned to the product shelf from the identified movement direction, and generates marketing information including a determination result, the generated It is characterized by memorizing marketing information.

本発明の一態様によれば、商品毎にRFタグを貼り付けることなく、最終的に購買行動を伴わないマーケティング情報を取得することができる。   According to one aspect of the present invention, it is possible to finally obtain marketing information that does not involve purchasing behavior without attaching an RF tag for each product.

実施の形態1〜6に係るマーケティング情報収集装置の設置例を示す概略図である。It is the schematic which shows the example of installation of the marketing information collection apparatus which concerns on Embodiment 1-6. 実施の形態1に係るマーケティング情報収集装置の構成を概略的に示すブロック図である。1 is a block diagram schematically showing a configuration of a marketing information collection device according to Embodiment 1. FIG. 実施の形態1における動き方向算出部での動き方向算出時の処理を示すフローチャートである。4 is a flowchart illustrating processing at the time of motion direction calculation in a motion direction calculation unit according to the first embodiment. (A)及び(B)は、実施の形態1におけるブロックマッチング法を説明するための概略図である。(A) And (B) is the schematic for demonstrating the block matching method in Embodiment 1. FIG. 実施の形態1における画像の1例を示す概略図である。5 is a schematic diagram illustrating an example of an image in Embodiment 1. FIG. 実施の形態2に係るマーケティング情報収集装置の構成を概略的に示すブロック図である。It is a block diagram which shows roughly the structure of the marketing information collection apparatus which concerns on Embodiment 2. FIG. 実施の形態3に係るマーケティング情報収集装置300の構成を概略的に示すブロック図である。It is a block diagram which shows roughly the structure of the marketing information collection apparatus 300 which concerns on Embodiment 3. FIG. 実施の形態3における動領域推定部での動領域を算出する処理を示すフローチャートである。10 is a flowchart illustrating a process of calculating a motion area in a motion area estimation unit according to the third embodiment. 実施の形態3における外接矩形の1例を示す概略図である。10 is a schematic diagram illustrating an example of a circumscribed rectangle in Embodiment 3. FIG. 実施の形態3における動き方向算出部での動き方向算出時の処理を示すフローチャートである。14 is a flowchart illustrating processing at the time of motion direction calculation in a motion direction calculation unit according to the third embodiment. 実施の形態4に係るマーケティング情報収集装置の構成を概略的に示すブロック図である。It is a block diagram which shows roughly the structure of the marketing information collection apparatus which concerns on Embodiment 4. FIG. 実施の形態4における画像の1例を示す概略図である。10 is a schematic diagram illustrating an example of an image in Embodiment 4. FIG. 実施の形態4における商品棚の商品の配置を示す概略図である。It is the schematic which shows arrangement | positioning of the goods of the goods shelf in Embodiment 4. FIG. 実施の形態4における保管位置情報の1例を示す概略図である。FIG. 16 is a schematic diagram illustrating an example of storage position information in the fourth embodiment. 実施の形態4における画像の1例を示す概略図である。FIG. 16 is a schematic diagram illustrating an example of an image in a fourth embodiment. 実施の形態5に係るマーケティング情報収集装置の構成を概略的に示すブロック図である。It is a block diagram which shows roughly the structure of the marketing information collection apparatus which concerns on Embodiment 5. FIG. 実施の形態6に係るマーケティング情報収集装置の構成を概略的に示すブロック図である。It is a block diagram which shows roughly the structure of the marketing information collection apparatus which concerns on Embodiment 6. FIG. 実施の形態6における属性判定部の処理の流れを示すフローチャートである。20 is a flowchart showing a flow of processing of an attribute determination unit in the sixth embodiment. 実施の形態6における商品推定部の推定処理を示すフローチャートである。18 is a flowchart showing an estimation process of a product estimation unit in the sixth embodiment. 実施の形態7に係るマーケティング情報収集装置の構成を概略的に示すブロック図である。It is a block diagram which shows roughly the structure of the marketing information collection apparatus which concerns on Embodiment 7. FIG.

実施の形態1.
図1は、実施の形態1〜7に係る情報処理装置としてのマーケティング情報収集装置100〜700の設置例を示す概略図である。
図1は、日本国内のコンビニエンスストア店舗をモデルにしている。商品棚1に商品が並んでおり、商品棚1と客2との間の上方の天井3にマーケティング情報収集装置100〜700が取り付けられている。マーケティング情報収集装置100〜700は、客2が手にした商品4の画像を取得することができるように取り付けられている。
Embodiment 1 FIG.
FIG. 1 is a schematic diagram illustrating an installation example of marketing information collection devices 100 to 700 as information processing devices according to the first to seventh embodiments.
Figure 1 is modeled on a convenience store store in Japan. Products are arranged in the product shelf 1, and marketing information collection devices 100 to 700 are attached to the upper ceiling 3 between the product shelf 1 and the customer 2. The marketing information collection devices 100 to 700 are attached so that an image of the product 4 obtained by the customer 2 can be acquired.

図2は、実施の形態1に係るマーケティング情報収集装置100の構成を概略的に示すブロック図である。
実施の形態1に係るマーケティング情報収集装置100は、撮像部101と、画像取込部102と、フレームメモリ103と、商品データ保存部104と、商品推定部105と、動き方向算出部106と、フレームメモリ107と、マーケティング情報判定部108と、データ記憶部としてのデータ記録部109とを備える。なお、実施の形態1に係る情報処理方法は、実施の形態1に係るマーケティング情報収集装置100により実行される方法である。
FIG. 2 is a block diagram schematically showing the configuration of the marketing information collecting apparatus 100 according to the first embodiment.
The marketing information collecting apparatus 100 according to the first embodiment includes an imaging unit 101, an image capturing unit 102, a frame memory 103, a product data storage unit 104, a product estimation unit 105, a motion direction calculation unit 106, A frame memory 107, a marketing information determination unit 108, and a data recording unit 109 as a data storage unit are provided. The information processing method according to the first embodiment is a method executed by the marketing information collecting apparatus 100 according to the first embodiment.

撮像部101は、対象の画像を撮像し、その画像の画像データを生成する。ここでは、撮像部101は、図1に示されている商品棚1を一部に含む画像を順次撮像する。
例えば、撮像部101は、光学レンズ、光学フィルタ、イメージセンサ及び必要であればイメージセンサを制御するプロセッサからなり、時間的に連続したデジタル画像(以下、単に画像ともいう)の画像データを画像取込部102へ逐次供給する。撮像部101から供給される画像データは、カラーであっても、モノクロであってもよい。但し、商品推定部105での推定精度を向上させるためには、カラー画像データの方が望ましい。このため、本実施の形態では、カラー画像データであるものとする。なお、カラー画像データのカラー情報は、RGBでも、YCbCrでも、HSV等でもよいが、以降ではRGBであるものとする。さらに、画像サイズは、(w,h)とする。
The imaging unit 101 captures a target image and generates image data of the image. Here, the imaging unit 101 sequentially captures images including a part of the product shelf 1 shown in FIG.
For example, the imaging unit 101 includes an optical lens, an optical filter, an image sensor, and a processor that controls the image sensor if necessary, and captures image data of a temporally continuous digital image (hereinafter also simply referred to as an image). Sequentially supplied to the embedding unit 102. The image data supplied from the imaging unit 101 may be color or monochrome. However, in order to improve the estimation accuracy in the product estimation unit 105, color image data is more desirable. For this reason, in this embodiment, it is assumed that the image data is color image data. The color information of the color image data may be RGB, YCbCr, HSV, or the like, but is assumed to be RGB hereinafter. Furthermore, the image size is (w, h).

画像取込部102は、撮像部101から与えられた画像データを商品推定部105及びフレームメモリ103に供給する。ここで、画像取込部102の動作について述べる。画像取込部102は、撮像部101から送られてきた画像データをフレームメモリ103に保存する。この動作は、一般に撮像部101のタイミングに同期して行われる。この画像保存の動作と並行して、画像取込部102は、フレームメモリ103から画像データを読み出し、商品推定部105へ画像データを供給する。   The image capturing unit 102 supplies the image data given from the imaging unit 101 to the product estimation unit 105 and the frame memory 103. Here, the operation of the image capturing unit 102 will be described. The image capturing unit 102 stores the image data sent from the imaging unit 101 in the frame memory 103. This operation is generally performed in synchronization with the timing of the imaging unit 101. In parallel with this image storage operation, the image capture unit 102 reads image data from the frame memory 103 and supplies the image data to the product estimation unit 105.

フレームメモリ103は、画像取込部102から与えられた画像データを一時的に記憶するメモリである。フレームメモリ103は、FIFO(First In First Out)方式が一般的であるが、FILO(First In Last Out)方式でもよい。また、フレームメモリ103は、商品推定部105から指示された順序で画像データを読み出してもよい。
また、マーケティング情報収集装置100は、フレームメモリ103の代わりに、ラインメモリを備えてもよい。この場合、画像取込部102にラインメモリが組み入れられていてもよい。以下では、フレームメモリ103は、FIFO動作をするものとする。
The frame memory 103 is a memory that temporarily stores the image data given from the image capturing unit 102. The frame memory 103 is generally a FIFO (First In First Out) system, but may be a FILO (First In Last Out) system. Further, the frame memory 103 may read the image data in the order instructed from the product estimation unit 105.
Further, the marketing information collecting apparatus 100 may include a line memory instead of the frame memory 103. In this case, a line memory may be incorporated in the image capturing unit 102. In the following, it is assumed that the frame memory 103 performs a FIFO operation.

商品データ保存部104は、商品棚1に陳列されている商品を特定するために必要な情報を記憶する商品データ記憶部である。例えば、商品データ保存部104には、商品毎に予め計算された特徴量と商品名とが保存されている。   The product data storage unit 104 is a product data storage unit that stores information necessary for specifying the products displayed on the product shelf 1. For example, the product data storage unit 104 stores feature quantities and product names calculated in advance for each product.

商品推定部105は、撮像部101で撮像された画像に含まれている商品を特定する商品特定部である。例えば、商品推定部105は、撮像部101で順次撮像された画像に含まれている商品の商品名及びその商品の画像における位置を順次特定する。
具体的には、商品推定部105は、画像取込部102から現フレームの画像データを受け取り、受け取った画像データの画像内の商品を推定する。例えば、商品推定部105は、一般物体認識技術を使用して、画像データ内の商品領域の特徴量を算出する。そして、商品推定部105は、算出された特徴量と、商品データ保存部104に保存されている特徴量との類似度を算出し、最も類似度の大きなものを商品の候補とする。しかし、外乱等の原因で商品領域には必ずしも商品があるとは限らないため、商品推定部105は、算出された類似度が予め定められた閾値未満の場合は、該当商品なしと判断する。一般物体認識技術を含め、商品推定部105の詳細は後述する。
The product estimation unit 105 is a product identification unit that identifies a product included in the image captured by the imaging unit 101. For example, the product estimation unit 105 sequentially specifies the product names of the products included in the images sequentially captured by the imaging unit 101 and the positions of the products in the images.
Specifically, the product estimation unit 105 receives the image data of the current frame from the image capturing unit 102, and estimates the product in the image of the received image data. For example, the product estimation unit 105 calculates the feature amount of the product region in the image data using a general object recognition technique. Then, the product estimation unit 105 calculates the similarity between the calculated feature amount and the feature amount stored in the product data storage unit 104, and sets the one with the highest similarity as a product candidate. However, since the product area does not always have a product due to a disturbance or the like, the product estimation unit 105 determines that there is no corresponding product when the calculated similarity is less than a predetermined threshold. Details of the product estimation unit 105 including the general object recognition technique will be described later.

最終的に、商品推定部105は、検出された商品の有無、及び、商品があると判断した場合には商品名を示す商品情報を、マーケティング情報判定部108に供給する。この時、商品の有無については、商品名に例えば“該当商品なし”というように設定することで、省略することができる。
また、商品推定部105は、商品があると判断した場合の商品領域の情報、及び、現フレームの画像データを動き方向算出部106に供給する。なお、商品領域の情報は、商品が検出された領域(矩形領域Rect)を示す情報である。
ここで、マーケティング情報収集装置100の最終出力として、検出された商品の切りだされたサムネールが取り扱われる場合は、商品推定部105は、現フレームの画像データから、商品領域の情報に基づいて切り出した部分画像データをマーケティング情報判定部108に供給してもよい。以降では、検出された商品の有無及び商品名の少なくとも何れか一方を示す商品情報をマーケティング情報判定部108に、商品領域の情報及び現フレームの画像データを動き方向算出部106に供給するものとして説明する。
Finally, the product estimation unit 105 supplies product information indicating the product name to the marketing information determination unit 108 when it is determined that there is a detected product and there is a product. At this time, the presence or absence of the product can be omitted by setting the product name to “No applicable product”, for example.
Further, the product estimation unit 105 supplies the product area information and the current frame image data when it is determined that there is a product to the motion direction calculation unit 106. The product area information is information indicating an area (rectangular area Rect c ) in which the product is detected.
Here, as a final output of the marketing information collection device 100, when a thumbnail of the detected product is handled, the product estimation unit 105 extracts the current frame image data based on the product region information. The partial image data may be supplied to the marketing information determination unit 108. Hereinafter, it is assumed that the product information indicating the presence or absence of the detected product and / or the product name is supplied to the marketing information determination unit 108, and the product region information and the current frame image data are supplied to the motion direction calculation unit 106. explain.

ここで、この商品領域の情報について補足する。この商品領域の情報は、客2が取り上げた商品の候補領域となる。この領域は、簡単のため矩形として取り扱うが、円形、楕円形、自由形状としてもよい。その場合、商品推定部105は、半径等の量をマーケティング情報判定部108に供給するか、領域を指し示すマスク画像をマーケティング情報判定部108に供給する。   Here, it supplements about the information of this product area. The information on the product area is a candidate area for the product picked up by the customer 2. This region is handled as a rectangle for simplicity, but may be a circle, an ellipse, or a free shape. In that case, the product estimation unit 105 supplies an amount such as a radius to the marketing information determination unit 108 or supplies a mask image indicating a region to the marketing information determination unit 108.

動き方向算出部106は、商品推定部105で特定された商品の動き方向を特定する動き方向特定部である。
具体的には、動き方向算出部106は、商品推定部105から与えられる画像データ及び商品領域の情報に基づいて、商品の動く方向を特定する。例えば、動き方向算出部106は、商品推定部105から画像データを受け取り、フレームメモリ107へ保存する。動き方向算出部106は、フレームメモリ107を制御することで、商品推定部105から送られてきた最新の画像データと、最新の画像データから1フレーム時間前の画像データ(以下、現フレーム画像データという)及び2フレーム時間前の画像データ(過去フレーム画像データという)の2つの画像データとを保持させる。1フレーム時間は、撮像間隔を示す時間である。例えば、撮像部101の撮影スピードが30fps(frame per second:1秒あたりの撮像回数に相当)であるとすると、1フレーム時間は、1/30秒である。
動き方向算出部106では、現フレーム画像データと過去フレーム画像データとから客2が取り上げた商品の動きの方向を算出するが、詳細なアルゴリズムは後述する。
動き方向算出部106は、商品の動き方向を示す動きベクトル情報をマーケティング情報判定部108に供給する。併せて、動き方向算出部106は、商品領域の情報及び現フレーム画像データもマーケティング情報判定部108に供給する。
The movement direction calculation unit 106 is a movement direction specifying unit that specifies the movement direction of the product specified by the product estimation unit 105.
Specifically, the movement direction calculation unit 106 specifies the moving direction of the product based on the image data and the product area information provided from the product estimation unit 105. For example, the motion direction calculation unit 106 receives the image data from the product estimation unit 105 and stores it in the frame memory 107. The motion direction calculation unit 106 controls the frame memory 107 to control the latest image data sent from the product estimation unit 105 and image data one frame time before the latest image data (hereinafter, current frame image data). And two image data of image data two frames before (referred to as past frame image data). One frame time is a time indicating an imaging interval. For example, if the imaging speed of the imaging unit 101 is 30 fps (frame per second: equivalent to the number of imaging per second), one frame time is 1/30 second.
The movement direction calculation unit 106 calculates the direction of movement of the product picked up by the customer 2 from the current frame image data and the past frame image data, and a detailed algorithm will be described later.
The motion direction calculation unit 106 supplies motion vector information indicating the motion direction of the product to the marketing information determination unit 108. At the same time, the movement direction calculation unit 106 also supplies the product area information and the current frame image data to the marketing information determination unit 108.

マーケティング情報判定部108は、動き方向算出部106から与えられる動きベクトル情報に基づいて、商品が商品棚1から取り上げられたか、又は、商品が商品棚1に戻されたかを判定し、その判定結果を含むマーケティング情報を生成して、データ記録部109に記憶する。
具体的には、マーケティング情報判定部108は、商品推定部105から商品情報、動き方向算出部106から商品領域の情報、動きベクトル情報及び現フレーム画像データを受け取る。マーケティング情報判定部108は、商品推定部105から供給される商品情報で示される商品の有無に従い、客2の手に取られた商品がない場合は、データ記録部109に何も記録せず、処理を終了するか、又は、商品がないという情報をデータ記録部109に記録する。一方、客2の手に取られた商品がある場合は、マーケティング情報判定部108は、商品名、商品領域の情報及び商品の動きの判定結果を含むマーケティング情報を生成して、データ記録部109に記録する。ここで、動き方向算出部106からの動きベクトル情報に基づく、動きの判定については後述する。
Based on the motion vector information given from the motion direction calculation unit 106, the marketing information determination unit 108 determines whether the product has been picked up from the product shelf 1 or returned to the product shelf 1, and the determination result Is generated and stored in the data recording unit 109.
Specifically, the marketing information determination unit 108 receives product information from the product estimation unit 105 and product region information, motion vector information, and current frame image data from the motion direction calculation unit 106. The marketing information determination unit 108 records nothing in the data recording unit 109 when there is no product taken by the customer 2 according to the presence or absence of the product indicated by the product information supplied from the product estimation unit 105. Information indicating that the process is completed or there is no product is recorded in the data recording unit 109. On the other hand, when there is a product taken by the customer 2, the marketing information determination unit 108 generates marketing information including the product name, product region information, and product movement determination result, and the data recording unit 109. To record. Here, the motion determination based on the motion vector information from the motion direction calculation unit 106 will be described later.

データ記録部109は、マーケティング情報判定部108から与えられるマーケティング情報を記憶する。例えば、データ記録部109は、内蔵型HDD(Hard Disk Drive)又は外付け型HDDでもよいし、SDカードのような取り外し可能なメディアでもよい。また、データ記録部109は、RAM(Random Access Memory)又はEEPROM(Electrically Erasable Programmable Read−Only Memory)等の書き換え可能なメモリであってもよい。また、記録されるマーケティング情報には、現フレーム画像データ又は商品領域の情報から商品部分を切り出したサムネール画像データが含まれてもよい。なお、商品データ保存部104も、データ記録部109同様、HDD、RAM、ROM等で構成することができる。   The data recording unit 109 stores the marketing information given from the marketing information determination unit 108. For example, the data recording unit 109 may be a built-in HDD (Hard Disk Drive) or an external HDD, or a removable medium such as an SD card. Further, the data recording unit 109 may be a rewritable memory such as a RAM (Random Access Memory) or an EEPROM (Electrically Erasable Programmable Read-Only Memory). Further, the marketing information to be recorded may include thumbnail image data obtained by cutting out a product portion from current frame image data or product area information. The product data storage unit 104 can also be configured with an HDD, a RAM, a ROM, and the like, like the data recording unit 109.

以上のように構成されるマーケティング情報収集装置100の画像取込部102、商品推定部105、動き方向算出部106及びマーケティング情報判定部108は、CPU(Central Processing Unit)が、メモリ又はHDD等の外部記憶装置に記憶されているプログラムを実行することで実現することができる。但し、これらは、コンピュータシステム上にソフトウェア的に実現されるものに限定されない。例えば、これらの全部又は一部が、ASIC(Application Specific Integrated Circuits)又はFPGA(Field Programmable Gate Array)等の集積ロジックICによりハード的に実現されていてもよい。また、これらの一部又は全部が、DSP(Digital Signal Processor)等によりソフトウェア的に実現されていてもよい。あるいは、特定の用途に特化した構成要素を、コンピュータシステムに搭載された拡張ボード等のハードウェアで実現し、その他の汎用的な構成要素をコンピュータシステム上でソフトウェア的に実現するようにしてもよい。   The image capturing unit 102, the product estimating unit 105, the motion direction calculating unit 106, and the marketing information determining unit 108 of the marketing information collecting apparatus 100 configured as described above are configured such that a CPU (Central Processing Unit) is a memory or an HDD. This can be realized by executing a program stored in an external storage device. However, these are not limited to those realized as software on a computer system. For example, all or a part of these may be realized in hardware by an integrated logic IC such as ASIC (Application Specific Integrated Circuits) or FPGA (Field Programmable Gate Array). Some or all of these may be implemented in software by a DSP (Digital Signal Processor) or the like. Alternatively, a component specialized for a specific application may be realized by hardware such as an expansion board mounted on the computer system, and other general-purpose components may be realized by software on the computer system. Good.

以上のように構成されるマーケティング情報収集装置100の動作の詳細について説明する。   Details of the operation of the marketing information collecting apparatus 100 configured as described above will be described.

商品推定部105は、スライディングウィンドウ方式を用いて、現フレームの画像データに含まれる商品を推定する。スライディングウィンドウ方式は、予め決められたウィンドウサイズ(w,h)の領域を、現フレームの画像データで示される画像の全域に渡り、スライドさせて全探索をする方式である。なお、ウィンドウサイズ(w,h)は、複数種類定義したほうがよい。例えば、(w,h)=(16,16)、(32,32)、(48,48)、(64,64)等である。これは、図1に示されているように、撮像部101と、客2及び商品4との位置関係が、店舗毎又は設置位置毎に異なること、又は、撮像部101の光学部分、例えば、レンズの倍率等が異なることに起因し、画像中の商品4の大きさが異なるためである。
商品推定部105は、スライディングウィンドウ毎に特徴量を算出し、商品データ保存部104に保存されている商品の特徴量との類似度を計算し、客2が手にとった、又は、戻した商品を推定する。この一般物体認識の方法は、上述した非特許文献1に開示されている方法を採用すればよい。
The product estimation unit 105 estimates a product included in the image data of the current frame using a sliding window method. The sliding window method is a method of performing a full search by sliding an area having a predetermined window size (w c , h c ) over the entire area of the image indicated by the image data of the current frame. In addition, it is better to define a plurality of types of window sizes (w c , h c ). For example, (w c , h c ) = (16, 16), (32, 32), (48, 48), (64, 64), etc. As shown in FIG. 1, the positional relationship between the imaging unit 101 and the customer 2 and the product 4 is different for each store or installation position, or the optical part of the imaging unit 101, for example, This is because the size of the product 4 in the image is different due to the fact that the magnification of the lens is different.
The product estimation unit 105 calculates the feature amount for each sliding window, calculates the similarity with the feature amount of the product stored in the product data storage unit 104, and the customer 2 picks up or returns it. Estimate the product. As the general object recognition method, the method disclosed in Non-Patent Document 1 described above may be employed.

ここでは、非特許文献1に開示されている一般物体認識方法について、簡単に概要を述べる。この方法は、画像中の矩形領域の輝度、色及び輝度の一次微分、輝度の2次微分等から特徴量を算出し、2つの矩形から算出された特徴量の距離distを求める。この距離distは、2つの矩形から算出された特徴量の遠さを示すため、この距離distの逆数が類似度となる。即ち、類似度は、下記の(1)式で算出される。

Figure 2016201105
Here, the general object recognition method disclosed in Non-Patent Document 1 will be briefly described. In this method, a feature amount is calculated from the luminance, color and luminance first derivative, second derivative of luminance, and the like of a rectangular area in an image, and a distance dist of the feature amount calculated from two rectangles is obtained. Since the distance dist indicates the distance of the feature amount calculated from the two rectangles, the reciprocal of the distance dist is the similarity. That is, the similarity is calculated by the following equation (1).
Figure 2016201105

商品データ保存部104には、予め上記方法により算出された商品毎の特徴量が保存されている。商品推定部105は、スライディングウィンドウである矩形領域Rect毎に特徴量を求める。但し、c=0,・・・,k(kは、正の整数)とする。スライディングウィンドウ方式では、特徴量を求める矩形領域が複数あるためである。そして、商品推定部105は、これらの特徴量と商品データ保存部104に記憶されている特徴量との類似度Rを求める。商品推定部105は、類似度Rが下記の(2)式を満たす最大の特徴量を持つ商品を、矩形領域Rectに含まれる商品と推定する。

Figure 2016201105
但し、閾値Dは、「0」よりも大きいものとする。
この処理は、ノイズに対する頑健性を担保するものである。最終的に、商品推定部105は、矩形領域Rectの左端位置(x,y)と、矩形サイズ(w,h)と、現フレームの画像データとを動き方向算出部106に供給する。また、商品推定部105は、推定された商品の商品名を、マーケティング情報判定部108に供給する。但し、商品推定部105は、商品が見つからない矩形領域Rectの場合は、商品名を商品なしとするか、その矩形領域Rectを取り除くこととする。 In the product data storage unit 104, feature quantities for each product calculated in advance by the above method are stored. The product estimation unit 105 obtains a feature amount for each rectangular area Rect c that is a sliding window. However, c = 0,..., K (k is a positive integer). This is because in the sliding window method, there are a plurality of rectangular regions for obtaining feature amounts. Then, the product estimation unit 105 obtains a similarity R p between these feature values and the feature values stored in the product data storage unit 104. Product estimation unit 105 estimates a product having a maximum feature quantity similarity R p satisfies the following formula (2), the products included in the rectangular area Rect c.
Figure 2016201105
However, the threshold value D R is larger than that "0".
This process ensures robustness against noise. Finally, the product estimation unit 105 sends the left end position (x c , y c ) of the rectangular region Rect c , the rectangular size (w c , h c ), and the image data of the current frame to the motion direction calculation unit 106. Supply. Further, the product estimation unit 105 supplies the product name of the estimated product to the marketing information determination unit 108. However, in the case of a rectangular region Rect c where no product is found, the product estimation unit 105 determines that the product name is no product or removes the rectangular region Rect c .

次に、動き方向算出部106での動き方向の算出の詳細について述べる。
図3は、動き方向算出部106での動き方向算出時の処理を示すフローチャートである。
動き方向算出部106は、前述のように、商品推定部105又はフレームメモリ107から現フレーム画像データと過去フレーム画像データを取り込む(S10)。前述のように、現フレーム画像データ及び過去フレーム画像データは、RGB形式のカラー画像の画像データである。
Next, details of the calculation of the movement direction in the movement direction calculation unit 106 will be described.
FIG. 3 is a flowchart showing processing at the time of motion direction calculation in the motion direction calculation unit 106.
As described above, the motion direction calculation unit 106 takes in the current frame image data and the past frame image data from the product estimation unit 105 or the frame memory 107 (S10). As described above, the current frame image data and the past frame image data are RGB color image data.

次に、動き方向算出部106は、取り込んだ現フレーム画像データ及び過去フレーム画像データに基づいて、商品の動き方向を推定する(S11)。例えば、動き方向算出部106は、商品推定部105から送られてきた左端位置(x,y)及び矩形サイズ(w,h)の矩形領域Rect毎に現フレーム画像データと過去フレーム画像データとの間のブロックマッチング法により、動きベクトルを求める。 Next, the movement direction calculation unit 106 estimates the movement direction of the product based on the captured current frame image data and past frame image data (S11). For example, the motion direction calculation unit 106 transmits the current frame image data and the past for each rectangular area Rect c having the left end position (x c , y c ) and the rectangular size (w c , h c ) sent from the product estimation unit 105. A motion vector is obtained by a block matching method with frame image data.

図4(A)及び(B)は、ブロックマッチング法を説明するための概略図である。
図4(B)に示されているように、過去フレーム画像データの画像Im2での探索範囲を示す矩形の左上の座標を(xwin ,ywin )、矩形の大きさを(wwin ,hwin )とする。これらは、下記の(3)式〜(6)式を満たすものとする。

Figure 2016201105
Figure 2016201105
Figure 2016201105
Figure 2016201105
4A and 4B are schematic diagrams for explaining the block matching method.
As shown in FIG. 4 (B), the upper left of the rectangle coordinates indicating the search range in the image Im2 of the past frame image data (x win c, y win c ), a rectangle of size (w win c , h win c ). These shall satisfy the following formulas (3) to (6).
Figure 2016201105
Figure 2016201105
Figure 2016201105
Figure 2016201105

動き方向算出部106は、図4(B)に示されている、この探索範囲に含まれる大きさ(w,h)の矩形と、図4(A)に示されている、現フレーム画像データの画像Im1の座標位置(x,y)及び大きさ(w,h)の矩形領域Rectとの絶対差分値和を求めて、最も絶対差分値和が小さい座標位置を(x’,y’)とする。よって、c番目の矩形領域Rectの動きベクトルは、(x−x’,y−y’)で求められる。ここで、上記では、探索範囲を矩形領域Rectの大きさの3倍としたが、これよりも大きくても小さくてもよい。最終的に動き方向算出部106は、動きベクトル(v ,v )=(x−x’,y−y’)と現フレーム画像データをマーケティング情報判定部108に供給する。 The motion direction calculation unit 106 includes a rectangle having a size (w c , h c ) included in the search range shown in FIG. 4B and the current frame shown in FIG. 4A. An absolute difference value sum with the rectangular area Rect c of the coordinate position (x c , y c ) and size (w c , h c ) of the image Im1 of the image data is obtained, and the coordinate position with the smallest absolute difference value sum is obtained. Let (x ′ c , y ′ c ). Therefore, the motion vector of the c-th rectangular area Rect c is obtained by (x c −x ′ c , y c −y ′ c ). Here, in the above description, the search range is set to three times the size of the rectangular region Rect c , but may be larger or smaller than this. Finally, the motion direction calculation unit 106 supplies the motion vector (v c x , v c y ) = (x c −x ′ c , y c −y ′ c ) and the current frame image data to the marketing information determination unit 108. To do.

次に、マーケティング情報判定部108での動き方向の判定について述べる。
マーケティング情報判定部108は、動き方向算出部106から与えられるベクトル情報で示される動きベクトル(v ,v )に基づいて、客2が商品を取り上げた、又は、戻した、を判定する。図1のような配置において、図5に示されているような位置関係で、現フレーム画像データの画像Im3が撮影され、動き方向算出部106から動きベクトルVが与えられたとする。図5に示されているように、客2に対して、商品棚1が現フレーム画像データの画像Im3において上部に配置されている場合は、動きベクトルVのy成分v が下記の(7)式を満たす場合に、マーケティング情報判定部108は、客2が商品を取り上げたと判定する。

Figure 2016201105
一方、動きベクトルVのy成分v が下記の(8)式を満たす場合に、マーケティング情報判定部108は、商品を戻したと判定する。
Figure 2016201105
また、下記の(9)式を満たす時は、先に(6)式が満たされた場合に限り、マーケティング情報判定部108は、客2が商品を見定めていると判定することができる。
Figure 2016201105
同様に、客2と商品棚1が、図5とは異なる配置の場合でも、マーケティング情報判定部108は、動きベクトルVの傾きにより動きを判定することができる。 Next, determination of the movement direction in the marketing information determination unit 108 will be described.
The marketing information determination unit 108 determines that the customer 2 picks up or returns the product based on the motion vector (v c x , v c y ) indicated by the vector information given from the motion direction calculation unit 106. To do. In the arrangement as shown in FIG. 1, it is assumed that the image Im3 of the current frame image data is photographed with the positional relationship as shown in FIG. 5 and the motion vector V is given from the motion direction calculation unit 106. As shown in Figure 5, with respect to customer 2, if the shelves 1 are arranged in the upper in the image Im3 of the current frame image data, y component v c y of the motion vector V is below ( When the expression 7) is satisfied, the marketing information determination unit 108 determines that the customer 2 picks up the product.
Figure 2016201105
On the other hand, it is determined that the y component v c y of the motion vector V in the case that satisfies the following equation (8), marketing information determination unit 108, returned goods.
Figure 2016201105
Further, when the following expression (9) is satisfied, the marketing information determination unit 108 can determine that the customer 2 is looking for the product only when the expression (6) is satisfied first.
Figure 2016201105
Similarly, even when the customer 2 and the product shelf 1 are arranged differently from those in FIG. 5, the marketing information determination unit 108 can determine the movement based on the inclination of the motion vector V.

また、実施の形態1では、図1に示されているように、マーケティング情報収集装置100を1つの装置としているが、撮像部101とそれ以外の部分を別ユニットとして構成してもよい。例えば、マーケティング情報収集装置100は、撮像部101を備えなくてもよく、別ユニットの撮像部101から画像データを受け取るようにしてもよい。また、フレームメモリ103及びフレームメモリ107は1つのメモリとして構成してもよい。商品データ保存部104及びデータ記録部109を1つにまとめてもよいし、前述のフレームメモリ103及びフレームメモリ107とまとめてもよい。   In the first embodiment, as shown in FIG. 1, the marketing information collection device 100 is a single device, but the imaging unit 101 and other portions may be configured as separate units. For example, the marketing information collection apparatus 100 may not include the imaging unit 101 and may receive image data from the imaging unit 101 of another unit. Further, the frame memory 103 and the frame memory 107 may be configured as one memory. The product data storage unit 104 and the data recording unit 109 may be combined into one, or may be combined with the frame memory 103 and the frame memory 107 described above.

実施の形態1に係るマーケティング情報収集装置100は、以上のように構成されているので、商品にRFタグを貼り付けることなく、直接的に購買につながらない、商品を取り上げた又は戻した等のマーケティング情報を収集することができる。   Since the marketing information collecting apparatus 100 according to the first embodiment is configured as described above, marketing such as picking up or returning a product that does not directly lead to purchase without attaching an RF tag to the product. Information can be collected.

実施の形態2.
図6は、実施の形態2に係るマーケティング情報収集装置200の構成を概略的に示すブロック図である。
実施の形態2に係るマーケティング情報収集装置200は、撮像部101と、画像取込部102と、フレームメモリ103と、商品データ保存部104と、商品推定部105と、動き方向算出部106と、フレームメモリ107と、マーケティング情報判定部208と、データ記録部109と、時計部210とを備える。なお、実施の形態2に係る情報処理方法は、実施の形態2に係るマーケティング情報収集装置200により実行される方法である。
実施の形態2に係るマーケティング情報収集装置200は、マーケティング情報判定部208及び時計部210を除いて、実施の形態1に係るマーケティング情報収集装置100と同様に構成されている。以下では、主に、実施の形態1とは異なるマーケティング情報判定部208及び時計部210について説明する。
Embodiment 2. FIG.
FIG. 6 is a block diagram schematically showing the configuration of the marketing information collection apparatus 200 according to the second embodiment.
The marketing information collecting apparatus 200 according to the second embodiment includes an imaging unit 101, an image capturing unit 102, a frame memory 103, a product data storage unit 104, a product estimation unit 105, a motion direction calculation unit 106, A frame memory 107, a marketing information determination unit 208, a data recording unit 109, and a clock unit 210 are provided. Note that the information processing method according to the second embodiment is a method executed by the marketing information collecting apparatus 200 according to the second embodiment.
The marketing information collection device 200 according to the second embodiment is configured in the same manner as the marketing information collection device 100 according to the first embodiment, except for the marketing information determination unit 208 and the clock unit 210. Hereinafter, marketing information determination unit 208 and clock unit 210 that are different from those in the first embodiment will be mainly described.

時計部210は、日付及び時刻を計測する。なお、時計部210で計測された日付及び時刻が、現在の日付及び時刻として扱われる。時計部210は、マーケティング情報判定部208の要求を受けると、要求があったタイミングの日付と時刻とを供給する。   The clock unit 210 measures the date and time. Note that the date and time measured by the clock unit 210 are treated as the current date and time. When the clock unit 210 receives the request from the marketing information determination unit 208, the clock unit 210 supplies the date and time of the request timing.

マーケティング情報判定部208は、実施の形態1のマーケティング情報判定部108とほぼ同等の機能を有するが、マーケティング情報をデータ記録部109に記録する際、時計部210から日付及び時刻を取得し、マーケティング情報に日付及び時刻情報を付加して記録する。   The marketing information determination unit 208 has substantially the same function as the marketing information determination unit 108 of the first embodiment. However, when recording the marketing information in the data recording unit 109, the marketing information determination unit 208 acquires the date and time from the clock unit 210, and performs marketing. Add date and time information to the information and record it.

実施の形態2に係るマーケティング情報収集装置200は、以上のように構成されているため、日付及び時刻といった店舗全体のマーケティング情報を付加することができるという効果がある。   Since the marketing information collection device 200 according to the second embodiment is configured as described above, there is an effect that marketing information of the entire store such as date and time can be added.

実施の形態2の構成は、図6に示されている時計部210が付加されているが、マーケティング情報判定部208に時計部210が含まれていてもよい。   In the configuration of the second embodiment, the clock unit 210 illustrated in FIG. 6 is added, but the marketing information determination unit 208 may include the clock unit 210.

なお、時計部210は、CPUがプログラムを実行することにより実現されてもよく、ASIC又はFPGA等の集積ロジックICによりハード的に実現されていてもよい。また、時計部210が、DSP等によりソフトウェア的に実現されていてもよい。   Note that the clock unit 210 may be realized by the CPU executing a program, or may be realized in hardware by an integrated logic IC such as an ASIC or FPGA. Further, the clock unit 210 may be realized as software by a DSP or the like.

実施の形態3.
図7は、実施の形態3に係るマーケティング情報収集装置300の構成を概略的に示すブロック図である。
実施の形態3に係るマーケティング情報収集装置300は、撮像部101と、画像取込部102と、フレームメモリ103と、商品データ保存部104と、商品推定部305と、動き方向算出部306と、フレームメモリ107と、マーケティング情報判定部308と、データ記録部109と、動領域推定部311と、フレームメモリ312とを備える。なお、実施の形態3に係る情報処理方法は、実施の形態3に係るマーケティング情報収集装置300により実行される方法である。
実施の形態3に係るマーケティング情報収集装置300は、商品推定部305、動き方向算出部306、マーケティング情報判定部308、動領域推定部311及びフレームメモリ312を除いて、実施の形態1に係るマーケティング情報収集装置100と同様に構成されている。以下では、主に、実施の形態1とは異なる商品推定部305、動き方向算出部306、マーケティング情報判定部308、動領域推定部311及びフレームメモリ312について説明する。なお、画像取込部102は、フレームメモリ103から画像データを読み出し、商品推定部305及び動領域推定部311に画像データを供給する。
Embodiment 3 FIG.
FIG. 7 is a block diagram schematically showing the configuration of the marketing information collecting apparatus 300 according to the third embodiment.
The marketing information collection device 300 according to the third embodiment includes an imaging unit 101, an image capture unit 102, a frame memory 103, a product data storage unit 104, a product estimation unit 305, a motion direction calculation unit 306, A frame memory 107, a marketing information determination unit 308, a data recording unit 109, a moving region estimation unit 311, and a frame memory 312 are provided. Note that the information processing method according to the third embodiment is a method executed by the marketing information collecting apparatus 300 according to the third embodiment.
The marketing information collecting apparatus 300 according to the third embodiment is the marketing information according to the first embodiment except for the product estimation unit 305, the motion direction calculation unit 306, the marketing information determination unit 308, the motion region estimation unit 311 and the frame memory 312. The configuration is the same as that of the information collecting apparatus 100. In the following, the product estimation unit 305, the motion direction calculation unit 306, the marketing information determination unit 308, the motion region estimation unit 311 and the frame memory 312 that are different from those in the first embodiment will be mainly described. The image capturing unit 102 reads image data from the frame memory 103 and supplies the image data to the product estimation unit 305 and the moving region estimation unit 311.

動領域推定部311は、撮像部101で順次撮影された画像において、動きのある領域を順次特定する動領域特定部である。例えば、動領域推定部311は、画像取込部102から画像データを受け取り、後述する方法を用いて画像データの画像中で動きがあった範囲を推定する。
また、動領域推定部311は、画像取込部102から送られてきた最新の画像データと、現フレーム画像データと、過去フレーム画像データとを保持するように、フレームメモリ312を制御する。
動領域推定部311は、現フレーム画像データと過去フレーム画像データとから、客2が取り上げた商品4の領域を推定する。詳細なアルゴリズムは後述するが、動領域推定部311は、予め定められた第1のサイズ以上、かつ、予め定められた第2のサイズ以下の領域の画像中の座標位置(以下では、その領域の左上部のx座標及びy座標とする)と、その領域の縦幅及び横幅とを示す動領域情報を、動き方向算出部306及び商品推定部305に供給する。また、動領域推定部311は、画像取込部102から送られてきた最新の画像データも動き方向算出部306に供給する。実施の形態3では、動きがあると推定する領域を矩形として取り扱うが、円形、楕円形又は自由形状であってもよい。その場合、半径等の量が動き方向算出部306及び商品推定部305に供給されるが、領域を指し示すマスク画像が動き方向算出部306及び商品推定部305に供給されてもよい。
The moving area estimation unit 311 is a moving area specifying unit that sequentially specifies moving areas in images sequentially captured by the imaging unit 101. For example, the moving region estimation unit 311 receives the image data from the image capturing unit 102, and estimates a range in which there has been motion in the image data using a method described later.
In addition, the moving region estimation unit 311 controls the frame memory 312 so as to hold the latest image data, the current frame image data, and the past frame image data transmitted from the image capturing unit 102.
The moving area estimation unit 311 estimates the area of the product 4 picked up by the customer 2 from the current frame image data and the past frame image data. Although a detailed algorithm will be described later, the moving area estimation unit 311 has a coordinate position (hereinafter, the area) in the image of an area that is equal to or larger than a predetermined first size and equal to or smaller than a predetermined second size. And the moving area information indicating the vertical and horizontal widths of the area is supplied to the movement direction calculation unit 306 and the product estimation unit 305. The moving region estimation unit 311 also supplies the latest image data sent from the image capturing unit 102 to the motion direction calculation unit 306. In the third embodiment, the region estimated to have motion is handled as a rectangle, but may be a circle, an ellipse, or a free shape. In this case, an amount such as a radius is supplied to the motion direction calculation unit 306 and the product estimation unit 305, but a mask image indicating a region may be supplied to the motion direction calculation unit 306 and the product estimation unit 305.

動き方向算出部306は、動領域推定部311で特定された領域から、この領域に含まれている商品の動き方向を特定する動き方向特定部である。
具体的には、動き方向算出部306は、動領域推定部311から最新の画像データ及び動領域情報を受け取る。ここで、動き方向算出部306は、動領域推定部311と同様に、動領域推定部311から送られてきた最新の画像データと、現フレーム画像データと、過去フレーム画像データとを保持するようにフレームメモリ107を制御する。ここで、フレームメモリ312及びフレームメモリ107は、同様の画像データを保持しているため、1つにまとめることもできるが、以下では別々のフレームメモリであるものとして説明する。
動き方向算出部306は、動領域情報で示される、商品領域の縦幅及び横幅、並びに、座標位置と、現フレーム画像データと、過去フレーム画像データとから、商品の動きベクトルを算出する。そして、動き方向算出部306は、動きベクトルと、動領域情報と、現フレーム画像データとをマーケティング情報判定部308に供給する。動きベクトルの算出方法は後述する。
The movement direction calculation unit 306 is a movement direction specification unit that specifies the movement direction of the product included in the region from the region specified by the movement region estimation unit 311.
Specifically, the motion direction calculation unit 306 receives the latest image data and motion region information from the motion region estimation unit 311. Here, the motion direction calculation unit 306 holds the latest image data, current frame image data, and past frame image data sent from the motion region estimation unit 311, as with the motion region estimation unit 311. The frame memory 107 is controlled. Here, since the frame memory 312 and the frame memory 107 hold similar image data, they can be combined into one, but in the following description, they are assumed to be separate frame memories.
The motion direction calculation unit 306 calculates the motion vector of the product from the vertical and horizontal widths of the product region, the coordinate position, the current frame image data, and the past frame image data indicated by the motion region information. Then, the motion direction calculation unit 306 supplies the motion vector, the motion area information, and the current frame image data to the marketing information determination unit 308. A method for calculating the motion vector will be described later.

商品推定部305は、動領域推定部311で特定された領域に含まれている商品の商品名を特定する商品特定部である。
具体的には、商品推定部305は、動領域推定部311から動領域情報を受け取り、実施の形態1及び実施の形態2における商品推定部105と同様の方法で、商品名を推定する。商品推定部305は、推定結果に応じて、商品情報及び商品領域の情報をマーケティング情報判定部308に供給する。
The product estimation unit 305 is a product specification unit that specifies the product name of the product included in the area specified by the dynamic region estimation unit 311.
Specifically, the product estimation unit 305 receives the motion region information from the motion region estimation unit 311 and estimates the product name by the same method as the product estimation unit 105 in the first and second embodiments. The product estimation unit 305 supplies product information and product area information to the marketing information determination unit 308 according to the estimation result.

マーケティング情報判定部308は、動き方向算出部306から動きベクトル、動領域情報及び現フレーム画像データを受け取り、商品推定部305から商品情報及び商品領域の情報を受け取る。そして、マーケティング情報判定部308は、商品推定部305の商品推定結果と、動き方向算出部306の動領域情報とを照合することで、動きベクトルを決定する。
マーケティング情報判定部308は、商品推定部305からの商品情報が客2に手に取られた商品がないことを示す場合は、何も記録せず、処理を終了するか、又は、商品がないという情報をデータ記録部109に記録する。一方、マーケティング情報判定部308は、商品情報が商品のあることを示す場合は、商品名及び商品領域の情報をデータ記録部109に記録する。
The marketing information determination unit 308 receives a motion vector, moving region information, and current frame image data from the motion direction calculation unit 306, and receives product information and product region information from the product estimation unit 305. Then, the marketing information determination unit 308 determines a motion vector by collating the product estimation result of the product estimation unit 305 with the motion area information of the motion direction calculation unit 306.
When the product information from the product estimation unit 305 indicates that there is no product that has been picked up by the customer 2, the marketing information determination unit 308 does not record anything and terminates the process or there is no product. Is recorded in the data recording unit 109. On the other hand, when the product information indicates that there is a product, the marketing information determination unit 308 records the product name and product area information in the data recording unit 109.

なお、商品推定部305、動き方向算出部306、マーケティング情報判定部308及び動領域推定部311は、CPUがプログラムを実行することにより実現されてもよい。また、これらの一部又は全部が、ASIC又はFPGA等の集積ロジックICによりハード的に実現されていてもよい。さらに、これらの一部又は全部が、DSP等によりソフトウェア的に実現されていてもよい。   Note that the product estimation unit 305, the motion direction calculation unit 306, the marketing information determination unit 308, and the motion area estimation unit 311 may be realized by the CPU executing a program. Also, some or all of these may be implemented in hardware by an integrated logic IC such as an ASIC or FPGA. Furthermore, some or all of these may be implemented by software such as a DSP.

以上のように構成される実施の形態3に係るマーケティング情報収集装置300の動作を、以下説明する。   The operation of marketing information collection apparatus 300 according to Embodiment 3 configured as described above will be described below.

図8は、動領域推定部311での動領域を算出する処理を示すフローチャートである。
動領域推定部311は、上述のように、画像取込部102又はフレームメモリ312から現フレーム画像データと過去フレーム画像データとを取り込む(S20)。上述のように、現フレーム画像データ及び過去フレーム画像データは、RGB形式のカラー画像の画像データである。
FIG. 8 is a flowchart showing processing for calculating a moving area in the moving area estimation unit 311.
As described above, the moving region estimation unit 311 captures the current frame image data and the past frame image data from the image capture unit 102 or the frame memory 312 (S20). As described above, the current frame image data and the past frame image data are image data of RGB color images.

次に、動領域推定部311は、現フレーム画像データの画像と、過去フレーム画像データの画像とから、絶対差分画像データを生成する(S21)。ここで、絶対差分画像の生成方法について説明する。   Next, the moving region estimation unit 311 generates absolute difference image data from the image of the current frame image data and the image of the past frame image data (S21). Here, a method of generating an absolute difference image will be described.

絶対差分画像データは、画素単位で、以下の(10)式に従って算出される。

Figure 2016201105
但し、xは、水平方向の画素位置、yは、垂直方向の画素位置、Dxyは、(x,y)に位置する画素の絶対差分値である。Rxyは、現フレーム画像データの(x,y)に位置する画素のコンポーネントRの値、Gxyは、現フレーム画像データの(x,y)に位置する画素のコンポーネントGの値、Bxyは、現フレーム画像データの(x,y)に位置する画素のコンポーネントBの値である。また、R’xyは、過去フレーム画像データの(x,y)に位置する画素のコンポーネントRの値、G’xyは、過去フレーム画像データの(x,y)に位置する画素のコンポーネントGの値、B’xyは、過去フレーム画像データの(x,y)に位置する画素のコンポーネントBの値である。
なお、動領域推定部311は、画像データをRGB系からYCbCr系に変換し、輝度(Y)の絶対差分値を求めてもよく、また、RGBから代表して例えばG値を用いて絶対差分値を求めてもよい。以降では、上記(10)式に基づいて算出したものとして説明する。 The absolute difference image data is calculated in units of pixels according to the following equation (10).
Figure 2016201105
However, x is a pixel position in the horizontal direction, y is a pixel position in the vertical direction, and D xy is an absolute difference value of a pixel located at (x, y). R xy is the value of the component R of the pixel located at (x, y) of the current frame image data, G xy is the value of the component G of the pixel located at (x, y) of the current frame image data, and B xy Is the value of component B of the pixel located at (x, y) of the current frame image data. R ′ xy is the value of the component R of the pixel located at (x, y) in the past frame image data, and G ′ xy is the value of the component G of the pixel located at (x, y) in the past frame image data. The value B ′ xy is the value of the component B of the pixel located at (x, y) of the past frame image data.
Note that the moving region estimation unit 311 may convert the image data from the RGB system to the YCbCr system to obtain the absolute difference value of the luminance (Y), and represent the absolute difference using, for example, the G value as a representative of RGB. A value may be obtained. In the following description, it is assumed that the calculation is based on the above equation (10).

次に、動領域推定部311は、ステップS20で生成された絶対差分画像データに対して閾値処理を行う(S22)。ステップS22での閾値処理は、次の(11)式を用いて行われる。

Figure 2016201105
但し、D’xyは、(x,y)に位置する画素の閾値処理後の値、Tは、予め定められた閾値である。
ここでは、D’xyは、8bit整数型としているが、0又は1をとる2値としてもよい。また、動領域推定部311は、ステップS21及びS22での計算を便宜上分離して行っているが、まとめて計算してもよい。
動領域推定部311は、このようにすべての画素について計算する。そして、計算されたD’xyにより構成される画像データを閾値画像データとする。 Next, the moving region estimation unit 311 performs threshold processing on the absolute difference image data generated in step S20 (S22). The threshold processing in step S22 is performed using the following equation (11).
Figure 2016201105
However, D 'xy is (x, y) values after threshold processing of pixels positioned, T D is a predetermined threshold.
Here, D ′ xy is an 8-bit integer type, but it may be a binary value that takes 0 or 1. In addition, although the moving region estimation unit 311 performs the calculations in steps S21 and S22 separately for convenience, the calculation may be performed collectively.
The moving region estimation unit 311 calculates for all the pixels in this way. Then, the image data constituted by the calculated D ′ xy is set as threshold image data.

次に、動領域推定部311は、生成された閾値画像データに対して、モルフォロジー演算の画像の膨張と収縮を適用する。この演算は、画像処理の分野において一般的な方法で行われればよく、ここでは特に定義しない。この処理は、近くに存在する領域を接続する作用を持ち、ノイズに対するフィルタ処理である。このため、この画像の膨張及び収縮処理は、省いてもよい。
次に、動領域推定部311は、閾値画像データに対して、画素値が255となっている箇所に外接する矩形の群を求める。図9に外接矩形の1例を示す。図9の斜線部分がD’xy=0の部分、空白部分がD’xy=255の部分であるものとする。外接矩形は、図9に示されているように、空白部分の外側に接する矩形REである。なお、図9に示されているように、外接矩形REの一部に斜線部分が含まれているが、空白部分に接している場合は、1つの塊とみなされる。
閾値画像データ内には、1つ以上の外接矩形が見つかる場合がある。この時の外接矩形をREとすると、nは見つかった外接矩形の個数である。但し、n=0のときは、外接矩形が見つからない場合である。
Next, the moving region estimation unit 311 applies the expansion and contraction of the image of the morphological operation to the generated threshold image data. This calculation may be performed by a general method in the field of image processing, and is not particularly defined here. This process has an effect of connecting nearby areas and is a filter process for noise. For this reason, the expansion and contraction processing of the image may be omitted.
Next, the moving region estimation unit 311 obtains a group of rectangles circumscribing a portion having a pixel value of 255 for the threshold image data. FIG. 9 shows an example of a circumscribed rectangle. The hatched portion in FIG. 9 is a portion where D ′ xy = 0, and the blank portion is a portion where D ′ xy = 255. The circumscribed rectangle is a rectangle RE that is in contact with the outside of the blank portion as shown in FIG. Note that, as shown in FIG. 9, a part of the circumscribed rectangle RE includes a hatched portion, but when it is in contact with the blank portion, it is regarded as one lump.
One or more circumscribed rectangles may be found in the threshold image data. If the circumscribed rectangle at this time is RE n , n is the number of circumscribed rectangles found. However, when n = 0, the circumscribed rectangle is not found.

次に、処理はステップS23に進む。ステップS23では、動領域推定部311は、第1の閾値処理と第2の閾値処理でこれらの外接矩形をフィルタする。
第1の閾値処理は、下記の(12)式に従う。

Figure 2016201105
第2の閾値処理は、下記の(13)式に従う。
Figure 2016201105
ここで、wは、外接矩形REの横幅を示し、hは、外接矩形REの縦幅を示す。Tw1及びTh1は、0よりも大きい第1の閾値、Tw2及びTh2は、0よりも大きい第2の閾値である。これら2つの式を満たす外接矩形を閾値外接矩形REとする。但し、cは、c=0,・・・,k(k≦n)を満たす正の整数である。この場合、閾値処理を満たした外接矩形がk個あることになる。
次に、k個の閾値外接矩形REのそれぞれの現フレーム画像データにおける左上の座標位置を(x,y)、矩形の大きさを(w,h)とする。最終的に動領域推定部311は、閾値外接矩形REcを示す(x,y)及び(w,h)を動領域情報として、商品推定部305及び動き方向算出部306に供給し、画像取込部102から送られてきた最新の画像データを動き方向算出部306に供給する。 Next, the process proceeds to step S23. In step S23, the moving region estimation unit 311 filters these circumscribed rectangles by the first threshold processing and the second threshold processing.
The first threshold processing follows the following equation (12).
Figure 2016201105
The second threshold processing follows the following equation (13).
Figure 2016201105
Here, w n denotes the width of the circumscribed rectangle RE n, h n denotes a vertical width of the circumscribed rectangle RE n. T w1 and T h1 are first threshold values greater than 0, and T w2 and T h2 are second threshold values greater than 0. A circumscribed rectangle satisfying these two expressions is defined as a threshold circumscribed rectangle RE c . However, c is a positive integer satisfying c = 0,..., K (k ≦ n). In this case, there are k circumscribed rectangles that satisfy the threshold processing.
Next, assume that the upper left coordinate position of each of the k threshold circumscribing rectangles RE c in the current frame image data is (x c , y c ), and the size of the rectangle is (w c , h c ). Finally, the moving region estimation unit 311 supplies (x c , y c ) and (w c , h c ) indicating the threshold circumscribed rectangle REc to the product estimation unit 305 and the movement direction calculation unit 306 as moving region information. The latest image data sent from the image capturing unit 102 is supplied to the motion direction calculating unit 306.

次に、動き方向算出部306での動き方向の算出について述べる。但し、フレームメモリ107の動作については、上述の通りである。
図10は、動き方向算出部306での動き方向算出時の処理を示すフローチャートである。
上述のように、動き方向算出部306は、動領域推定部311又はフレームメモリ107から現フレーム画像データ及び過去フレーム画像データを取り込む(S30)。上述のように、現フレーム画像データ及び過去フレーム画像データは、RGB形式のカラー画像の画像データである。
Next, calculation of the movement direction in the movement direction calculation unit 306 will be described. However, the operation of the frame memory 107 is as described above.
FIG. 10 is a flowchart showing processing at the time of motion direction calculation in the motion direction calculation unit 306.
As described above, the motion direction calculation unit 306 takes in the current frame image data and the past frame image data from the motion region estimation unit 311 or the frame memory 107 (S30). As described above, the current frame image data and the past frame image data are image data of RGB color images.

次に、動き方向算出部306は、動領域推定部311から送られてきた動領域情報で示される閾値外接矩形REの座標位置(x,y)及び大きさ(w,h)に基づいて、現フレーム画像データと過去フレーム画像データ間のブロックマッチング法により動きベクトルを求める。ブロックマッチング法については、図4を用いて上述した方法と同様である。但し、実施の形態3では、スライディングウィンドウの代わりに、閾値外接矩形が矩形領域Rectとして用いられる。
最終的に動き方向算出部306は、動きベクトル(v ,v )=(x−x’,y−y’)と現フレーム画像データとをマーケティング情報判定部308に供給する。
Next, the motion direction calculation unit 306 has a coordinate position (x c , y c ) and a size (w c , h c ) of the threshold circumscribed rectangle RE c indicated by the motion region information sent from the motion region estimation unit 311. ) To obtain a motion vector by a block matching method between the current frame image data and the past frame image data. The block matching method is the same as the method described above with reference to FIG. However, in the third embodiment, a threshold circumscribed rectangle is used as the rectangular region Rect c instead of the sliding window.
Finally, the motion direction calculation unit 306 sends the motion vector (v c x , v c y ) = (x c −x ′ c , y c −y ′ c ) and the current frame image data to the marketing information determination unit 308. Supply.

次に、商品推定部305について述べる。ここで、動領域推定部311から渡された動領域情報で示される閾値外接矩形毎に、商品データ保存部104に保存された商品データとの類似度を算出し、客2が手にとった又は戻した商品を推定する。この商品の推定は、実施の形態1及び実施の形態2の商品推定部105での推定と同様に行われる。但し、実施の形態3では、スライディングウィンドウの代わりに、閾値外接矩形が矩形領域Rectとして用いられる。例えば、商品推定部305は、閾値外接矩形から算出した特徴量と、商品データ保存部104に保存されている特徴量との距離distを求める。この距離distは、2つの矩形から算出された特徴量の遠さを示すため、この距離distの逆数が類似度となる。類似度はR=1/distである。 Next, the product estimation unit 305 will be described. Here, for each threshold circumscribed rectangle indicated by the moving area information passed from the moving area estimation unit 311, the similarity with the product data stored in the product data storage unit 104 is calculated, and the customer 2 picks up. Or estimate the returned merchandise. This product estimation is performed in the same manner as the estimation in the product estimation unit 105 according to the first and second embodiments. However, in Embodiment 3, a threshold circumscribed rectangle is used as the rectangular region Rect c instead of the sliding window. For example, the product estimation unit 305 obtains a distance dist between the feature amount calculated from the threshold circumscribed rectangle and the feature amount stored in the product data storage unit 104. Since the distance dist indicates the distance of the feature amount calculated from the two rectangles, the reciprocal of the distance dist is the similarity. The similarity is R = 1 / dist.

具体的には、商品推定部305は、動領域推定部311から与えられた閾値外接矩形RE毎に特徴量を求める。次に、商品推定部305は、これらの特徴量と商品データ保存部104にある特徴量との類似度Rを求める。類似度Rが、上述の(2)式を満たす最大の特徴量を持つ商品が、閾値外接矩形REに含まれる商品と推定される。
そして、最終的に、商品推定部305は、閾値外接矩形REの左端位置(x,y)及びサイズ(w,h)を示す動領域情報と、推定された商品の商品名とを、マーケティング情報判定部308に供給する。但し、商品推定部305は、商品が見つからない閾値外接矩形REの場合は、商品名を商品なしとするか、その矩形を取り除くこととする。
Specifically, the product estimation unit 305 obtains a feature amount for each threshold circumscribed rectangle RE c given from the moving region estimation unit 311. Next, the product estimation unit 305 obtains the similarity R p between these feature amounts and the feature amounts in the product data storage unit 104. A product whose similarity R p satisfies the above-described expression (2) is estimated to be a product included in the threshold circumscribed rectangle RE c .
Finally, the product estimation unit 305 includes moving area information indicating the left end position (x c , y c ) and size (w c , h c ) of the threshold circumscribed rectangle RE c and the product name of the estimated product. Are supplied to the marketing information determination unit 308. However, in the case of the threshold circumscribed rectangle RE c where no product is found, the product estimation unit 305 determines that the product name is no product or removes the rectangle.

次に、マーケティング情報判定部308での動き方向の判定について述べる。
マーケティング情報判定部308は、動き方向算出部306から渡される動きベクトル(v ,v )に基づいて、客2が商品を取り上げた、又は、戻した、を判定する。図1のような配置において、図5に示されているような位置関係で、現フレーム画像データの画像Im3が撮影され、動き方向算出部306から動きベクトルVが入力されたとする。図5に示されているように、客2に対して、商品棚1が現フレーム画像データの画像Im3において上部に配置されている場合は、動きベクトルVのy成分v が上記の(7)式を満たすときに、マーケティング情報判定部308は、客2が商品を取り上げたと判定する。一方、動きベクトルVのy成分v が上記の(8)式を満たす場合に、マーケティング情報判定部308は、商品を戻したと判定する。さらに、上記の(9)式を満たすときは、先に(6)式が満たされた場合に限り、マーケティング情報判定部308は、客2が商品を見定めていると判定することができる。同様に、客2と商品棚1が、図5とは異なる配置の場合でも、マーケティング情報判定部308は、動きベクトルVの傾きにより動きを判定することができる。
Next, the determination of the movement direction in the marketing information determination unit 308 will be described.
The marketing information determination unit 308 determines whether the customer 2 has picked up or returned the product based on the motion vector (v c x , v c y ) passed from the motion direction calculation unit 306. In the arrangement as shown in FIG. 1, it is assumed that the image Im3 of the current frame image data is photographed with the positional relationship as shown in FIG. As shown in Figure 5, with respect to customer 2, if the shelves 1 are arranged in the upper in the image Im3 of the current frame image data, y component v c y of the motion vector V is the ( When the expression 7) is satisfied, the marketing information determination unit 308 determines that the customer 2 picks up the product. On the other hand, it is determined that the y component v c y of the motion vector V when meeting the above (8), marketing information determination unit 308, returned goods. Furthermore, when the above expression (9) is satisfied, the marketing information determination unit 308 can determine that the customer 2 has determined the product only when the expression (6) is satisfied first. Similarly, even when the customer 2 and the product shelf 1 are arranged differently from those in FIG. 5, the marketing information determination unit 308 can determine the movement based on the inclination of the motion vector V.

次に、マーケティング情報判定部308は、動き方向算出部306からの動領域情報で示される閾値外接矩形(ここでは(xc1,yc1)及び(wc1,hc1)とする)と、商品推定部305からの動領域情報で示される閾値外接矩形(ここでは(xc2,yc2)及び(wc2,hc2)とする)とから、商品推定部305で商品なしと判定された情報をフィルタする。基本的に、(xc1,yc1)と(xc2,yc2)、(wc1,hc1)と(wc2,hc2)は同じ値になるはずであるが、商品推定部305での閾値処理により商品なしと判定された場合は、C2<C1である。そこで、マーケティング情報判定部308は、下記の(14)式を満たすか否かを判定する。

Figure 2016201105
(14)式を満たす場合に、マーケティング情報判定部308は、商品名並びに動領域情報(xc2,yc2)及び(wc2,hc2)を、マーケティング情報としてデータ記録部109に保存するか、外部へ配信するか、又は、その両方を実施する。また、マーケティング情報判定部308は、実施の形態2で述べたように日付及び時刻情報を付加することもできる。 Next, the marketing information determination unit 308 includes a threshold circumscribed rectangle (here, (x c1 , y c1 ) and (w c1 , h c1 )) indicated by the movement area information from the movement direction calculation unit 306, and a product Information determined by the product estimation unit 305 that there is no product from the threshold circumscribed rectangles (here, (x c2 , y c2 ) and (w c2 , h c2 )) indicated by the moving region information from the estimation unit 305 Filter. Basically, (x c1 , y c1 ) and (x c2 , y c2 ), (w c1 , h c1 ) and (w c2 , h c2 ) should be the same value, but in the product estimation unit 305 If it is determined that there is no product by the threshold value processing, C2 <C1. Therefore, the marketing information determination unit 308 determines whether or not the following expression (14) is satisfied.
Figure 2016201105
When the expression (14) is satisfied, the marketing information determination unit 308 saves the product name and the movement area information (x c2 , y c2 ) and (w c2 , h c2 ) in the data recording unit 109 as marketing information. , Deliver to the outside, or both. The marketing information determination unit 308 can also add date and time information as described in the second embodiment.

また、実施の形態3では、図1に示されているように、マーケティング情報収集装置300を1つの装置として記載しているが、撮像部101とそれ以外の部分を別ユニットとして構成してもよい。例えば、マーケティング情報収集装置300は、撮像部101を備えなくてもよく、別ユニットの撮像部101から画像データを受け取るようにしてもよい。また、フレームメモリ103、フレームメモリ312及びフレームメモリ107は、1つのメモリとして構成されてもよい。商品データ保存部104及びデータ記録部109は、1つにまとめられてもよいし、フレームメモリ103、フレームメモリ312及びフレームメモリ107とまとめられてもよい。さらに、動領域推定部311と動き方向算出部306は、1つにまとめられてもよい。   In the third embodiment, as shown in FIG. 1, the marketing information collection device 300 is described as one device, but the imaging unit 101 and other portions may be configured as separate units. Good. For example, the marketing information collection device 300 may not include the imaging unit 101 and may receive image data from the imaging unit 101 of another unit. Further, the frame memory 103, the frame memory 312 and the frame memory 107 may be configured as one memory. The product data storage unit 104 and the data recording unit 109 may be combined into one, or may be combined into the frame memory 103, the frame memory 312 and the frame memory 107. Furthermore, the motion area estimation unit 311 and the motion direction calculation unit 306 may be combined into one.

実施の形態3に係るマーケティング情報収集装置300は、以上のように構成されているので、商品にRFタグを貼り付けることなく、直接的に購買につながらない、商品を取り上げた又は戻した等のマーケティング情報を収集することができる。さらに、動領域推定部311を設けたため、実施の形態1のスライディングウィンドウ方式よりも高速にマーケティング情報を収集することができる。   Since the marketing information collecting apparatus 300 according to the third embodiment is configured as described above, marketing such as picking up or returning a product that does not directly lead to purchase without attaching an RF tag to the product. Information can be collected. Furthermore, since the moving region estimation unit 311 is provided, marketing information can be collected at a higher speed than the sliding window method of the first embodiment.

実施の形態4.
図11は、実施の形態4に係るマーケティング情報収集装置400の構成を概略的に示すブロック図である。
実施の形態4に係るマーケティング情報収集装置400は、撮像部101と、画像取込部102と、フレームメモリ103と、商品データ及び保管位置保存部404と、商品推定部405と、動き方向算出部306と、フレームメモリ107と、マーケティング情報判定部308と、データ記録部109と、動領域推定部311と、フレームメモリ312とを備える。なお、実施の形態4に係る情報処理方法は、実施の形態4に係るマーケティング情報収集装置400により実行される方法である。
実施の形態4に係るマーケティング情報収集装置400は、商品データ及び保管位置保存部404、及び、商品推定部405を除いて、実施の形態3に係るマーケティング情報収集装置300と同様に構成されている。以下では、主に、実施の形態3とは異なる商品データ及び保管位置保存部404、及び、商品推定部405について説明する。なお、画像取込部102は、フレームメモリ103から画像データを読み出し、商品推定部405及び動領域推定部311に画像データを供給する。
Embodiment 4 FIG.
FIG. 11 is a block diagram schematically showing the configuration of the marketing information collecting apparatus 400 according to the fourth embodiment.
The marketing information collection device 400 according to Embodiment 4 includes an imaging unit 101, an image capture unit 102, a frame memory 103, product data and storage position storage unit 404, a product estimation unit 405, and a motion direction calculation unit. 306, a frame memory 107, a marketing information determination unit 308, a data recording unit 109, a moving region estimation unit 311, and a frame memory 312. Note that the information processing method according to the fourth embodiment is a method executed by the marketing information collecting apparatus 400 according to the fourth embodiment.
The marketing information collection device 400 according to the fourth embodiment is configured in the same manner as the marketing information collection device 300 according to the third embodiment except for the product data and storage position storage unit 404 and the product estimation unit 405. . In the following, product data and storage position storage unit 404 and product estimation unit 405 that are different from those in Embodiment 3 will be mainly described. The image capturing unit 102 reads image data from the frame memory 103 and supplies the image data to the product estimation unit 405 and the moving region estimation unit 311.

商品データ及び保管位置保存部404は、実施の形態1における商品データ保存部104と同様に、商品推定部105で商品の推定を行う際に必要となる、商品の特徴量を記憶するとともに、商品の保管位置(陳列位置)を示す保管位置情報を記憶する商品データ記憶部である。
現フレームの画像データの画像が、図12に示されているような画像Im4であるものとする。また、商品棚1の商品は、図13に示されているように陳列されているものとする。このような場合、画像Im4からは、例えば、商品A、商品D又は商品Gといった商品そのものの位置を区別することは難しいが、グループ11、グループ12又はグループ13のように、商品棚1の縦方向の商品郡を識別することは可能である。そこで、商品データ及び保管位置保存部404は、商品名及び商品の特徴量に加えて、商品の保管位置を示す保管位置情報を記録する。ここで、保管位置情報は、例えば、図14に示されているように、それぞれのグループが配置されている領域の端点の座標(x,y)及びサイズ(h,w)とする。ここでgは、各グループを識別するための識別子であり、図14では、g=11〜13である。
Similar to the product data storage unit 104 in the first embodiment, the product data and storage position storage unit 404 stores product feature quantities required when the product estimation unit 105 estimates a product, This is a product data storage unit for storing storage position information indicating the storage position (display position).
It is assumed that the image data of the current frame is an image Im4 as shown in FIG. In addition, it is assumed that the products in the product shelf 1 are displayed as shown in FIG. In such a case, from the image Im4, for example, it is difficult to distinguish the position of the product itself such as the product A, the product D, or the product G. However, as in the group 11, the group 12, or the group 13, It is possible to identify the merchandise county in the direction. Therefore, the product data and storage location storage unit 404 records storage location information indicating the storage location of the product in addition to the product name and the feature amount of the product. Here, for example, as shown in FIG. 14, the storage position information includes the coordinates (x g , y g ) and size (h g , w g ) of the end points of the areas where the respective groups are arranged. To do. Here, g is an identifier for identifying each group, and g = 11 to 13 in FIG.

商品推定部405は、撮像部101で撮像された画像に含まれている商品を特定する商品特定部である。
具体的には、商品推定部405は、画像取込部102から現フレームの画像データを受け取り、画像データ内の商品を推定する。例えば、商品推定部405は、一般物体認識技術を使用して、画像データ内の商品領域の特徴量を算出し、その特徴量と、商品データ及び保管位置保存部404に記憶されている商品の特徴量との類似度に基づいて、商品を推定するが、実施の形態4においては、商品の保管位置(陳列位置)に基づいて、類似度を求める商品の特徴量を絞り込む。
以下、商品推定部405での商品推定について具体的に述べる。ここで、動領域推定部311から渡される動領域情報で示される閾値外接矩形が(x,y)及び(w,h)であるとする。例えば、図12に示されているように、商品4が客2に取り上げられている場合には、画像Im4及び閾値外接矩形の左上部座標(x,y)からは、商品棚1のグループは判定できない。しかしながら、図15に示されているように、まさに客2が商品4を商品棚1から取り出しているところの画像Im5であったとすると、閾値外接矩形の左上部座標(x,y)、及び、商品データ及び保管位置保存部404に保存されている保管位置情報で示される座標(x,y)及びサイズ(h,w)に基づいて、グループ11又はグループ12から商品4が取り出されたと判定することができる。
The product estimation unit 405 is a product specification unit that specifies a product included in the image captured by the imaging unit 101.
Specifically, the product estimation unit 405 receives the image data of the current frame from the image capture unit 102 and estimates the product in the image data. For example, the product estimation unit 405 calculates the feature amount of the product area in the image data by using the general object recognition technology, and the feature amount and the product data and the product stored in the storage position storage unit 404. The product is estimated based on the similarity with the feature amount. In the fourth embodiment, the feature amount of the product for which the similarity is calculated is narrowed down based on the storage position (display position) of the product.
Hereinafter, the product estimation in the product estimation unit 405 will be specifically described. Here, it is assumed that the threshold circumscribed rectangles indicated by the moving region information passed from the moving region estimation unit 311 are (x c , y c ) and (w c , h c ). For example, as shown in FIG. 12, when the product 4 is picked up by the customer 2, from the image Im4 and the upper left coordinates (x c , y c ) of the threshold circumscribing rectangle, the product shelf 1 The group cannot be determined. However, as shown in FIG. 15, if the customer 2 is exactly the image Im5 where the product 4 is being taken out of the product shelf 1, the upper left coordinates (x c , y c ) of the threshold circumscribed rectangle, Based on the coordinates (x g , y g ) and the size (h g , w g ) indicated by the product data and the storage position information stored in the storage position storage unit 404, the product 4 from the group 11 or the group 12 Can be determined to have been removed.

例えば、商品推定部405は、閾値外接矩形の左上部座標(x,y)が、保管位置情報で示される座標(x,y)及びサイズ(h,w)で特定される、グループが配置されている領域に含まれるか否か、でグループを判定してもよい。このような場合、グループが配置されている領域は、座標(x,y)及びサイズ(h,w)で特定される領域を包含する等、座標(x,y)及びサイズ(h,w)で特定される領域を拡大した領域としてもよい。さらに、商品推定部405は、閾値外接矩形の左上部座標(x,y)と、保管位置情報で示される座標(x,y)との間の距離が、予め定められた閾値よりも短い場合に、商品が取り出されたグループであると判定することができる。 For example, the product estimation unit 405 specifies the upper left coordinates (x c , y c ) of the threshold circumscribed rectangle by the coordinates (x g , y g ) and the size (h g , w g ) indicated by the storage position information. The group may be determined by whether or not it is included in the area where the group is arranged. In this case, the region where the group is located, the coordinates (x g, y g) and size (h g, w g) and the like comprising a region specified by coordinates (x g, y g) and The area specified by the size (h g , w g ) may be an enlarged area. Further, the product estimation unit 405 determines that the distance between the upper left coordinates (x c , y c ) of the threshold circumscribed rectangle and the coordinates (x g , y g ) indicated by the storage position information is a predetermined threshold value. If it is shorter than that, it can be determined that the group is the group from which the product is taken out.

そして、商品推定部405は、商品が取り出されたと判定されたグループに属する商品の特徴量と、画像データ内の商品領域の特徴量との類似度に基づいて、商品を推定すればよい。このように、商品データ及び保管位置保存部404に保存されているすべての商品の特徴量と照合するのではなく、位置関係から照合すべき商品の特徴量を絞り込むことができる。商品の候補を絞り込んだ後の、商品推定は、実施の形態3の商品推定部305と同様の方法でよい。また、この時、例えば、図12に示されているように、グループ情報からの絞り込みは難しいとして、商品データ及び保管位置保存部404に保存されているすべての商品を候補としてもよいし、トラッキング技術を使ってグループ情報を保持するような実装としてもよい。   Then, the product estimation unit 405 may estimate the product based on the similarity between the feature amount of the product belonging to the group in which the product is determined to be extracted and the feature amount of the product area in the image data. In this way, it is possible to narrow down the feature quantities of products to be collated from the positional relationship, instead of collating with the feature quantities of all the products stored in the product data and storage position storage unit 404. The product estimation after narrowing down the product candidates may be the same method as the product estimation unit 305 of the third embodiment. At this time, for example, as shown in FIG. 12, it is difficult to narrow down from the group information, and all the products stored in the product data and storage position storage unit 404 may be candidates, and tracking may be performed. An implementation that holds group information using technology may be used.

なお、商品推定部405は、CPUがプログラムを実行することにより実現されてもよい。また、商品推定部405が、ASIC又はFPGA等の集積ロジックICによりハード的に実現されていてもよい。さらに、商品推定部405が、DSP等によりソフトウェア的に実現されていてもよい。   Note that the product estimation unit 405 may be realized by the CPU executing a program. Further, the product estimation unit 405 may be realized in hardware by an integrated logic IC such as ASIC or FPGA. Furthermore, the product estimation unit 405 may be realized in software by a DSP or the like.

また、実施の形態4では、図1に示されているように、マーケティング情報収集装置400を1つの装置としているが、撮像部101とそれ以外の部分を別ユニットとして構成してもよい。例えば、マーケティング情報収集装置400は、撮像部101を備えなくてもよく、別ユニットの撮像部101から画像データを受け取るようにしてもよい。フレームメモリ103、フレームメモリ312及びフレームメモリ107は、1つのメモリとして構成してもよい。商品データ及び保管位置保存部404及びデータ記録部109を1つにまとめてもよい。さらに、商品データ及び保管位置保存部404、データ記録部109、フレームメモリ103、フレームメモリ312、フレームメモリ107を1つにまとめてもよい。さらに、動領域推定部311と動き方向算出部306を1つにまとめてもよい。   In the fourth embodiment, as shown in FIG. 1, the marketing information collection device 400 is a single device, but the imaging unit 101 and other portions may be configured as separate units. For example, the marketing information collection device 400 may not include the imaging unit 101 and may receive image data from the imaging unit 101 of another unit. The frame memory 103, the frame memory 312 and the frame memory 107 may be configured as one memory. The product data and storage position storage unit 404 and the data recording unit 109 may be combined into one. Further, the product data and storage location storage unit 404, the data recording unit 109, the frame memory 103, the frame memory 312 and the frame memory 107 may be combined into one. Furthermore, the moving region estimation unit 311 and the movement direction calculation unit 306 may be combined into one.

実施の形態4に係るマーケティング情報収集装置400は、以上のように構成されているので、商品にRFタグを貼り付けることなく、直接的に購買につながらない、商品を取り上げた、又は、戻した等のマーケティング情報を収集することができる。さらに、商品データ及び保管位置保存部404を設けたため、実施の形態3のよりも高速にマーケティング情報を収集することができる。   Since the marketing information collecting apparatus 400 according to the fourth embodiment is configured as described above, it does not directly lead to purchase without attaching an RF tag to the product, picks up or returns the product, etc. Can collect marketing information. Furthermore, since the product data and storage location storage unit 404 is provided, marketing information can be collected at a higher speed than in the third embodiment.

実施の形態5.
図16は、実施の形態5に係るマーケティング情報収集装置500の構成を概略的に示すブロック図である。
実施の形態5に係るマーケティング情報収集装置500は、撮像部101と、画像取込部102と、フレームメモリ103と、商品データ保存部104と、商品データ及び保管位置保存部504と、商品推定部505と、動き方向算出部506と、フレームメモリ107と、マーケティング情報判定部508と、データ記録部109と、動領域推定部311と、フレームメモリ312と、人物データ保存部513と、人物推定部514と、陳列動作検出部515と、陳列商品情報登録部516とを備える。
Embodiment 5. FIG.
FIG. 16 is a block diagram schematically showing a configuration of a marketing information collecting apparatus 500 according to the fifth embodiment.
The marketing information collecting apparatus 500 according to the fifth embodiment includes an imaging unit 101, an image capturing unit 102, a frame memory 103, a product data storage unit 104, product data and storage position storage unit 504, and a product estimation unit. 505, a motion direction calculation unit 506, a frame memory 107, a marketing information determination unit 508, a data recording unit 109, a motion region estimation unit 311, a frame memory 312, a person data storage unit 513, and a person estimation unit 514, a display operation detection unit 515, and a display product information registration unit 516.

実施の形態5に係るマーケティング情報収集装置500における撮像部101、画像取込部102、フレームメモリ103、商品データ保存部104及びデータ記録部109は、実施の形態1に係るマーケティング情報収集装置100と同様に構成されている。
実施の形態5に係る動領域推定部311及びフレームメモリ312は、実施の形態3に係るマーケティング情報収集装置300と同様に構成されている。
以下では、実施の形態1又は実施の形態3とは異なる商品データ及び保管位置保存部504、商品推定部505、動き方向算出部506、マーケティング情報判定部508、人物データ保存部513、人物推定部514、陳列動作検出部515及び陳列商品情報登録部516について説明する。
なお、画像取込部102は、フレームメモリ103から画像データを読み出し、商品推定部505、動領域推定部311及び人物推定部514に画像データを供給する。動領域推定部311は、動領域情報を商品推定部505及び動き方向算出部506に供給する。
The imaging unit 101, the image capture unit 102, the frame memory 103, the product data storage unit 104, and the data recording unit 109 in the marketing information collection device 500 according to the fifth embodiment are the same as the marketing information collection device 100 according to the first embodiment. It is constituted similarly.
The moving region estimation unit 311 and the frame memory 312 according to the fifth embodiment are configured in the same manner as the marketing information collection device 300 according to the third embodiment.
In the following, product data and storage position storage unit 504, product estimation unit 505, motion direction calculation unit 506, marketing information determination unit 508, person data storage unit 513, and person estimation unit, which are different from those in the first or third embodiment. The display operation detection unit 515 and the display product information registration unit 516 will be described.
The image capturing unit 102 reads image data from the frame memory 103 and supplies the image data to the product estimation unit 505, the moving region estimation unit 311, and the person estimation unit 514. The moving area estimation unit 311 supplies the moving area information to the product estimation unit 505 and the movement direction calculation unit 506.

実施の形態5に係るマーケティング情報収集装置500は、陳列商品情報を登録する機能と、マーティング情報を生成する機能とを備える。
なお、実施の形態5に係る情報処理方法は、実施の形態5に係るマーケティング情報収集装置500により実行される方法である。
The marketing information collection device 500 according to Embodiment 5 has a function of registering display merchandise information and a function of generating marketing information.
Note that the information processing method according to the fifth embodiment is a method executed by the marketing information collecting apparatus 500 according to the fifth embodiment.

まず、実施の形態5に係るマーケティング情報収集装置500の機能のうち、陳列商品情報を登録する機能に関する構成を説明する。   First, the structure regarding the function which registers display merchandise information among the functions of the marketing information collection apparatus 500 which concerns on Embodiment 5 is demonstrated.

商品推定部505は、動領域推定部311で特定された領域に含まれている商品の商品名を特定する商品特定部である。具体的には、商品推定部505は、動領域推定部311から動領域情報を受け取り、実施の形態3における商品推定部305と同様の方法で、商品名を推定する。商品推定部505は、推定結果に応じて、商品情報、商品領域の情報及び現フレームの画像データを陳列商品情報登録部516に供給する。   The product estimation unit 505 is a product specification unit that specifies the product name of the product included in the area specified by the dynamic region estimation unit 311. Specifically, product estimation section 505 receives the motion area information from motion area estimation section 311 and estimates the product name by the same method as product estimation section 305 in the third embodiment. The product estimation unit 505 supplies product information, product region information, and image data of the current frame to the display product information registration unit 516 in accordance with the estimation result.

動き方向算出部506は、動領域推定部311で特定された領域から、この領域に含まれている商品の動き方向を特定する動き方向特定部である。動き方向算出部506は、実施の形態3と同様に、動領域情報で示される、商品領域の縦幅及び横幅、並びに、座標位置と、現フレーム画像データと、過去フレーム画像データとから、商品の動きベクトルを算出する。そして、動き方向算出部506は、動きベクトルと、動領域情報と、現フレーム画像データとをマーケティング情報判定部508及び陳列動作検出部515に供給する。   The movement direction calculation unit 506 is a movement direction identification unit that identifies the movement direction of the product included in this area from the area specified by the movement area estimation unit 311. Similar to the third embodiment, the movement direction calculation unit 506 calculates the product from the vertical and horizontal widths of the product area, the coordinate position, the current frame image data, and the past frame image data indicated by the motion area information. The motion vector of is calculated. Then, the motion direction calculation unit 506 supplies the motion vector, the motion area information, and the current frame image data to the marketing information determination unit 508 and the display motion detection unit 515.

人物データ保存部513は、画像データから店員等の店舗関係者を検出するために必要な情報を記憶する人物データ記憶部である。例えば、人物データ保存部513には、店舗関係者が着用する制服のテクスチャ特徴量が保存されている。一般に、コンビニエンスストア等の店舗では、特定の制服を着用する場合が多いため、これらの特徴量を利用して客か店舗関係者かを推定することが可能である。   The person data storage unit 513 is a person data storage unit that stores information necessary for detecting a store-related person such as a store clerk from image data. For example, the person data storage unit 513 stores a texture feature amount of a uniform worn by store personnel. In general, since a store such as a convenience store often wears a specific uniform, it is possible to estimate whether it is a customer or a store-related person using these feature quantities.

人物推定部514は、撮像部101で撮像された画像に含まれている店員等の店舗関係者の存否を判断する人物判断部である。例えば、人物推定部514は、撮像部101で順次撮像された画像に含まれている店舗関係者の画像における位置を順次特定する。
具体的には、人物推定部514は、画像取込部102から現フレームの画像データを受け取り、受け取った画像データの画像内の店舗関係者を検出する。例えば、人物推定部514は、人物認識技術を使用して、画像データ内の特徴量を算出する。そして、人物推定部514は、算出された特徴量と、人物データ保存部513に保存されている特徴量との類似度を算出し、類似度が予め定められた閾値を超える場合、店舗関係者であると判断する。人物推定部514の詳細は後述する。
The person estimation unit 514 is a person determination unit that determines whether or not there is a store related person such as a store clerk included in the image captured by the image capturing unit 101. For example, the person estimation unit 514 sequentially specifies the positions in the store-related person images included in the images sequentially captured by the imaging unit 101.
Specifically, the person estimation unit 514 receives the image data of the current frame from the image capturing unit 102, and detects a store related person in the image of the received image data. For example, the person estimation unit 514 calculates a feature amount in the image data using a person recognition technique. Then, the person estimation unit 514 calculates the similarity between the calculated feature quantity and the feature quantity stored in the person data storage unit 513, and if the similarity exceeds a predetermined threshold, the person related to the store It is judged that. Details of the person estimation unit 514 will be described later.

陳列動作検出部515は、人物推定部514で検出された店舗関係者によって商品を商品棚に陳列する動作を検出する。具体的には、陳列動作検出部515は、動き方向算出部506から与えられる動きベクトル情報に基づいて、商品が商品棚に置かれたか否かを判定する。そして、陳列動作検出部515は、陳列動作が行われたと判定した場合、陳列位置情報及び現フレーム画像データを陳列商品情報登録部516に供給する。陳列位置情報は、撮像部101で撮像された画像における座標情報(x,y)で表わされる。ここで、動き方向算出部506からの動きベクトル情報に基づく、陳列動作検出の詳細については後述する。   The display operation detection unit 515 detects an operation of displaying a product on a product shelf by a store related person detected by the person estimation unit 514. Specifically, the display motion detection unit 515 determines whether or not the product is placed on the product shelf based on the motion vector information given from the motion direction calculation unit 506. When the display operation detection unit 515 determines that the display operation has been performed, the display operation detection unit 515 supplies the display position information and the current frame image data to the display product information registration unit 516. The display position information is represented by coordinate information (x, y) in an image captured by the imaging unit 101. Here, the details of the display motion detection based on the motion vector information from the motion direction calculation unit 506 will be described later.

陳列商品情報登録部516は、陳列動作検出部515が店舗関係者による陳列動作を検出すると、商品推定部505から与えられる商品情報及び陳列動作検出部515から与えられる陳列位置情報に基づいて、どの商品が商品棚のどの位置に陳列されたかを示す陳列商品情報を生成して、商品データ及び保管位置保存部504に記憶する。
具体的には、陳列商品情報登録部516は、陳列動作検出部515から陳列位置情報及び商品情報を受け取る。陳列商品情報登録部516は、これらの情報から商品名、商品の陳列位置、現フレーム画像データから抽出された商品の部分画像データからなる陳列商品情報を生成して、商品データ及び保管位置保存部504に記憶する。
When the display operation detection unit 515 detects a display operation by a store-related person, the display product information registration unit 516 determines which display information is provided based on the product information provided from the product estimation unit 505 and the display position information provided from the display operation detection unit 515. Displayed product information indicating where the product is displayed on the product shelf is generated and stored in the product data and storage position storage unit 504.
Specifically, the display product information registration unit 516 receives display position information and product information from the display operation detection unit 515. The display product information registration unit 516 generates display product information including the product name, the display position of the product, and the partial image data of the product extracted from the current frame image data, and stores the product data and storage position storage unit. Store in 504.

商品データ及び保管位置保存部504は、実施の形態4における商品データ及び保管位置保存部404と同様に、商品推定部505で商品の推定を行う際に必要となる、商品の特徴量を記憶するとともに、商品の保管位置(陳列位置)を示す保管位置情報を記憶する商品データ記憶部である。
なお、商品データ保存部104を第1の商品データ記憶部といい、商品データ及び保管位置保存部504を第2の商品データ記憶部ともいう。
The product data and storage position storage unit 504 stores the feature amount of the product required when the product estimation unit 505 estimates the product, similarly to the product data and storage position storage unit 404 in the fourth embodiment. The product data storage unit stores storage position information indicating the storage position (display position) of the product.
The product data storage unit 104 is referred to as a first product data storage unit, and the product data and storage position storage unit 504 is also referred to as a second product data storage unit.

以上のように構成されるマーケティング情報収集装置500の陳列商品情報を登録する機能における動作の詳細について説明する。   Details of the operation in the function of registering the display merchandise information of the marketing information collecting apparatus 500 configured as described above will be described.

人物推定部514は、スライディングウィンドウ方式を用いて、現フレームの画像データに含まれる店員等の店舗関係者を推定する。スライディングウィンドウ方式は、先述の実施の形態1における商品推定部105での方法と同じであるため、説明は省略する。人物推定部514は、スライディングウィンドウ毎に特徴量を算出して人物を検出し、その後、人物データ保存部513に保存されている店舗関係者の特徴量との類似度を計算し、類似度が予め定められた閾値を超える場合、店舗関係者であると判断する。この人物検出の方法は、例えば、非特許文献2に開示されている人物検出方法と非特許文献1に開示されている一般物体認識の方法とを組み合わせる等により実現できる。   The person estimation unit 514 estimates a store-related person such as a salesclerk included in the image data of the current frame using a sliding window method. Since the sliding window method is the same as the method in the product estimation unit 105 in the first embodiment, the description is omitted. The person estimation unit 514 calculates a feature amount for each sliding window to detect a person, and then calculates a similarity with the feature amount of the store-related person stored in the person data storage unit 513. When it exceeds a predetermined threshold, it is determined that the person is a store related person. This person detection method can be realized, for example, by combining the person detection method disclosed in Non-Patent Document 2 and the general object recognition method disclosed in Non-Patent Document 1.

ここでは、非特許文献2に開示されている人物検出方法について、簡単に概要を述べる。例えば、顔検出をベースとした方法がある。これは目又は口等の輝度分布又は位置関係等から、顔か顔以外かを判定するルールベースの方法である。また、近年は統計的学習手法による人物検出方法が主流となっており、この方法を採用することも可能である。これは、人物か人物ではないかを識別するための識別器を学習する学習フェーズと、この識別器を利用して人物を検出する検出フェーズの2つからなる。学習フェーズでは膨大な人物画像とそれ以外の画像とを準備し、それぞれに含まれる局所的な輝度勾配情報又は色情報を統計的に学習する。検出フェーズでは、問い合わせ画像に対してスライディングウィンドウを設定し、スライディングウィンドウ毎に局所的な輝度情報又は色情報を抽出し、学習データとの比較を行うことで、人物か人物ではないかを識別する。   Here, the outline of the person detection method disclosed in Non-Patent Document 2 will be briefly described. For example, there is a method based on face detection. This is a rule-based method for determining whether the face is a face or a face other than the face from the luminance distribution or positional relationship of the eyes or mouth. In recent years, a person detection method using a statistical learning method has become mainstream, and this method can also be adopted. This consists of two phases: a learning phase in which a discriminator for identifying whether a person is a person or not and a detection phase in which a person is detected using the discriminator. In the learning phase, a large number of human images and other images are prepared, and local luminance gradient information or color information included in each of them is statistically learned. In the detection phase, a sliding window is set for the query image, local luminance information or color information is extracted for each sliding window, and compared with learning data to identify a person or not a person. .

一般物体認識方法については、先述の実施の形態1における商品推定部105での方法と同じであるため、説明を省略する。最終的に、人物推定部514は、店舗関係者を検出した場合、スライディングウィンドウにおける矩形領域Rectの左端位置(x,y)と、矩形サイズ(w,h)とを陳列動作検出部515に供給する。 The general object recognition method is the same as the method in the product estimation unit 105 in the above-described first embodiment, and a description thereof will be omitted. Finally, when a person related to the store is detected, the person estimation unit 514 displays the left end position (x c , y c ) of the rectangular area Rect c in the sliding window and the rectangular size (w c , h c ). It supplies to the detection part 515.

次に、陳列動作検出部515での陳列動作の検出について述べる。ここで、陳列動作検出部515は、人物推定部514によって画像データに店舗関係者が含まれると判断され、人物推定部514から矩形領域Rectの左端位置(x,y)と、矩形サイズ(w,h)とが送られてきた時にのみ動作する。陳列動作検出部515は、人物推定部514から与えられる人物領域を示す矩形領域Rectの左端位置(x,y)と、矩形サイズ(w,h)、並びに、動き方向算出部506から与えられるベクトル情報で示される動きベクトル(v ,v )、及び座標位置(x’,y’)に基づいて、店舗関係者によって商品が陳列されたかを判定する。 Next, detection of display operation in the display operation detection unit 515 will be described. Here, the display motion detection unit 515 determines that the person related to the store is included in the image data by the person estimation unit 514, and the left end position (x c , y c ) of the rectangular area Rect c from the person estimation unit 514 and the rectangle It works only when the size (w c , h c ) is sent. The display motion detection unit 515 includes a left end position (x c , y c ) of the rectangular area Rect c indicating the person area given from the person estimation unit 514, a rectangular size (w c , h c ), and a motion direction calculation unit Based on the motion vector (v c x , v c y ) indicated by the vector information given from 506 and the coordinate position (x ′ c , y ′ c ), it is determined whether or not the merchandise has been displayed by the store personnel.

例えば、図1のような配置において、図5に示されているように、店舗関係者5に対して、商品棚1が現フレーム画像データの画像Im3において上部に配置されている場合は、動きベクトルVのy成分v が下記の(15)式を満たす場合に、陳列動作検出部515は、商品を陳列したと判定する。

Figure 2016201105
同様に、店舗関係者5と商品棚1が、図5とは異なる配置の場合でも、陳列動作検出部515は、動きベクトルVの傾きにより動きを判定することができる。 For example, in the arrangement as shown in FIG. 1, as shown in FIG. 5, when the product shelf 1 is arranged at the upper part in the image Im <b> 3 of the current frame image data, When the y component v c y of the vector V satisfies the following expression (15), the display operation detection unit 515 determines that the product has been displayed.
Figure 2016201105
Similarly, even when the store-related person 5 and the merchandise shelf 1 are arranged differently from those in FIG. 5, the display operation detection unit 515 can determine the movement based on the inclination of the motion vector V.

但し、陳列動作検出部515は、人物推定部514から受信した人物の矩形領域Rectの左端位置(x,y)と、動き方向算出部506から受信した座標位置(x’,y’)との距離disthcが下記の(16)式を満たす場合にのみ商品を陳列したと判定する。

Figure 2016201105
この処理は、動き方向算出部506で算出された商品の動きが、店舗関係者5の動作によるものであることを担保するものである。店舗関係者5と座標が大きく異なるところで商品が動いていた場合、店舗関係者5による陳列動作ではないと考えられるため、(16)式によってその判定が行われる。 However, the display motion detection unit 515 receives the left end position (x c , y c ) of the rectangular area Rect c of the person received from the person estimation unit 514 and the coordinate position (x ′ c , y received from the movement direction calculation unit 506). It is determined that the product is displayed only when the distance dist hc to ' c ) satisfies the following expression (16).
Figure 2016201105
This process guarantees that the movement of the product calculated by the movement direction calculation unit 506 is due to the operation of the store-related person 5. If the product is moving in a place where the coordinates are significantly different from the store-related person 5, it is considered that it is not a display operation by the store-related person 5, and therefore the determination is made by equation (16).

次に、実施の形態5に係るマーケティング情報収集装置500の機能のうち、マーケティング情報を生成する機能に関する構成を説明する。   Next, the structure regarding the function which produces | generates marketing information among the functions of the marketing information collection apparatus 500 which concerns on Embodiment 5 is demonstrated.

商品推定部505は、撮像部101で撮像された画像に含まれている商品を特定する商品特定部である。具体的には、商品推定部505は、一般物体認識技術を使用して、画像データ内の商品領域の特徴量を算出し、その特徴量と、商品データ及び保管位置保存部504に記憶されている商品の特徴量との類似度に基づいて、商品を推定するが、実施の形態4と同様に、商品の保管位置(陳列位置)に基づいて、類似度を求める商品の特徴量を絞り込む。   The product estimation unit 505 is a product specifying unit that specifies a product included in the image captured by the imaging unit 101. Specifically, the product estimation unit 505 calculates the feature amount of the product area in the image data using the general object recognition technology, and stores the feature amount and the product data and storage position storage unit 504. The product is estimated based on the similarity with the feature amount of the product being sold, but the feature amount of the product for which the similarity is determined is narrowed down based on the storage position (display position) of the product as in the fourth embodiment.

人物推定部514は、撮像部101で撮像された画像に含まれている客を検出する人物検出部である。例えば、人物推定部514は、撮像部101で順次撮像された画像に含まれている客の画像における位置を順次特定する。例えば、人物推定部514は、上述のように、店舗関係者を検出し、店舗関係者以外の人物を客として検出すればよい。
ここで、人物推定部514は、客を検出した場合には、客を検出したことを示す客検出情報をマーケティング情報判定部508に供給する。なお、人物推定部514は、客を検出しなくなった場合には、客検出情報の供給を停止する。
The person estimation unit 514 is a person detection unit that detects a customer included in the image captured by the imaging unit 101. For example, the person estimation unit 514 sequentially specifies the position in the customer image included in the images sequentially captured by the imaging unit 101. For example, as described above, the person estimation unit 514 may detect a store related person and detect a person other than the store related person as a customer.
Here, when the person estimation unit 514 detects a customer, the person estimation unit 514 supplies customer detection information indicating that the customer has been detected to the marketing information determination unit 508. In addition, the person estimation part 514 stops supply of customer detection information, when a customer is no longer detected.

マーケティング情報判定部508は、実施の形態3と同様に、マーケティング情報を生成する。但し、マーケティング情報判定部508は、人物推定部514から客検出情報が供給されている間だけ、マーケティング情報をデータ記録部109に記録させる。   The marketing information determination unit 508 generates marketing information as in the third embodiment. However, the marketing information determination unit 508 records the marketing information in the data recording unit 109 only while the customer detection information is supplied from the person estimation unit 514.

以上のように構成されるマーケティング情報収集装置500の陳列商品情報生成部500aにおける画像取込部102、商品推定部505、動き方向算出部506、マーケティング情報判定部508、動領域推定部311、人物推定部514、陳列動作検出部515及び陳列商品情報登録部516は、CPUが、メモリ又はHDD等の外部記憶装置に記憶されているプログラムを実行することで実現することができる。但し、これらは、コンピュータシステム上にソフトウェア的に実現されるものに限定されない。例えば、これらの全部又は一部が、ASIC又はFPGA等の集積ロジックICによりハード的に実現されていてもよい。また、これらの一部又は全部が、DSP等によりソフトウェア的に実現されていてもよい。あるいは、特定の用途に特化した構成要素を、コンピュータシステムに搭載された拡張ボード等のハードウェアで実現し、その他の汎用的な構成要素をコンピュータシステム上でソフトウェア的に実現するようにしてもよい。   The image capturing unit 102, the product estimation unit 505, the motion direction calculation unit 506, the marketing information determination unit 508, the motion region estimation unit 311 and the person in the display product information generation unit 500a of the marketing information collection device 500 configured as described above. The estimation unit 514, the display operation detection unit 515, and the display product information registration unit 516 can be realized by the CPU executing a program stored in an external storage device such as a memory or an HDD. However, these are not limited to those realized as software on a computer system. For example, all or a part of these may be realized in hardware by an integrated logic IC such as ASIC or FPGA. Also, some or all of these may be realized in software by a DSP or the like. Alternatively, a component specialized for a specific application may be realized by hardware such as an expansion board mounted on the computer system, and other general-purpose components may be realized by software on the computer system. Good.

また、実施の形態5では、図16に示されているように、マーケティング情報収集装置500を1つの装置としているが、撮像部101とそれ以外の部分を別ユニットとして構成してもよい。例えば、マーケティング情報収集装置500は、撮像部101を備えなくてもよく、別ユニットの撮像部101から画像データを受け取るようにしてもよい。また、フレームメモリ103、フレームメモリ107及びフレームメモリ312は、1つのメモリとして構成してもよい。人物データ保存部513及び商品データ保存部104並びに商品データ及び保管位置保存部504を1つにまとめてもよいし、前述のフレームメモリ103、フレームメモリ107及びフレームメモリ312とまとめてもよい。   In the fifth embodiment, as shown in FIG. 16, the marketing information collection device 500 is a single device, but the imaging unit 101 and other portions may be configured as separate units. For example, the marketing information collection apparatus 500 may not include the imaging unit 101 and may receive image data from the imaging unit 101 of another unit. Further, the frame memory 103, the frame memory 107, and the frame memory 312 may be configured as one memory. The person data storage unit 513, the product data storage unit 104, and the product data and storage position storage unit 504 may be combined into one, or may be combined with the frame memory 103, the frame memory 107, and the frame memory 312 described above.

実施の形態5に係るマーケティング情報収集装置500は、以上のように構成されているので、商品にRFタグを貼り付けることなく、直接的に購買につながらない、商品を取り上げた又は戻した等のマーケティング情報を収集することができる。さらに、商品データ及び保管位置保存部504に対し、陳列商品のデータを自動で登録することが可能なため、実施の形態4よりも店舗関係者の負荷を要することなく、マーケティング情報を収集することができる。   Since the marketing information collecting apparatus 500 according to the fifth embodiment is configured as described above, marketing such as picking up or returning a product that does not directly lead to purchase without attaching an RF tag to the product. Information can be collected. Furthermore, since it is possible to automatically register display product data in the product data and storage location storage unit 504, it is possible to collect marketing information without requiring a burden on the store in comparison with the fourth embodiment. Can do.

実施の形態6.
図17は、実施の形態6に係るマーケティング情報収集装置600の構成を概略的に示すブロック図である。
実施の形態6に係るマーケティング情報収集装置600は、撮像部101と、画像取込部102と、フレームメモリ103と、商品データ及び属性データ保存部604と、商品推定部605と、動き方向算出部306と、フレームメモリ107と、マーケティング情報判定部308と、データ記録部109と、動領域推定部311と、フレームメモリ312と、属性判定部617とを備える。なお、実施の形態6に係る情報処理方法は、実施の形態6に係るマーケティング情報収集装置600により実行される方法である。
実施の形態6に係るマーケティング情報収集装置600は、商品データ及び属性データ保存部604、商品推定部605、及び、属性判定部617を除いて、実施の形態3に係るマーケティング情報収集装置300と同様に構成されている。以下では、主に、実施の形態3とは異なる商品データ及び属性データ保存部604、商品推定部605、及び、属性判定部617について説明する。なお、画像取込部102は、フレームメモリ103から画像データを読み出し、商品推定部605及び動領域推定部311に画像データを供給する。また、動領域推定部311は、動領域情報と、動領域情報で示される閾値外接矩形の画像データとを属性判定部617に供給する。
Embodiment 6 FIG.
FIG. 17 is a block diagram schematically showing a configuration of a marketing information collecting apparatus 600 according to the sixth embodiment.
The marketing information collection device 600 according to the sixth embodiment includes an imaging unit 101, an image capture unit 102, a frame memory 103, product data and attribute data storage unit 604, a product estimation unit 605, and a motion direction calculation unit. 306, a frame memory 107, a marketing information determination unit 308, a data recording unit 109, a moving region estimation unit 311, a frame memory 312, and an attribute determination unit 617. The information processing method according to the sixth embodiment is a method executed by the marketing information collection device 600 according to the sixth embodiment.
The marketing information collection device 600 according to the sixth embodiment is the same as the marketing information collection device 300 according to the third embodiment, except for the product data and attribute data storage unit 604, the product estimation unit 605, and the attribute determination unit 617. It is configured. Hereinafter, product data and attribute data storage unit 604, product estimation unit 605, and attribute determination unit 617, which are different from those in the third embodiment, will be mainly described. The image capturing unit 102 reads image data from the frame memory 103 and supplies the image data to the product estimation unit 605 and the moving region estimation unit 311. In addition, the moving region estimation unit 311 supplies the moving region information and the image data of the threshold circumscribed rectangle indicated by the moving region information to the attribute determination unit 617.

属性判定部617は、動領域推定部311で特定された領域から、当該領域に含まれている商品の属性を判定する。
具体的には、属性判定部617は、動領域情報及び動領域情報で示される閾値外接矩形の画像データを動領域推定部311から渡され、閾値外接矩形の画像データに含まれている商品の属性を判定する。ここで、商品の属性は、例えば、商品の形状又は色等の、画像に現れる商品の特徴である。属性判定部617について具体的に述べる。
The attribute determination unit 617 determines the attribute of the product included in the region from the region specified by the moving region estimation unit 311.
Specifically, the attribute determination unit 617 receives the moving area information and the image data of the threshold circumscribed rectangle indicated by the moving area information from the moving area estimation unit 311, and stores the product included in the image data of the threshold circumscribed rectangle. Determine the attribute. Here, the attribute of the product is a feature of the product that appears in the image, such as the shape or color of the product. The attribute determination unit 617 will be specifically described.

図18は、属性判定部617の処理の流れを示すフローチャートである。   FIG. 18 is a flowchart showing the flow of processing of the attribute determination unit 617.

まず、属性判定部617は、動領域推定部311から与えられた動領域情報で示される閾値外接矩形の画象データに含まれている商品の形状における属性を特定する(S40)。例えば、属性判定部617は、閾値外接矩形の縦横比に基づいて、その外形を、縦長、横長又は正方形の3種類に分類する。閾値外接矩形が座標(x,y)及びサイズ(w,h)であるとすると、縦横比Aspectは、下記の(17)式で求められる。

Figure 2016201105
First, the attribute determination unit 617 identifies an attribute in the shape of the product included in the image data of the threshold circumscribed rectangle indicated by the moving region information given from the moving region estimation unit 311 (S40). For example, the attribute determination unit 617 classifies the outer shape into three types of portrait, landscape, and square based on the aspect ratio of the threshold circumscribed rectangle. Assuming that the threshold circumscribed rectangle has coordinates (x c , y c ) and size (w c , h c ), the aspect ratio Aspect can be obtained by the following equation (17).
Figure 2016201105

また、縦長、横長又は正方形の判定は、下記の(18)式に従う。

Figure 2016201105
ここで、Raspectは、商品の形状の判定結果(形状属性)である。Dthinは、1よりも小さい閾値であり、Dwideは、1よりも大きい閾値である。これらの閾値は、商品の傾き又は撮像部101の傾きによる商品の形状変化に対する頑健性を担保するものである。 In addition, the determination of vertically long, horizontally long, or square follows the following equation (18).
Figure 2016201105
Here, R aspect is a determination result (shape attribute) of the shape of the product. D thin is a threshold value smaller than 1, and D wide is a threshold value larger than 1. These threshold values ensure robustness against changes in the shape of the product due to the product tilt or the tilt of the imaging unit 101.

次に、属性判定部617は、動領域推定部311から与えられた閾値外接矩形の画像データに含まれている商品の色における属性を特定する(S41)。例えば、属性判定部617は、閾値外接矩形の画像データの色成分により、商品の色を分類する。閾値外接矩形の画像データは、RGB形式であるとする。属性判定部617は、下記の(19)〜(21)式に従い、閾値外接矩形のR、G、B値の平均値を求める。

Figure 2016201105
Figure 2016201105
Figure 2016201105
Next, the attribute determination unit 617 identifies an attribute in the color of the product included in the image data of the threshold circumscribed rectangle given from the moving region estimation unit 311 (S41). For example, the attribute determination unit 617 classifies the product color based on the color component of the threshold circumscribed rectangle image data. The image data of the threshold circumscribed rectangle is assumed to be in RGB format. The attribute determination unit 617 calculates an average value of R, G, and B values of the threshold circumscribed rectangle according to the following equations (19) to (21).
Figure 2016201105
Figure 2016201105
Figure 2016201105

次に、属性判定部617は、Rave、Gave及びBaveを大きい順に並べ替える。ここでは、説明の便宜上、Rave>Gave>Baveであるものとする。
そして、最大値(ここでは、Rave)と、2番目に大きな値(ここでは、Gave)が、下記の(22)式を満たす場合には、属性判定部617は、この画像データに含まれる商品の色が、最大値の色に含まれる商品(ここでは、赤系の商品)であると判断する。

Figure 2016201105
但し、Dcolorは、0よりも大きい閾値である。 Next, the attribute determination unit 617 rearranges R ave , G ave, and B ave in descending order. Here, for convenience of explanation, it is assumed that R ave > G ave > B ave .
When the maximum value (here, R ave ) and the second largest value (here, G ave ) satisfy the following expression (22), the attribute determination unit 617 includes the image data. The product color is determined to be a product (here, a red product) included in the maximum color.
Figure 2016201105
However, Dcolor is a threshold value greater than zero.

以上のように、属性判定部617は、最大値と2番目の値の差が閾値Dcolorより大きい場合に最大値の色を候補色とする。一方、この式を満たさない場合は、属性判定部617は、支配色なしとする。この閾値Dcolorは、店舗の光源の色、太陽光又は撮像部101の色補正等の影響に対する頑健性を担保するものである。
また、この色の候補は、商品の色の判定結果(色属性)であり、Rcolorと表記する。以下では便宜上、Rcolorは、1、2、3又は4の値をとり、Rcolor=1のときは、赤系の商品、Rcolor=2のときは、青系の商品、Rcolor=3のときは、緑系の商品、及び、Rcolor=4のときは、支配色なしの商品とする。
As described above, the attribute determination unit 617 determines the color of the maximum value as a candidate color when the difference between the maximum value and the second value is larger than the threshold value Dcolor . On the other hand, when this expression is not satisfied, the attribute determination unit 617 determines that there is no dominant color. This threshold value D color guarantees robustness against influences such as the color of the light source of the store, sunlight, or color correction of the imaging unit 101.
Further, this color candidate is a determination result (color attribute) of the color of the product, and is denoted as R color . In the following, for convenience, R color takes a value of 1, 2, 3, or 4. When R color = 1, a red product, when R color = 2, a blue product, R color = 3 In this case, the product is a green product, and when R color = 4, the product has no dominant color.

そして、属性判定部617は、Raspect及びRcolorを判定属性情報として商品推定部605に供給する。
なお、ステップS40及びS41の順番は、便宜上、図18のようにしているが、逆であってもよく、さらに並列処理であってもよい。
Then, the attribute determination unit 617 supplies R aspect and R color to the product estimation unit 605 as determination attribute information.
Note that the order of steps S40 and S41 is as shown in FIG. 18 for the sake of convenience, but may be reversed, and may be parallel processing.

図17に戻り、商品データ及び属性データ保存部604は、実施の形態1における商品データ保存部104と同様に、商品推定部605で商品の推定を行う際に必要となる、商品の特徴量を記憶するとともに、商品の属性を示す属性データを記憶する商品データ記憶部である。属性データは、各々の商品について、上述の方法で算出された形状属性R’aspect及び色属性R’colorを示すデータである。 Returning to FIG. 17, the product data and attribute data storage unit 604 stores the feature amount of the product that is required when the product estimation unit 605 estimates the product, similarly to the product data storage unit 104 in the first embodiment. A product data storage unit that stores attribute data indicating product attributes. The attribute data is data indicating the shape attribute R ′ aspect and the color attribute R ′ color calculated by the above-described method for each product.

商品推定部605は、動領域推定部311から渡される動領域情報及び閾値外接矩形の画像データと、属性判定部617から渡される判定属性情報とを受け取り、閾値外接矩形に含まれる商品を推定する。例えば、以下のようにして、商品推定部605は、商品の推定を行う。   The product estimation unit 605 receives the motion area information and the threshold circumscribing rectangle image data passed from the motion region estimation unit 311 and the determination attribute information passed from the attribute determination unit 617, and estimates a product included in the threshold circumscribing rectangle. . For example, the product estimation unit 605 performs product estimation as follows.

図19は、商品推定部605の推定処理を示すフローチャートである。
まず、商品推定部605は、属性判定部617から与えられた判定属性情報で示される形状属性Raspectを用いて、商品データ及び属性データ保存部604に保存されている形状属性R’aspectをフィルタすることにより、商品の候補を絞る(S50)。言い換えると、Raspect=R’aspectを満たす商品を候補として絞る。
FIG. 19 is a flowchart showing the estimation process of the product estimation unit 605.
First, the product estimation unit 605 filters the shape attribute R ′ aspect stored in the product data and attribute data storage unit 604 using the shape attribute R aspect indicated by the determination attribute information given from the attribute determination unit 617. By doing so, the candidates for the products are narrowed down (S50). In other words, products satisfying R aspect = R ′ aspect are narrowed down as candidates.

次に、商品推定部605は、属性判定部617から与えられた判定属性情報で示される色属性Rcolorを用いて、商品データ及び属性データ保存部604に保存されている色属性R’colorをフィルタすることにより、商品の候補を絞る(S51)。言い換えると、Rcolor=R’colorを満たす商品を候補として絞る。但し、属性判定部617から渡された色属性が、Rcolor=4、即ち、色属性なしである場合には、R’color=4で絞り込んでもよいが、ステップS51における色属性による絞込をキャンセルしてもよい。 Next, the product estimation unit 605 uses the color attribute R color indicated by the determination attribute information given from the attribute determination unit 617 to obtain the color attribute R ′ color stored in the product data and attribute data storage unit 604. The product candidates are narrowed down by filtering (S51). In other words, products satisfying R color = R ′ color are narrowed down as candidates. However, when the color attribute passed from the attribute determination unit 617 is R color = 4, that is, there is no color attribute, the color attribute may be narrowed down by R ′ color = 4, but the narrowing by the color attribute in step S51 may be performed. You may cancel.

そして、商品推定部605は、ステップS50及びS51で絞りこまれた商品の候補について、実施の形態3の商品推定部305と同様な方法で商品名を推定する(S52)。
なお、ステップS50及びステップS51は、順番を入れ替えても良いし、どちらか一方が行われてもよい。
Then, the product estimation unit 605 estimates the product names for the product candidates narrowed down in steps S50 and S51 by the same method as the product estimation unit 305 of the third embodiment (S52).
Note that the order of step S50 and step S51 may be interchanged, or either one may be performed.

また、実施の形態6では、図1に示されているように、マーケティング情報収集装置600を1つの装置としているが、撮像部101とそれ以外の部分を別ユニットとしてもよい。例えば、マーケティング情報収集装置600は、撮像部101を備えなくてもよく、別ユニットの撮像部101から画像データを受け取るようにしてもよい。フレームメモリ103、フレームメモリ312及びフレームメモリ107は、1つのメモリとして構成してもよい。商品データ及び属性データ保存部604、及び、データ記録部109を1つにまとめてもよい。商品データ及び属性データ保存部604、データ記録部109、フレームメモリ312、フレームメモリ107をまとめてもよい。さらに、動領域推定部311と動き方向算出部306を1つにまとめてもよい。
さらに、実施の形態4における商品データ及び保管位置保存部404と商品推定部405とによる、商品の保存位置による絞込みの機能を、商品データ及び属性データ保存部604と、商品推定部605とに追加してもよい。
In the sixth embodiment, as shown in FIG. 1, the marketing information collection device 600 is a single device, but the imaging unit 101 and other portions may be separate units. For example, the marketing information collection device 600 may not include the imaging unit 101 and may receive image data from the imaging unit 101 of another unit. The frame memory 103, the frame memory 312 and the frame memory 107 may be configured as one memory. The product data / attribute data storage unit 604 and the data recording unit 109 may be combined into one. The product data and attribute data storage unit 604, the data recording unit 109, the frame memory 312, and the frame memory 107 may be combined. Furthermore, the moving region estimation unit 311 and the movement direction calculation unit 306 may be combined into one.
Further, the function of narrowing down the product storage position by the product data and storage position storage unit 404 and the product estimation unit 405 in the fourth embodiment is added to the product data and attribute data storage unit 604 and the product estimation unit 605. May be.

なお、商品推定部605及び属性判定部617は、CPUがプログラムを実行することにより実現されてもよい。また、これらの一部又は全部が、ASIC又はFPGA等の集積ロジックICによりハード的に実現されていてもよい。さらに、これらの一部又は全部が、DSP等によりソフトウェア的に実現されていてもよい。   The product estimation unit 605 and the attribute determination unit 617 may be realized by the CPU executing a program. Also, some or all of these may be implemented in hardware by an integrated logic IC such as an ASIC or FPGA. Furthermore, some or all of these may be implemented by software such as a DSP.

実施の形態6に係るマーケティング情報収集装置600は、以上のように構成されているので、商品にRFタグを貼り付けることなく、直接的に購買につながらない、商品を取り上げたもしくは戻した等のマーケティング情報を収集することができる。さらに、商品データ及び属性データ保存部604を設けたため実施の形態3のよりも高速にマーケティング情報を収集できる。   Since the marketing information collecting apparatus 600 according to the sixth embodiment is configured as described above, marketing such as picking up or returning a product that does not directly lead to purchase without attaching an RF tag to the product. Information can be collected. Furthermore, since the product data and attribute data storage unit 604 is provided, marketing information can be collected at a higher speed than in the third embodiment.

実施の形態7.
図20は、実施の形態7に係るマーケティング情報収集装置700の構成を概略的に示すブロック図である。
実施の形態7に係るマーケティング情報収集装置700は、撮像部101と、画像取込部102と、フレームメモリ103と、商品データ保存部104と、商品推定部105と、動き方向算出部106と、フレームメモリ107と、マーケティング情報判定及び配信部708と、データ記録部109とを備える。なお、実施の形態7に係る情報処理方法は、実施の形態7に係るマーケティング情報収集装置700により実行される方法である。
実施の形態7に係るマーケティング情報収集装置700は、マーケティング情報判定及び配信部708を除いて、実施の形態1に係るマーケティング情報収集装置100と同様に構成されている。以下では、主に、実施の形態1とは異なるマーケティング情報判定及び配信部708について説明する。
Embodiment 7 FIG.
FIG. 20 is a block diagram schematically showing a configuration of a marketing information collecting apparatus 700 according to the seventh embodiment.
The marketing information collection device 700 according to the seventh embodiment includes an imaging unit 101, an image capture unit 102, a frame memory 103, a product data storage unit 104, a product estimation unit 105, a motion direction calculation unit 106, A frame memory 107, a marketing information determination and distribution unit 708, and a data recording unit 109 are provided. Note that the information processing method according to the seventh embodiment is a method executed by the marketing information collecting apparatus 700 according to the seventh embodiment.
The marketing information collection device 700 according to the seventh embodiment is configured in the same manner as the marketing information collection device 100 according to the first embodiment, except for the marketing information determination and distribution unit 708. Hereinafter, the marketing information determination and distribution unit 708 that is different from the first embodiment will be mainly described.

マーケティング情報判定及び配信部708は、商品推定部105から与えられる商品情報と、動き方向算出部106から与えられる動きベクトル情報に基づいて、商品の動きを含むマーケティング情報を生成して、データ記録部109に記憶するマーケティング情報判定部として機能するとともに、このマーケティング情報を外部装置へ送信する送信部としても機能する。例えば、マーケティング情報判定及び配信部708は、Ethernet(登録商標)又はWIFI(Wireless Fidelity)等のネットワーク、又は、専用のインターフェースを介して、POSシステム又は監視レコーダー等に配信する。又は、マーケティング情報判定及び配信部708は、コンビニエンスストアチェーンのように、インターネット等を介して、親企業のサーバー等に送信してもよい。   The marketing information determination and distribution unit 708 generates marketing information including the movement of the product based on the product information given from the product estimation unit 105 and the motion vector information given from the motion direction calculation unit 106, and the data recording unit It functions as a marketing information determination unit stored in 109 and also functions as a transmission unit that transmits this marketing information to an external device. For example, the marketing information determination and distribution unit 708 distributes to a POS system or a monitoring recorder via a network such as Ethernet (registered trademark) or WIFI (Wireless Fidelity), or a dedicated interface. Alternatively, the marketing information determination and distribution unit 708 may transmit to the parent company's server or the like via the Internet or the like, as in a convenience store chain.

例えば、マーケティング情報判定及び配信部708は、商品推定部105から渡された商品の有無に従い、客の手に取られた商品がない場合は、何も記録及び配信せず、処理を終了するか、又は、商品がないという情報を記録及び外部へ配信する。商品がある場合は、マーケティング情報判定及び配信部708は、商品名、商品領域情報及び商品の動きの判定結果を含むマーケティング情報を記録及び外部へ配信する。また、記録及び配信されるデータについては、現フレーム画像データと商品領域情報から商品部分を切り出しサムネールとを併せて記録又は配信してもよい。また、記録と配信については、その両方を行っても良いし、どちらかでもよい。   For example, the marketing information determination and distribution unit 708, according to the presence / absence of the product passed from the product estimation unit 105, if there is no product taken in the customer's hand, does not record and distribute anything and ends the process? Or, information that there is no product is recorded and distributed to the outside. When there is a product, the marketing information determination and distribution unit 708 records and distributes the marketing information including the product name, the product region information, and the product movement determination result to the outside. As for the data to be recorded and distributed, the product portion may be cut out from the current frame image data and the product area information and recorded or distributed together. Further, both recording and distribution may be performed, or either of them may be performed.

なお、マーケティング情報判定及び配信部708の内、マーケティング情報判定部としての機能については、CPUがプログラムを実行することにより実現されてもよい。また、マーケティング情報判定部としての機能の一部又は全部が、ASIC又はFPGA等の集積ロジックICによりハード的に実現されていてもよい。さらに、マーケティング情報判定部としての機能の一部又は全部が、DSP等によりソフトウェア的に実現されていてもよい。さらに、マーケティング情報判定及び配信部708の内、配信部としての機能については、CPUが、例えば、NIC(Network Interface Card)等の通信装置を制御することで実現することができる。   In addition, about the function as a marketing information determination part among the marketing information determination and distribution parts 708, CPU may be implement | achieved by running a program. Further, part or all of the function as the marketing information determination unit may be realized in hardware by an integrated logic IC such as ASIC or FPGA. Furthermore, a part or all of the functions as the marketing information determination unit may be realized in software by a DSP or the like. Furthermore, the function as a distribution unit in the marketing information determination and distribution unit 708 can be realized by the CPU controlling a communication device such as a NIC (Network Interface Card).

実施の形態7に係るマーケティング情報収集装置700は、以上のように構成されているので、商品にRFタグを貼り付けることなく、直接的に購買につながらない、商品を取り上げた、又は、戻した等のマーケティング情報を収集することができる。さらに、マーケティング情報判定及び配信部708を設けたことにより、マーケティング情報を外部装置へ配信することができる。   Since the marketing information collecting apparatus 700 according to the seventh embodiment is configured as described above, it does not directly lead to purchase without attaching an RF tag to the product, picks up or returns the product, etc. Can collect marketing information. Furthermore, by providing the marketing information determination and distribution unit 708, the marketing information can be distributed to an external device.

また、実施の形態2から実施の形態6に係る、マーケティング情報判定部を、実施の形態7におけるマーケティング情報判定及び配信部708で置き換えることも可能である。   Further, the marketing information determination unit according to the second to sixth embodiments can be replaced with the marketing information determination and distribution unit 708 according to the seventh embodiment.

100,200,300,400,500,600,700 マーケティング情報収集装置、 101 撮像部、 102 画像取込部、 103 フレームメモリ、 104 商品データ保存部、 404,504 商品データ及び保管位置保存部、 604 商品データ及び属性データ保存部、 105,305,405,505,605 商品推定部、 106,306,506 動き方向算出部、 107 フレームメモリ、 108,208,308,508 マーケティング情報判定部、 708 マーケティング情報判定及び配信部、 109 データ記録部、 210 時計部、 311 動領域推定部、 312 フレームメモリ、 513 人物データ保存部、 514 人物推定部、 515 陳列動作検出部、 516 陳列商品情報登録部、 617 属性判定部。   100, 200, 300, 400, 500, 600, 700 Marketing information collection device, 101 imaging unit, 102 image capture unit, 103 frame memory, 104 product data storage unit, 404, 504 product data and storage location storage unit, 604 Product data and attribute data storage unit, 105, 305, 405, 505, 605 Product estimation unit, 106, 306, 506 Motion direction calculation unit, 107 Frame memory, 108, 208, 308, 508 Marketing information determination unit, 708 Marketing information Determination and distribution unit, 109 data recording unit, 210 clock unit, 311 moving region estimation unit, 312 frame memory, 513 person data storage unit, 514 person estimation unit, 515 display operation detection unit, 516 display product information registration unit, 617 Attribute determination unit.

Claims (13)

商品棚を一部に含む画像を順次撮像する撮像部と、
前記撮像部で撮像された画像に含まれている商品を特定する商品特定部と、
前記商品特定部で特定された商品の動き方向を特定する動き方向特定部と、
前記動き方向特定部で特定された動き方向から、前記商品が前記商品棚から取り上げられたか、又は、前記商品が前記商品棚に戻されたかを判定し、判定結果を含むマーケティング情報を生成するマーケティング情報判定部と、
前記マーケティング情報判定部で生成されたマーケティング情報を記憶するデータ記憶部と、を備えること
を特徴とする情報処理装置。
An imaging unit for sequentially capturing images including a part of the product shelf;
A product identification unit for identifying a product included in the image captured by the imaging unit;
A movement direction identification unit that identifies a movement direction of the product identified by the product identification unit;
Marketing that determines whether the product has been picked up from the product shelf or returned to the product shelf from the movement direction specified by the movement direction specifying unit, and generates marketing information including a determination result An information determination unit;
An information processing apparatus comprising: a data storage unit that stores marketing information generated by the marketing information determination unit.
前記商品特定部は、前記撮像部で順次撮像された画像に含まれている商品の商品名及び位置を順次特定し、
前記動き方向特定部は、前記商品特定部で順次特定された位置から、前記商品の動き方向を特定し、
前記マーケティング情報判定部は、前記マーケティング情報に、前記商品特定部で特定された商品名を含めること
を特徴とする請求項1に記載の情報処理装置。
The product specifying unit sequentially specifies the product name and position of the product included in the images sequentially captured by the imaging unit,
The movement direction specifying unit specifies the movement direction of the product from the positions sequentially specified by the product specifying unit,
The information processing apparatus according to claim 1, wherein the marketing information determination unit includes the product name specified by the product specifying unit in the marketing information.
前記商品棚に陳列されている商品の商品名及び当該商品の特徴量を記憶する商品データ記憶部をさらに備え、
前記商品特定部は、前記撮像部で撮像された画像に含まれる複数の領域の特徴量と、前記商品データ記憶部に記憶されている商品の特徴量との類似度を算出し、当該算出された類似度が最も高い商品の商品名及び領域の位置を、前記撮像部で撮像された画像に含まれている商品の商品名及び位置として特定すること
を特徴とする請求項2に記載の情報処理装置。
A product data storage unit for storing the product name of the product displayed on the product shelf and the feature amount of the product;
The product specifying unit calculates a similarity between a feature amount of a plurality of regions included in an image captured by the imaging unit and a feature amount of a product stored in the product data storage unit. 3. The information according to claim 2, wherein the product name and area position of the product having the highest similarity are specified as the product name and position of the product included in the image captured by the imaging unit. Processing equipment.
日時を計測する時計部をさらに備え、
前記マーケティング情報判定部は、前記マーケティング情報に、前記時計部で計測された日時を含めること
を特徴とする請求項1から3の何れか一項に記載の情報処理装置。
It further includes a clock unit that measures the date and time,
The information processing apparatus according to any one of claims 1 to 3, wherein the marketing information determination unit includes the date and time measured by the clock unit in the marketing information.
前記撮像部で順次撮像された画像において、動きのある領域を順次特定する動領域特定部をさらに備え、
前記商品特定部は、前記動領域特定部で特定された領域に含まれている商品の商品名を特定し、
前記動き方向特定部は、前記動領域特定部で順次特定された領域から、前記商品の動き方向を特定し、
前記マーケティング情報判定部は、前記マーケティング情報に、前記商品特定部で特定された前記商品名を含めること
を特徴とする請求項1に記載の情報処理装置。
In the images sequentially picked up by the image pickup unit, further comprising a moving region specifying unit for sequentially specifying a region having movement,
The product specifying unit specifies a product name of a product included in the area specified by the dynamic region specifying unit,
The movement direction identification unit identifies the movement direction of the product from the areas sequentially identified by the movement area identification unit,
The information processing apparatus according to claim 1, wherein the marketing information determination unit includes the product name specified by the product specifying unit in the marketing information.
前記商品棚に陳列されている商品の商品名及び特徴量を記憶する商品データ記憶部をさらに備え、
前記商品特定部は、前記動領域特定部で特定された領域の特徴量と、前記商品データ記憶部に記憶されている商品の特徴量との類似度を算出し、当該算出された類似度が最も高い商品の商品名を、前記動領域特定部で特定された領域に含まれている商品の商品名として特定すること
を特徴とする請求項5に記載の情報処理装置。
A product data storage unit for storing the product name and feature amount of the product displayed on the product shelf;
The product specifying unit calculates a similarity between the feature amount of the region specified by the moving region specifying unit and the feature amount of the product stored in the product data storage unit, and the calculated similarity is The information processing apparatus according to claim 5, wherein the product name of the highest product is specified as the product name of the product included in the area specified by the moving area specifying unit.
前記商品データ記憶部は、前記商品棚における前記商品の陳列位置をさらに記憶しており、
前記商品特定部は、前記動領域特定部で特定された領域の位置と、前記商品データ記憶部に記憶されている陳列位置とに基づいて、前記商品データ記憶部に記憶されている商品の特徴量を絞り込み、前記動領域特定部で特定された領域の特徴量と、当該絞り込まれた特徴量との類似度を算出すること
を特徴とする請求項6に記載の情報処理装置。
The product data storage unit further stores a display position of the product on the product shelf,
The product specifying unit is characterized by the product stored in the product data storage unit based on the position of the area specified by the moving region specifying unit and the display position stored in the product data storage unit. The information processing apparatus according to claim 6, wherein the information is narrowed down and a similarity between the feature amount of the area specified by the moving area specifying unit and the reduced feature quantity is calculated.
店舗関係者の特徴量を記憶する人物データ保存部と、
前記撮像部で撮像された画像に含まれている店舗関係者の存否を判断する人物判断部と、をさらに備え、
前記人物判断部は、前記撮像部で撮像された画像に含まれる複数の領域の特徴量と、前記人物データ保存部が記憶した店舗関係者を表す特徴量との類似度を算出し、当該算出された類似度が予め定められた閾値を超える場合に、店舗関係者が存在すると判断すること
を特徴とする請求項7に記載の情報処理装置。
A person data storage unit for storing feature quantities of store-related persons;
A person determination unit that determines whether or not there is a store related person included in the image captured by the imaging unit,
The person determination unit calculates a similarity between a feature amount of a plurality of regions included in an image captured by the imaging unit and a feature amount representing a store related person stored in the person data storage unit, and calculates the calculation The information processing apparatus according to claim 7, wherein a store-related person is determined to exist if the similarity degree exceeds a predetermined threshold.
前記人物判断部で店舗関係者が存在すると判断された場合に、前記商品棚への商品陳列動作を検出する陳列動作検出部と、
前記人物判断部で店舗関係者が存在すると判断された場合に、前記陳列動作検出部で検出された商品陳列動作に基づいて、前記商品特定部で特定された商品の陳列位置を前記商品データ記憶部に記憶させる陳列商品情報登録部と、をさらに備えること
を特徴とする請求項8に記載の情報処理装置。
A display operation detection unit that detects a product display operation on the product shelf when the person determination unit determines that a store-related person exists;
When the person determination unit determines that there is a store related person, the display position of the product specified by the product specifying unit is stored in the product data storage based on the product display operation detected by the display operation detection unit. The information processing apparatus according to claim 8, further comprising a display merchandise information registration unit stored in the unit.
前記動領域特定部で特定された領域から、当該領域に含まれている商品の属性を判定する属性判定部をさらに備え、
前記商品データ記憶部は、前記商品棚に陳列されている商品の属性をさらに記憶しており、
前記商品特定部は、前記属性判定部で判定された属性で、前記商品データ記憶部に記憶されている商品の特徴量を絞り込み、前記動領域特定部で特定された領域の特徴量と、当該絞り込まれた特徴量との類似度を算出すること
を特徴とする請求項6に記載の情報処理装置。
An attribute determining unit that determines an attribute of a product included in the region from the region specified by the moving region specifying unit;
The product data storage unit further stores an attribute of a product displayed on the product shelf,
The product specifying unit narrows down the feature amount of the product stored in the product data storage unit with the attribute determined by the attribute determination unit, the feature amount of the region specified by the moving region specifying unit, and The information processing apparatus according to claim 6, wherein the similarity with the narrowed-down feature amount is calculated.
前記属性は、色及び形状の少なくとも何れか一方であること
を特徴とする請求項10に記載の情報処理装置。
The information processing apparatus according to claim 10, wherein the attribute is at least one of a color and a shape.
前記マーケティング情報を送信する送信部をさらに備えること
を特徴とする請求項1から11の何れか一項に記載の情報処理装置。
The information processing apparatus according to any one of claims 1 to 11, further comprising a transmission unit that transmits the marketing information.
商品棚を一部に含む画像を順次撮像し、
前記撮像された画像に含まれている商品を特定し、
前記特定された商品の動き方向を特定し、
前記特定された動き方向から、前記商品が前記商品棚から取り上げられたか、又は、前記商品が前記商品棚に戻されたかを判定し、判定結果を含むマーケティング情報を生成し、
前記生成されたマーケティング情報を記憶すること
を特徴とする情報処理方法。
Take images sequentially including part of the product shelf,
Identify the product included in the captured image,
Identify the direction of movement of the identified product;
From the identified direction of movement, determine whether the product has been picked up from the product shelf or whether the product has been returned to the product shelf, and generate marketing information including a determination result,
An information processing method characterized by storing the generated marketing information.
JP2016063044A 2015-04-07 2016-03-28 Information processor and information processing method Pending JP2016201105A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015078126 2015-04-07
JP2015078126 2015-04-07

Publications (1)

Publication Number Publication Date
JP2016201105A true JP2016201105A (en) 2016-12-01

Family

ID=57424359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016063044A Pending JP2016201105A (en) 2015-04-07 2016-03-28 Information processor and information processing method

Country Status (1)

Country Link
JP (1) JP2016201105A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019171573A1 (en) * 2018-03-09 2019-09-12 日本電気株式会社 Self-checkout system, purchased product management method, and purchased product management program
CN111126110A (en) * 2018-10-31 2020-05-08 杭州海康威视数字技术股份有限公司 Commodity information identification method, settlement method and device and unmanned retail system
JP2021047747A (en) * 2019-09-19 2021-03-25 キヤノンマーケティングジャパン株式会社 Information processor, method for processing information, and program
JP2021119475A (en) * 2020-01-29 2021-08-12 株式会社マーケットヴィジョン Narrowing down processing system
WO2022009305A1 (en) 2020-07-07 2022-01-13 楽天グループ株式会社 Region extraction device, region extraction method, and region extraction program
JP2022036983A (en) * 2018-03-09 2022-03-08 日本電気株式会社 Self-register system, purchased commodity management method and purchased commodity management program
JP2022072825A (en) * 2020-10-30 2022-05-17 株式会社Vaak Behavior estimation device, behavior estimation method, program and behavior estimation system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010536087A (en) * 2007-08-08 2010-11-25 オラワークス・インコーポレイテッド Method, terminal, and computer-readable recording medium for acquiring information about product worn by person in image data
JP2014013629A (en) * 2013-10-23 2014-01-23 Toshiba Tec Corp Information processing apparatus and program
JP2014106628A (en) * 2012-11-26 2014-06-09 Hitachi Systems Ltd Consumer needs analyzing system and consumer needs analyzing method
JP2015041194A (en) * 2013-08-21 2015-03-02 株式会社Nttドコモ User observation system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010536087A (en) * 2007-08-08 2010-11-25 オラワークス・インコーポレイテッド Method, terminal, and computer-readable recording medium for acquiring information about product worn by person in image data
JP2014106628A (en) * 2012-11-26 2014-06-09 Hitachi Systems Ltd Consumer needs analyzing system and consumer needs analyzing method
JP2015041194A (en) * 2013-08-21 2015-03-02 株式会社Nttドコモ User observation system
JP2014013629A (en) * 2013-10-23 2014-01-23 Toshiba Tec Corp Information processing apparatus and program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7327458B2 (en) 2018-03-09 2023-08-16 日本電気株式会社 Self-checkout system, purchased product management method, and purchased product management program
JPWO2019171573A1 (en) * 2018-03-09 2021-01-14 日本電気株式会社 Self-checkout system, purchased product management method and purchased product management program
WO2019171573A1 (en) * 2018-03-09 2019-09-12 日本電気株式会社 Self-checkout system, purchased product management method, and purchased product management program
US11922482B2 (en) 2018-03-09 2024-03-05 Nec Corporation Self-checkout system, purchased product management method, and purchased product management program
JP6992874B2 (en) 2018-03-09 2022-01-13 日本電気株式会社 Self-registration system, purchased product management method and purchased product management program
JP2022036983A (en) * 2018-03-09 2022-03-08 日本電気株式会社 Self-register system, purchased commodity management method and purchased commodity management program
CN111126110A (en) * 2018-10-31 2020-05-08 杭州海康威视数字技术股份有限公司 Commodity information identification method, settlement method and device and unmanned retail system
CN111126110B (en) * 2018-10-31 2024-01-05 杭州海康威视数字技术股份有限公司 Commodity information identification method, settlement method, device and unmanned retail system
JP2021047747A (en) * 2019-09-19 2021-03-25 キヤノンマーケティングジャパン株式会社 Information processor, method for processing information, and program
JP2021119475A (en) * 2020-01-29 2021-08-12 株式会社マーケットヴィジョン Narrowing down processing system
WO2022009305A1 (en) 2020-07-07 2022-01-13 楽天グループ株式会社 Region extraction device, region extraction method, and region extraction program
US11881045B2 (en) 2020-07-07 2024-01-23 Rakuten Group, Inc. Region extraction device, region extraction method, and region extraction program
JP2022072825A (en) * 2020-10-30 2022-05-17 株式会社Vaak Behavior estimation device, behavior estimation method, program and behavior estimation system

Similar Documents

Publication Publication Date Title
JP2016201105A (en) Information processor and information processing method
US10628648B2 (en) Systems and methods for tracking optical codes
JP5476955B2 (en) Image processing apparatus, image processing method, and program
US20210397844A1 (en) Item Identification Method, System and Electronic Device
US9124778B1 (en) Apparatuses and methods for disparity-based tracking and analysis of objects in a region of interest
JP5422018B2 (en) Image processing method and image processing apparatus
JP4972491B2 (en) Customer movement judgment system
WO2019171573A1 (en) Self-checkout system, purchased product management method, and purchased product management program
US20170193309A1 (en) Moving information analyzing system and moving information analyzing method
US11514665B2 (en) Mapping optical-code images to an overview image
JP5010937B2 (en) Image processing apparatus, program, and image processing method
CN105938622A (en) Method and apparatus for detecting object in moving image
JP6589321B2 (en) System, search method and program
JPWO2014080613A1 (en) COLOR CORRECTION DEVICE, COLOR CORRECTION METHOD, AND COLOR CORRECTION PROGRAM
US11475673B2 (en) Image recognition device for detecting a change of an object, image recognition method for detecting a change of an object, and image recognition system for detecting a change of an object
US10586115B2 (en) Information processing device, information processing method, and computer program product
Rosado et al. Supervised learning for Out-of-Stock detection in panoramas of retail shelves
JP6500374B2 (en) Image processing apparatus and image processing program
JP2017083980A (en) Behavior automatic analyzer and system and method
CN108229289B (en) Target retrieval method and device and electronic equipment
KR101577751B1 (en) Method and apparatus for managing information
JP2018028784A (en) Movable body group detection program, movable body group detection device, and movable body group detection method
CN113468914A (en) Method, device and equipment for determining purity of commodities
US20210142064A1 (en) Image processing apparatus, method of processing image, and storage medium
JP2016021097A (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181016

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190409