JP7337625B2 - Purchase behavior data collection system and purchase behavior data collection program - Google Patents

Purchase behavior data collection system and purchase behavior data collection program Download PDF

Info

Publication number
JP7337625B2
JP7337625B2 JP2019171615A JP2019171615A JP7337625B2 JP 7337625 B2 JP7337625 B2 JP 7337625B2 JP 2019171615 A JP2019171615 A JP 2019171615A JP 2019171615 A JP2019171615 A JP 2019171615A JP 7337625 B2 JP7337625 B2 JP 7337625B2
Authority
JP
Japan
Prior art keywords
product
information
customer
data collection
visual recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019171615A
Other languages
Japanese (ja)
Other versions
JP2021047810A (en
Inventor
敦 岡村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Priority to JP2019171615A priority Critical patent/JP7337625B2/en
Publication of JP2021047810A publication Critical patent/JP2021047810A/en
Application granted granted Critical
Publication of JP7337625B2 publication Critical patent/JP7337625B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明の実施形態は、購買行動データ収集システム、及びコンピュータに実行させる購買行動データ収集プログラムに関する。 The embodiments of the present invention relate to a purchasing behavior data collection system and a purchasing behavior data collection program executed by a computer.

従来より、客の購買行動を分析して、店舗側の販売促進策に結び付けが可能なデータとして提供するシステムが知られている。従来のシステムでは、例えば、客の手の動きをもとに客が把持している商品を認識したり、客の視線をもとに何れの商品を見ているかを認識したりすることでデータを収集している。従って、従来のシステムでは、客が興味を示している商品についてのデータを収集可能である。 Conventionally, there has been known a system that analyzes the purchasing behavior of customers and provides data that can be linked to sales promotion measures on the store side. In conventional systems, for example, the product that the customer is holding is recognized based on the movement of the customer's hand, and the product that the customer is looking at is recognized based on the customer's line of sight. are collecting. Thus, conventional systems can collect data about the products that customers are interested in.

しかしながら、客が興味を示している商品についてのデータを収集するだけでは、客の購買行動が、商品に関する何の情報に基づいて行われているか推定することが困難である。 However, it is difficult to estimate on what information about the product the customer's purchasing behavior is based only by collecting data on the product that the customer is interested in.

国際公開第2015/033577号WO2015/033577

本発明の実施形態が解決しようとする課題は、客が商品に関する何の情報に関心を示しているかを示すデータを収集可能な購買行動データ収集システム、及び購買行動データ収集プログラムを提供することである。 The problem to be solved by the embodiments of the present invention is to provide a purchasing behavior data collection system and a purchasing behavior data collection program capable of collecting data indicating what information customers are interested in regarding products. be.

実施形態によれば、購買行動データ収集システムは、視線認識部、商品認識部、商品姿勢認識部、商品情報検索部、視認情報判別部、情報記録部を有する。視線認識部は、客の視線を認識する。商品認識部は、客による視認対象とする商品を特定する。商品姿勢認識部は、商品の姿勢を認識する。商品情報検索部は、特定された商品の外装に付された複数の情報を含むパッケージ情報を検索する。視認情報判別部は、客の視線、商品の姿勢、及びパッケージ情報をもとに、客が視認している商品の外装に付された情報を判別する。情報記録部は、客が視認していると判別された情報を含む商品視認情報を記録させる。 According to the embodiment, the purchasing behavior data collection system includes a line-of-sight recognition unit, a product recognition unit, a product orientation recognition unit, a product information search unit, a visual recognition information determination unit, and an information recording unit. The line-of-sight recognition unit recognizes the line of sight of the customer. The product recognition unit identifies a product to be visually recognized by the customer. The product posture recognition unit recognizes the posture of the product. The product information search unit searches for package information including a plurality of pieces of information attached to the exterior of the specified product. The visible information determination unit determines information attached to the exterior of the product visually recognized by the customer, based on the line of sight of the customer, the posture of the product, and the package information. The information recording unit records product visual recognition information including information determined to be visually recognized by the customer.

本実施形態の購買行動データ収集システムの構成を示すブロック図。1 is a block diagram showing the configuration of a purchasing behavior data collection system according to this embodiment; FIG. 本実施形態におけるサーバの要部回路構成を示すブロック図。FIG. 2 is a block diagram showing the main circuit configuration of the server according to the embodiment; 本実施形態におけるカメラ設置データベースに記録されたデータの一例を示す図。The figure which shows an example of the data recorded on the camera installation database in this embodiment. 本実施形態におけるカメラによる撮影範囲の一例を説明するための図。FIG. 4 is a diagram for explaining an example of an imaging range of a camera according to the embodiment; 本実施形態におけるカメラによって撮影される画像の一例を示す図。FIG. 4 is a diagram showing an example of an image captured by a camera according to the embodiment; 本実施形態における商品視認情報データベースに記録される商品視認情報のデータ構成の一例を示す図。The figure which shows an example of a data structure of the goods visual recognition information recorded on the goods visual recognition information database in this embodiment. 本実施形態における購買行動データ収集プログラムに従って実行する主要な処理の手順を示すフローチャート。4 is a flow chart showing the procedure of main processing executed according to the purchase behavior data collection program in this embodiment. パッケージ情報が示す商品に付された複数の情報にそれぞれ対応する領域範囲を示す図。FIG. 4 is a diagram showing area ranges corresponding to a plurality of pieces of information attached to a product indicated by package information; 客による商品に対する視認の状況を示す図。The figure which shows the condition of visual recognition with respect to the goods by a visitor.

以下、本実施形態について、図面を参照しながら説明する。 Hereinafter, this embodiment will be described with reference to the drawings.

図1は、本実施形態の購買行動データ収集システムの構成を示すブロック図である。本実施形態の購買行動データ収集システムは、例えば量販店、大型電気店、ホームセンターなどの店舗10に設置される。購買行動データ収集システムは、客が商品の購入などのために商品を手に取るなどした場合に、その商品の外装に付された複数の情報の何れに注目しているかを判別し、その注目している情報を収集する。 FIG. 1 is a block diagram showing the configuration of the purchasing behavior data collection system of this embodiment. The purchasing behavior data collection system of this embodiment is installed in a store 10 such as a mass retailer, a large electronics store, a home center, or the like. When a customer picks up a product for purchase, etc., the purchasing behavior data collection system determines which of a plurality of pieces of information attached to the exterior of the product the customer pays attention to. collect information about

図1に示すように、店舗10は、売場11とそれ以外のバックヤード12とからなる。売場11には、複数の商品棚13が配置されており、商品棚13の間及び商品棚13と壁との間が客の通路となっている。入店した客は、売場11の通路を回り、商品棚13から購入したい商品を取ってショッピングカート等に入れる。客は、商品の外装(パッケージ)に記載された各種の情報を確認した上で、商品を購入するか否かを判断する場合がある。買物を終えた客は、売場11の一部に設けられた会計場で会計(決済処理)を行う。 As shown in FIG. 1, a store 10 consists of a sales floor 11 and a backyard 12 other than that. A plurality of product shelves 13 are arranged in the sales floor 11, and passages between the product shelves 13 and between the product shelves 13 and the wall serve as passages for customers. A customer who has entered the store goes around the aisle of the sales floor 11, picks up a product to be purchased from the product shelf 13, and puts it in a shopping cart or the like. A customer may decide whether or not to purchase a product after confirming various kinds of information written on the exterior (package) of the product. After shopping, the customer pays the bill (settlement process) at a billing counter provided in a part of the sales floor 11. - 特許庁

店舗10では、売場11にいる客が注目している商品の情報を収集するために、画像入力システム20が備えられている。画像入力システム20は、店舗10にいる客を撮影した画像の画像データを入力するため、例えば天井などに設置された複数台のカメラ21(天井カメラと称する場合がある)、例えば商品棚13などに設置された複数台のカメラ22(棚前カメラと称する場合がある)、カメラ21,22を制御するカメラコントローラ23とを含む。 The store 10 is provided with an image input system 20 for collecting information on products that customers in the sales floor 11 are paying attention to. The image input system 20 inputs image data of images of customers in the store 10. For example, a plurality of cameras 21 (also referred to as ceiling cameras) installed on the ceiling or the like, such as the product shelf 13, are used. a camera controller 23 for controlling the cameras 21 and 22;

カメラ21(天井カメラ)は、例えば、売場11の通路全域を撮影領域としてカバーできるように、通路毎に設置されている。カメラ21は、購買行動をしている客の画像を上方から撮影する。カメラ21により撮影される画像をもとに、客の位置(特に頭あるいは顔の位置)、客による商品を取り出す動作(腕、手の動きなど)、客が手に取っている商品の位置などを検出することができる。カメラ21の台数及び取付場所は、特に制限されるものではない。要は、通路全域を撮影領域とし、通路に居る客の状況を撮影できればよい。図1では、1つの通路に1台のカメラ21が設置されていることを示している。 The camera 21 (ceiling camera) is installed for each aisle so that, for example, the entire aisle of the sales floor 11 can be covered as an imaging area. A camera 21 shoots an image of a customer who is making a purchase from above. Based on the image captured by the camera 21, the position of the customer (especially the position of the head or face), the movement of the customer to take out the product (arm, hand movement, etc.), the position of the product the customer is holding, etc. can be detected. The number and mounting locations of the cameras 21 are not particularly limited. In short, it is sufficient to use the entire aisle as a photographing area and photograph the situation of customers in the aisle. FIG. 1 shows that one camera 21 is installed in one passage.

カメラ22(棚前カメラ)は、例えば、商品棚13の前方を撮影領域としてカバーできるように、商品棚13の上部から通路側に向けて設置されている。カメラ22は、商品棚13の前にいる商品を見ている客の画像を撮影する。カメラ22により撮影される画像をもとに、客の顔(顔位置、目、鼻、口などパーツの位置、向きなど)、眼球の位置及び瞳の位置(視線方向)、客が手に取っている商品の位置などを検出することができる。カメラ22の台数及び取付場所は、特に制限されるものではない。カメラ22は、例えば、商品棚13の区切り毎に設置され、区切りに置かれる商品と対応付けられる。図1では、1つの商品棚13にのみカメラ22を示しているが、他の商品棚13にも同様にしてカメラ22が設置されているものとする。 The camera 22 (shelf-front camera) is installed from the top of the product shelf 13 toward the aisle so that, for example, the front of the product shelf 13 can be covered as an imaging area. A camera 22 takes an image of a customer looking at a product in front of the product shelf 13. - 特許庁Based on the image taken by the camera 22, the customer's face (face position, position and direction of parts such as eyes, nose, mouth, etc.), eyeball position and pupil position (line of sight), It is possible to detect the position of products that are The number and mounting locations of the cameras 22 are not particularly limited. The camera 22 is installed, for example, in each partition of the product shelf 13 and associated with the product placed in the partition. Although the camera 22 is shown only on one product shelf 13 in FIG.

こうして、複数のカメラ21,22により客が商品を見ている状況の画像を撮影することで、画像をもとに客が商品を商品棚13から取り出したこと、また客が持っている商品を検出することができる。さらに画像中における客の位置(顔、頭、目、瞳)と商品の位置関係、画像を撮影したカメラ21,22の設置位置をもとにして、商品と客の位置関係を特定し、客の視線方向から商品の外装(パッケージ)の何れの情報を客が視認しているかを特定することができる。 In this way, by photographing an image of the situation in which the customer is looking at the product with a plurality of cameras 21 and 22, it is possible to confirm that the customer has taken the product from the product shelf 13 and that the customer has the product based on the image. can be detected. Furthermore, based on the position of the customer in the image (face, head, eyes, eyes) and the positional relationship between the product and the installation positions of the cameras 21 and 22 that took the image, the positional relationship between the product and the customer is specified. It is possible to specify which information on the exterior (package) of the product the customer is visually recognizing from the direction of the line of sight.

なお、本実施形態では、カメラ21,22により撮影された画像をもとにして、客が商品を商品棚13から取り出したこと、客が持っている商品を検出するとしているが、各種のセンサを設けて検出することもできる。例えば、商品棚13に赤外線センサ、重量センサなどを設けて、商品棚13から商品が取り出されたことを検出するようにしても良い。例えば、重量センサは、商品棚13に置かれた商品の重量変化を検出することができる。すなわち、重量センサによって重量が軽くなったことが検出された場合に、客が商品を商品棚13から取るという行動をしたこと判別し、また重量センサの設置位置に置かれた商品を客が持っていることを判別できる。 In this embodiment, based on the images captured by the cameras 21 and 22, it is assumed that the customer has taken out the product from the product shelf 13 and the product that the customer is holding is detected. can also be provided for detection. For example, an infrared sensor, a weight sensor, or the like may be provided on the product shelf 13 to detect that a product has been taken out from the product shelf 13 . For example, the weight sensor can detect weight changes of products placed on the product shelf 13 . That is, when the weight sensor detects that the weight has become lighter, it is determined that the customer has taken the product from the product shelf 13, and the customer has taken the product placed at the installation position of the weight sensor. It can be determined that

なお、前述した説明では、客の状況を判別するための情報を取得するために、カメラ21,22とセンサ(重量センサなど)とを設けた構成例について説明したが、その他の入力デバイスを用いて各種の情報を取得できるようにしても良い。 In the above description, a configuration example in which the cameras 21 and 22 and sensors (such as a weight sensor) are provided in order to acquire information for determining the customer's situation has been described. You may enable it to acquire various information.

カメラコントローラ23は、有線通信又は無線通信を介してカメラ21,22を接続して動作を制御する。カメラコントローラ23は、各カメラ21,22で撮影された画像信号を受信する。 The camera controller 23 connects the cameras 21 and 22 via wired communication or wireless communication and controls their operations. A camera controller 23 receives image signals captured by the cameras 21 and 22 .

顧客認識装置31は、来店した客を認識するための装置であり、例えば店舗10の入り口近くに設置される。顧客認識装置31は、例えば、顔認証技術を利用し、来店した客の顔画像を撮影して、予め登録された客の顔画像の特徴データと照合することで客を特定する。あるいは、顧客認識装置31は、会員カードやスマートフォンなどの携帯機器に記憶された、客固有の識別データ(顧客ID)を読み取る装置とすることもできる。顧客認識装置31は、認識された顧客のデータをサーバ40に送信する。 The customer recognition device 31 is a device for recognizing customers who have visited the store, and is installed near the entrance of the store 10, for example. The customer recognition device 31 uses face recognition technology, for example, to capture a face image of a customer who visits the store, and identifies the customer by matching it with pre-registered feature data of the customer's face image. Alternatively, the customer recognition device 31 may be a device that reads customer-specific identification data (customer ID) stored in a membership card or mobile device such as a smartphone. The customer recognition device 31 transmits data of the recognized customer to the server 40 .

サーバ40は、カメラコントローラ23を通じて入力される画像データをもとに、客の視線を認識する視線認識部と、客が手に持つなどしている客による視認対象とする商品を特定する商品認識部と、客が商品を視認している時の商品の姿勢を認識する商品姿勢認識部と、特定された商品の外装に付された複数の見かけ上の情報を含むパッケージ情報を後述するパッケージ情報データベース43Bから検索する商品情報検索部と、客の視線、商品の姿勢、及びパッケージ情報をもとに、客が視認している商品の外装に付された情報を判別する視認情報判別部と、客が視認していると判別された情報を含む商品視認情報を後述する商品視認情報データベース43Aに記録させる記録部としての機能を有する。サーバ40は、これらの機能を実現するために、後述する購買行動データ収集プログラムを実装している。 Based on the image data input through the camera controller 23, the server 40 has a line-of-sight recognition unit that recognizes the customer's line of sight, and a product recognition unit that identifies the product to be viewed by the customer, such as the one the customer is holding in his or her hand. a product posture recognition unit that recognizes the posture of the product when the customer visually recognizes the product; A product information search unit that searches the database 43B, a visual information determination unit that determines information attached to the exterior of the product viewed by the customer based on the customer's line of sight, product posture, and package information; It has a function as a recording unit for recording product visual recognition information including information determined to be viewed by a customer in a product visual recognition information database 43A, which will be described later. The server 40 implements a purchasing behavior data collection program, which will be described later, in order to realize these functions.

なお、図1では、カメラコントローラ23及びサーバ40がいずれもバックヤード12に設けられているものとして図示されているが、必ずしもバックヤード12に設けられていなくてもよい。例えばカメラコントローラ23は、各カメラ21,22との間で信号を送受信できるのであれば、売場11に設けられていてもよい。サーバ40は、インターネット等のネットワークを介してコンピュータ資源を提供するクラウドコンピューティングの環境下に置かれていてもよい。 Although both the camera controller 23 and the server 40 are shown in FIG. 1 as being provided in the backyard 12 , they may not necessarily be provided in the backyard 12 . For example, the camera controller 23 may be provided in the sales floor 11 as long as it can transmit and receive signals to and from the cameras 21 and 22 . The server 40 may be placed under a cloud computing environment that provides computer resources via a network such as the Internet.

図2は、本実施形態におけるサーバ40の要部回路構成を示すブロック図である。サーバ40は、プロセッサ41、メインメモリ42、補助記憶デバイス43、通信装置44、第1のI/O(Input / Output)インターフェース46、第2のI/Oインターフェース47及びシステム伝送路48を備える。システム伝送路48は、アドレスバス、データバス、制御信号線等を含む。サーバ40は、システム伝送路48に、プロセッサ41、メインメモリ42、補助記憶デバイス43、通信装置44、及び第1,第2のI/Oインターフェース46、47を接続する。サーバ40では、プロセッサ41、メインメモリ42及び補助記憶デバイス43と、これらを接続するシステム伝送路48とによってコンピュータが構成される。 FIG. 2 is a block diagram showing the main circuit configuration of the server 40 in this embodiment. The server 40 includes a processor 41 , a main memory 42 , an auxiliary storage device 43 , a communication device 44 , a first I/O (Input/Output) interface 46 , a second I/O interface 47 and a system transmission line 48 . The system transmission line 48 includes an address bus, a data bus, control signal lines and the like. Server 40 connects processor 41 , main memory 42 , auxiliary storage device 43 , communication device 44 , and first and second I/O interfaces 46 and 47 to system transmission line 48 . In the server 40, a computer is composed of a processor 41, a main memory 42, an auxiliary storage device 43, and a system transmission line 48 connecting them.

プロセッサ41は、上記コンピュータの中枢部分に相当する。プロセッサ41は、オペレーティングシステム又はアプリケーションプログラムに従って、サーバ40としての各種の機能を実現するべく各部を制御する。プロセッサ41は、例えばCPU(Central Processing Unit)である。 The processor 41 corresponds to the central portion of the computer. The processor 41 controls each part to implement various functions of the server 40 according to an operating system or application program. The processor 41 is, for example, a CPU (Central Processing Unit).

メインメモリ42は、上記コンピュータの主記憶部分に相当する。メインメモリ42は、不揮発性のメモリ領域と揮発性のメモリ領域とを含む。メインメモリ42は、不揮発性のメモリ領域ではオペレーティングシステム又はアプリケーションプログラムを記憶する。アプリケーションプログラムは、後述する購買行動データ収集プログラムを含む。メインメモリ42は、プロセッサ41が各部を制御するための処理を実行する上で必要なデータを不揮発性又は揮発性のメモリ領域で記憶する場合もある。メインメモリ42は、揮発性のメモリ領域を、プロセッサ41によってデータが適宜書き換えられるワークエリアとして使用する。不揮発性のメモリ領域は、例えばROM(Read Only Memory)である。揮発性のメモリ領域は、例えばRAM(Random Access Memory)である。 The main memory 42 corresponds to the main memory portion of the computer. Main memory 42 includes a non-volatile memory area and a volatile memory area. The main memory 42 stores an operating system or application programs in a non-volatile memory area. The application program includes a purchasing behavior data collection program, which will be described later. The main memory 42 may store data necessary for the processor 41 to control each part in a non-volatile or volatile memory area. The main memory 42 uses a volatile memory area as a work area in which data is appropriately rewritten by the processor 41 . The non-volatile memory area is, for example, ROM (Read Only Memory). A volatile memory area is, for example, a RAM (Random Access Memory).

補助記憶デバイス43は、上記コンピュータの補助記憶部分に相当する。例えばEEPROM(Electric Erasable Programmable Read-Only Memory)、HDD(Hard Disc Drive)、あるいはSSD(Solid State Drive)等が補助記憶デバイス43となり得る。補助記憶デバイス43は、プロセッサ41が各種の処理を行う上で使用するデータ、あるいはプロセッサ41での処理によって作成されたデータ等を保存する。補助記憶デバイス43は、後述する購買行動データ収集プログラムを含むアプリケーションプログラムを記憶する場合もある。 The auxiliary storage device 43 corresponds to the auxiliary storage portion of the computer. For example, an EEPROM (Electric Erasable Programmable Read-Only Memory), HDD (Hard Disc Drive), SSD (Solid State Drive), or the like can be the auxiliary storage device 43 . The auxiliary storage device 43 stores data used when the processor 41 performs various types of processing, data created by processing in the processor 41, and the like. The auxiliary storage device 43 may store application programs including a purchasing behavior data collection program, which will be described later.

通信装置44は、プロセッサ41からの指令により、外部のネットワーク(インターネットを含む)を通じて外部の機器と通信し、各種の情報を受信する。通信装置44は、例えば環境情報とする天気、温度、湿度などの情報をWebサイトから取得する、あるいは測定機器から入力する場合に用いられる。 The communication device 44 communicates with external devices through an external network (including the Internet) according to instructions from the processor 41 and receives various information. The communication device 44 is used, for example, when acquiring environmental information such as weather, temperature, and humidity from a website or inputting it from a measuring device.

第1のI/Oインターフェース46は、カメラコントローラ23との間でデータ信号の送信および受信を行う。第2のI/Oインターフェース47は、顧客認識装置31との間でデータ信号の送信および受信を行う。 A first I/O interface 46 transmits and receives data signals to and from the camera controller 23 . A second I/O interface 47 transmits and receives data signals to and from the customer recognition device 31 .

サーバ40は、メインメモリ42又は補助記憶デバイス43において、商品視認情報データベース43A、パッケージ情報データベース43B、購買データベース43C、カメラ設置データベース43Dが記憶される。 The main memory 42 or the auxiliary storage device 43 of the server 40 stores a commodity visual recognition information database 43A, a package information database 43B, a purchase database 43C, and a camera installation database 43D.

商品視認情報データベース43Aは、客が視認していると判別された、外装(パッケージ)に付された情報及び同情報に関係する各種情報(図6参照)を含む商品視認情報が記録される。パッケージ情報データベース43Bは、店舗10において販売される商品のパッケージ情報が記録される。パッケージ情報は、例えば商品の外装に付された複数の情報などを含む。商品の外装に付された情報には、例えば商品名、商品画像、原材料表示、アレルギー物質、注意書き、商品説明、栄養成分、保管方法、賞味(消費)期限などがある。パッケージ情報には、各情報がパッケージに掲載されている面(外装面)を示す面情報、面上の情報が記載された領域範囲を示す領域情報などを含む。例えば、商品が箱形である場合には、6面のそれぞれについて、何れの領域範囲に何れの情報が掲載されているかを示す情報がパッケージ情報に設定されている。 The product visible information database 43A records product visible information including information attached to the exterior (package) and various information related to the same information (see FIG. 6), which is determined to be visually recognized by the customer. The package information database 43B records package information of products sold at the store 10 . The package information includes, for example, a plurality of pieces of information attached to the packaging of the product. The information attached to the outer packaging of the product includes, for example, the product name, product image, ingredient labeling, allergens, precautions, product description, nutritional ingredients, storage method, best-before (consumption) date, and the like. The package information includes surface information indicating the surface (exterior surface) on which each piece of information is printed on the package, area information indicating the area range in which information on the surface is described, and the like. For example, if the product is box-shaped, the package information includes information indicating which information is placed in which area range for each of the six faces.

また、パッケージ情報には、パッケージ(商品の外装)の形状(箱型、袋型、トレー型など)を示す形状情報、あるいはパッケージの外見上の特徴を示す特徴データが含まれている。形状情報あるいは特徴データをもとにして、カメラ21,22によって撮影された商品の画像をもとに、商品の姿勢を検出することができる。 The package information also includes shape information indicating the shape of the package (outer packaging of the product) (box-shaped, bag-shaped, tray-shaped, etc.) or feature data indicating the external features of the package. Based on the shape information or feature data, the posture of the product can be detected based on the image of the product taken by the cameras 21 and 22 .

特徴データは、撮影された商品の画像との照合に用いられるデータであり、商品の外装に付された情報(印刷物や文字など)や形状(箱形、袋型など)をもとに作成される。特徴データは、1つの商品について様々な姿勢に応じたデータが用意されている。例えば、何れかの姿勢に対応する特徴データと、撮影された商品の画像との照合率(類似度)が高い場合に、該当する特徴データに対応する姿勢が現在の商品の姿勢状態であると判別することができる。 Feature data is data that is used for comparison with photographed product images, and is created based on the information (printed matter, letters, etc.) and shape (box shape, bag shape, etc.) attached to the exterior of the product. be. As the feature data, data corresponding to various postures of one product are prepared. For example, if the matching rate (similarity) between the feature data corresponding to any posture and the photographed image of the product is high, the posture corresponding to the feature data is considered to be the current posture of the product. can be discriminated.

購買データベース43Cは、客により購入された(決済処理が完了した)商品の決済情報が客毎に記録される。カメラ設置データベース43Dは、店舗10に設置された複数のカメラ21,22と、カメラ21,22の設置位置に対応する場所に並べられた商品との対応関係を示すデータが記憶される。 In the purchase database 43C, payment information for products purchased by customers (for which payment processing has been completed) is recorded for each customer. The camera installation database 43D stores data indicating correspondence relationships between the plurality of cameras 21 and 22 installed in the store 10 and products arranged at locations corresponding to the installation positions of the cameras 21 and 22 .

図3は、本実施形態におけるカメラ設置データベース43Dに記録されたデータの一例を示す図である。図3に示すように、カメラ設置データベース43Dは、複数のカメラ21(天井カメラ)の識別情報(天井カメラID)、カメラ21の撮影範囲に設置されたカメラ22(棚前カメラ)の識別情報(棚前カメラID)、カメラ22(棚前カメラ)が設置された位置近くの商品棚13の置かれた商品の識別情報(商品コード)が、それぞれ関連付けて記録される。 FIG. 3 is a diagram showing an example of data recorded in the camera installation database 43D in this embodiment. As shown in FIG. 3, the camera installation database 43D includes identification information (ceiling camera IDs) of a plurality of cameras 21 (ceiling cameras), identification information (ceiling camera IDs) of the cameras 22 (shelf front cameras) installed in the photographing range of the cameras 21 ( shelf-front camera ID) and identification information (product code) of the product placed on the product shelf 13 near the position where the camera 22 (shelf-front camera) is installed are recorded in association with each other.

天井カメラID及び棚前カメラIDは、売場11に配置された各カメラ21,22に対して個々に割り当てられた一意のコードである。各カメラ21,22で撮影され、カメラコントローラ23へと送信される画像データには、当該カメラ21,22に設定されたカメラIDが付与される。従って、例えばカメラ21,22によって撮影された画像に含まれる商品は、棚前カメラIDと対応づけられた商品コードが示す商品の何れかであることが特定できる。 The ceiling camera ID and shelf front camera ID are unique codes individually assigned to the cameras 21 and 22 arranged in the sales floor 11 . Image data captured by the cameras 21 and 22 and transmitted to the camera controller 23 is assigned a camera ID set for the cameras 21 and 22 . Therefore, it is possible to specify that the product included in the images captured by the cameras 21 and 22, for example, is any of the products indicated by the product code associated with the front camera ID.

図3に示すカメラ設置データベース43Dでは、1つのカメラ21(天井カメラ)に対して、複数のカメラ22(棚前カメラ)が関連づけられていることを示している。すなわち、1台の天井カメラによる撮影範囲に複数の商品棚13が含まれていることを示している。 The camera installation database 43D shown in FIG. 3 indicates that a plurality of cameras 22 (shelf front cameras) are associated with one camera 21 (ceiling camera). That is, it indicates that a plurality of product shelves 13 are included in the shooting range of one ceiling camera.

なお、1台のカメラ22(棚前カメラ)に対して複数のカメラ21(天井カメラ)が関連づけられていても良いし、カメラ21(天井カメラ)とカメラ22(棚前カメラ)とが1対1で関連づけられていても良い。店舗10に設置されるカメラ21,22の設置台数とし設置位置に応じて、カメラ設置データベース43Dに各データが記録される。 A plurality of cameras 21 (ceiling cameras) may be associated with one camera 22 (shelf front camera), or the camera 21 (ceiling camera) and the camera 22 (shelf front camera) are paired. 1 may be associated. Each data is recorded in the camera installation database 43D in accordance with the number of installed cameras 21 and 22 installed in the store 10 and their installation positions.

図4は、本実施形態におけるカメラ21とカメラ22による撮影範囲の一例を説明するための図である。 FIG. 4 is a diagram for explaining an example of an imaging range of the cameras 21 and 22 in this embodiment.

図4に示すように、カメラ21(天井カメラ)は、購買行動をしている客の画像を上方から撮影する。従って、カメラ21により撮影される画像をもとに、客の位置(特に頭あるいは顔の位置)、客による商品を取り出す動作(腕、手の動きなど)、客が手に取っている商品の位置などを検出することができる。 As shown in FIG. 4, the camera 21 (ceiling camera) captures an image of a customer who is making a purchase from above. Therefore, based on the image captured by the camera 21, the position of the customer (especially the position of the head or face), the movement of the customer to take out the product (movement of the arm, hand, etc.), and the position of the product being picked up by the customer. A position etc. can be detected.

また、図4に示すように、カメラ22(棚前カメラ)は、例えば商品棚13の上部に取り付けられ、通路側に向けて撮影することで、商品棚13の前にいる商品を見ている客の画像を撮影する。カメラ22により撮影される画像をもとに、客の顔(顔位置、目、鼻、口などパーツの位置、向きなど)、眼球の位置及び瞳の位置(視線方向)、客が手に取っている商品の位置などを検出することができる。 Further, as shown in FIG. 4, a camera 22 (shelf-front camera) is attached, for example, to the upper part of the product shelf 13, and by photographing toward the aisle side, the product in front of the product shelf 13 is viewed. Take a picture of the customer. Based on the image taken by the camera 22, the customer's face (face position, position and direction of parts such as eyes, nose, mouth, etc.), eyeball position and pupil position (line of sight), It is possible to detect the position of products that are

図5は、本実施形態におけるカメラ22によって撮影される画像の一例を示す図である。 FIG. 5 is a diagram showing an example of an image captured by the camera 22 in this embodiment.

図5に示すように、カメラ22により撮影される画像から、客の顔に相当するエリアAR1、眼球の位置に相当するエリアAR2、商品に相当するエリアSなどを検出することができる。 As shown in FIG. 5, an area AR1 corresponding to the customer's face, an area AR2 corresponding to the eyeball position, an area S corresponding to the product, and the like can be detected from the image captured by the camera 22. FIG.

図6は、本実施形態における商品視認情報データベース43Aに記録される商品視認情報のデータ構成の一例を示す図ある。 FIG. 6 is a diagram showing an example of the data configuration of product visual recognition information recorded in the product visual recognition information database 43A in this embodiment.

商品視認情報は、例えば、店舗10において買い物をする客毎に生成される。 The product visual recognition information is generated, for example, for each customer shopping at the store 10 .

商品視認情報には、客が買い物している間に手に取るなどして視認した商品に付された情報に関するデータが記録される。例えば、商品視認情報には、視認対象となった商品の商品コード、商品に付された視認の対象となった情報を示す視認対象情報、視認対象情報に対する視認時間と視認回数の情報が含まれる。 In the product visual recognition information, data related to information attached to the product that the customer picks up and visually recognizes while shopping is recorded. For example, the product visual recognition information includes the product code of the product that is the visual target, the visual target information indicating the visual target information attached to the product, and the visual recognition time and the number of visual recognition times for the visual target information. .

また、図6に示すように、商品視認情報には、客を識別する顧客ID、顧客IDに対応する客に関する各種の情報を含む顧客属性情報、客が購買行動をした時(客による商品の視認がされる時)の環境情報、視認対象となった商品が客により購入されたか否かを示す購買情報が含まれる。客に関する情報としては、例えば、年齢、性別、購買履歴などを含む。環境情報には、例えば天気、温度、湿度、日時などを含む。なお、その他の情報を含んでいても良い。 In addition, as shown in FIG. 6, the product visual information includes a customer ID for identifying a customer, customer attribute information including various information about the customer corresponding to the customer ID, and when the customer makes a purchase (when the customer purchases the product). environment information (at the time of visual recognition), and purchase information indicating whether or not the product targeted for visual recognition was purchased by the customer. The customer-related information includes, for example, age, sex, purchase history, and the like. Environmental information includes, for example, weather, temperature, humidity, date and time. In addition, other information may be included.

なお、商品視認情報は、顧客属性情報と購買情報を含めない場合には、客毎に生成する必要はなく、顧客IDを記録する必要もない。 Note that when the product visual recognition information does not include the customer attribute information and the purchase information, it is not necessary to generate it for each customer, and it is not necessary to record the customer ID.

次に、本実施形態のサーバ40による動作について説明する。 Next, the operation of the server 40 of this embodiment will be described.

図7は、本実施形態におけるサーバ40のプロセッサ41が購買行動データ収集プログラムに従って実行する主要な処理の手順を示すフローチャートである。以下、図7を用いて、サーバ40が有する機能について具体的に説明する。図7では、例えば来店した1人の客に対する処理の手順を示しており、複数の客に対してそれぞれ並行して同様の処理を実行する。なお、以下に説明する内容は一例である。同様な機能を得ることが可能であればその手順及び内容は特に限定されるものではない。 FIG. 7 is a flow chart showing the procedure of main processing executed by the processor 41 of the server 40 according to the purchase behavior data collection program in this embodiment. The functions of the server 40 will be specifically described below with reference to FIG. FIG. 7 shows, for example, the procedure of processing for one customer visiting the store, and the same processing is executed in parallel for each of a plurality of customers. In addition, the content demonstrated below is an example. The procedure and contents are not particularly limited as long as a similar function can be obtained.

顧客認識装置31は、来店した客を認識するための処理を実行し、認識された顧客のデータをサーバ40に送信する。プロセッサ41は、第2のI/Oインターフェース47を通じて、顧客認識装置31からのデータを受信し、客認識処理を実行する(Act1)。客認識処理では、例えば商品視認情報データベース43Aに来店した客用の顧客IDを記録し、来店した客に対応する商品視認情報の記録を開始する。 The customer recognition device 31 executes processing for recognizing a customer who has visited the store, and transmits data of the recognized customer to the server 40 . The processor 41 receives data from the customer recognition device 31 through the second I/O interface 47 and executes customer recognition processing (Act 1). In the customer recognition process, for example, a customer ID for a customer visiting the store is recorded in the merchandise visual recognition information database 43A, and recording of merchandise visual recognition information corresponding to the customer visiting the store is started.

プロセッサ41は、第1のI/Oインターフェース46を介してカメラコントローラ23から各カメラ21,22で撮影されている画像の画像データを時分割で順次取り込む。プロセッサ41は、画像データを取り込む毎に、画像データを解析して、客が商品を商品棚13から取り出す動作をしているかを判定する。 The processor 41 sequentially takes in image data of images shot by the cameras 21 and 22 from the camera controller 23 via the first I/O interface 46 in a time division manner. The processor 41 analyzes the image data every time it takes in the image data and determines whether the customer is taking out the product from the product shelf 13 .

プロセッサ41は、画像データをもとに、客が商品を商品棚13から取り出す動作をしていると判定された場合(Act2、Yes)、この動作が検出された画像を撮影したカメラ21,22をもとに撮影された商品を認識する(Act3)。すなわち、プロセッサ41は、客が商品を取り出す動作を撮影した画像に対応する天井カメラID及び棚前カメラIDをもとにカメラ設置データベース43Dを検索して、対応する商品コードを判別する。 If the processor 41 determines that the customer is making an action to take out the product from the product shelf 13 based on the image data (Act 2, Yes), the processor 41 detects the image captured by the cameras 21 and 22 in which this action is detected. (Act 3). That is, the processor 41 searches the camera installation database 43D based on the ceiling camera ID and shelf front camera ID corresponding to the image of the customer taking out the product, and determines the corresponding product code.

カメラ設置データベース43Dにおいて、1つの棚前カメラIDに対して複数の商品コードが対応づけられている場合には、複数の商品コードを判別する。なお、商品棚13の各棚位置に赤外線センサ、重量センサなどのセンサを設け、商品棚13の何れの棚位置から商品が取り出されたか検出できるようにすることで、商品を特定して1つの商品コードを判別するようにしても良い。 In the camera installation database 43D, when a plurality of product codes are associated with one shelf front camera ID, the plurality of product codes are identified. A sensor such as an infrared sensor, a weight sensor, or the like is provided at each shelf position of the product shelf 13 so that it can be detected from which shelf position of the product shelf 13 the product has been taken out. You may make it discriminate|determine a goods code.

次に、プロセッサ41は、カメラ設置データベース43Dをもとに判別された商品コードをもとにパッケージ情報データベース43Bを検索し、商品コードが示す商品のパッケージ情報を取得する(Act4)。 Next, the processor 41 searches the package information database 43B based on the product code determined based on the camera installation database 43D, and acquires the package information of the product indicated by the product code (Act 4).

プロセッサ41は、カメラ21,22によって撮影された商品の画像をもとに、客に所持されている商品の姿勢を認識する(Act5)。例えば、プロセッサ41は、パッケージ情報に含まれる商品の特徴データと、撮影された画像中の商品の画像とを照合して、何れの姿勢に対応する特徴データとの照合率(類似度)が高いかを判別する。 The processor 41 recognizes the posture of the product held by the customer based on the images of the product captured by the cameras 21 and 22 (Act 5). For example, the processor 41 compares the feature data of the product included in the package information with the image of the product in the photographed image, and the matching rate (similarity) of the feature data corresponding to any posture is high. determine whether

なお、プロセッサ41は、複数の商品コードに対応するパッケージ情報を取得している場合には、各パッケージ情報の商品の特徴データとの照合を実行する。この結果、照合率(類似度)が高い特徴データに対応する商品を、客に所持されている商品として特定することができる。 When the processor 41 has acquired package information corresponding to a plurality of product codes, the processor 41 compares each package information with the feature data of the product. As a result, a product corresponding to feature data with a high collation rate (similarity) can be specified as a product owned by the customer.

プロセッサ41は、照合結果をもとにして判定される商品の姿勢と、画像を撮影したカメラ21,22の設置位置の位置関係に基づいて、商品の姿勢を認識する。商品の姿勢を認識することで、商品の何れの面が客の方を向いているか、すなわち客が視認している商品の外装面を特定することができる。 The processor 41 recognizes the orientation of the product based on the orientation of the product determined based on the matching result and the positional relationship between the installation positions of the cameras 21 and 22 that captured the images. By recognizing the posture of the product, it is possible to identify which side of the product faces the customer, that is, the exterior surface of the product that the customer visually recognizes.

なお、プロセッサ41は、カメラ21とカメラ22のそれぞれにより撮影された画像に対して、同様にして姿勢を認識するための処理を実行しても良いし、何れか一方の画像を対象として処理を実行しても良い。 Note that the processor 41 may similarly perform the processing for recognizing the orientation of each of the images captured by the cameras 21 and 22, or may perform the processing on one of the images. may be executed.

また、プロセッサ41は、特徴データを用いた認識ではなく、パッケージ(商品の外装)の形状を示す形状情報を用いて商品の姿勢を認識するようにしても良い。 Also, the processor 41 may recognize the orientation of the product using shape information indicating the shape of the package (exterior of the product) instead of using the feature data.

次に、プロセッサ41は、カメラ21,22によって撮影された画像をもとに、客の視線を認識する(Act6)。例えば、プロセッサ41は、図5に示すように、カメラ22によって撮影された客の画像から、客の顔に相当するエリアAR1、眼球の位置に相当するエリアAR2を検出する。さらに、プロセッサ41は、エリアAR1の画像から、例えば客の目、鼻、口、眉などパーツの位置を検出し、画像を撮影したカメラ22の設置位置との位置関係から客の顔の向きを推定する。さらに、プロセッサ41は、エリアAR2の画像から、眼球の瞳の位置を検出して、顔の向き、カメラ22の設置位置をもとに視線方向を推定する。 Next, the processor 41 recognizes the line of sight of the customer based on the images captured by the cameras 21 and 22 (Act 6). For example, as shown in FIG. 5, the processor 41 detects an area AR1 corresponding to the customer's face and an area AR2 corresponding to the eyeball position from the image of the customer captured by the camera 22. FIG. Further, the processor 41 detects the positions of parts such as the eyes, nose, mouth, and eyebrows of the customer from the image of the area AR1, and determines the direction of the customer's face from the positional relationship with the installation position of the camera 22 that captured the image. presume. Furthermore, the processor 41 detects the position of the pupil of the eyeball from the image of the area AR2, and estimates the line-of-sight direction based on the orientation of the face and the installation position of the camera 22 .

プロセッサ41は、商品の姿勢、客の位置と視線方向、及びパッケージ情報をもとに、客が視認している外装の情報(視認対象情報)を判別する(Act7)。 The processor 41 determines the exterior information (visually recognized object information) visually recognized by the customer based on the posture of the product, the position and line-of-sight direction of the customer, and the package information (Act 7).

図8は、パッケージ情報が示す、ある商品のある面(例えば箱形状のパッケージの裏面)に付された複数の情報にそれぞれ対応する領域範囲OJ1~OJ7を示す図である。パッケージの裏面には、例えば商品名(OJ1)、原材料表示(OJ2)、アレルギー物質(OJ3)、注意書き(OJ4)、商品説明(OJ5)、栄養成分(OJ6)、保管方法(OJ7)などの情報が記載されている。パッケージ情報には、各情報に対応する領域範囲を示す領域情報が定義されている。 FIG. 8 is a diagram showing area ranges OJ1 to OJ7 corresponding to a plurality of pieces of information indicated by package information and attached to a certain surface of a product (for example, the back surface of a box-shaped package). On the back of the package, for example, the product name (OJ1), ingredients (OJ2), allergens (OJ3), precautions (OJ4), product description (OJ5), nutritional ingredients (OJ6), storage method (OJ7), etc. Information is provided. In the package information, area information indicating an area range corresponding to each piece of information is defined.

プロセッサ41は、客の視線方向が、領域情報が示す領域範囲OJ1~OJ7の何れに含まれるかを特定し、領域範囲(視認対象情報)毎に視認している時間を計測し、その時間を累積して記録する(Act8)。すなわち、プロセッサ41は、視認対象情報を示す面情報及び領域情報と対応づけて視認時間を記録していく。なお、予め設定された時間(例えば1秒)以上、継続して視線が領域に含まれている場合に視認していると判定しても良いし、単純に視線が領域内に含まれている時間を累積するようにしても良い。 The processor 41 identifies which of the area ranges OJ1 to OJ7 indicated by the area information includes the line-of-sight direction of the customer, measures the viewing time for each area range (viewing target information), and calculates the time. Accumulate and record (Act 8). That is, the processor 41 records the viewing time in association with the surface information and area information indicating the viewing target information. In addition, it may be determined that the line of sight is continuously included in the area for a preset time (for example, 1 second) or more, or simply the line of sight is included in the area. You may make it accumulate time.

プロセッサ41は、商品に対する視認が終了すると判別されるまで、前述したように、商品の姿勢の認識、視線の認識、視認対象情報の判別、視認時間の記録を繰り返して実行する(Act9,No→Act5~8)。 As described above, the processor 41 repeatedly executes the recognition of the posture of the product, the recognition of the line of sight, the determination of the information to be viewed, and the recording of the viewing time until it is determined that the viewing of the product has ended (Act 9, No→ Acts 5-8).

図9は、客による商品に対する視認の状況を示している。客は、商品を手にして情報を確認する場合には、視認対象とする面を顔側に向けて、その面に記載された関心のある情報に視線方向を向けて内容の確認を行う。複数の情報について関心があれば、対象とする情報に視線方向を変えて内容の確認を行う。また、客は、特定の面だけでなく、表面、裏面、側面など、視認対象とする面を代えるように商品の姿勢を代えて、それぞれ面に記載された情報の確認を行う。プロセッサ41は、こうした客による視認対象情報の変更に対応した処理を実行して、それぞれの視認対象情報についての視認時間を記録する。 FIG. 9 shows how customers visually recognize products. When the customer confirms the information by holding the product in hand, the customer turns the surface to be visually recognized toward the face side, directs the direction of the line of sight to the interesting information described on the surface, and confirms the contents. If the user is interested in multiple pieces of information, he or she changes the line of sight to the target information and confirms the content. In addition, the customer checks the information written on each surface by changing the posture of the product so as to change the surface to be visually recognized, such as the front, back, and side, in addition to the specific surface. The processor 41 executes processing corresponding to such change of the visual recognition target information by the customer, and records the visual recognition time for each visual recognition target information.

なお、前述した説明では、視認対象情報に対する視認時間の記録について説明しているが、視認対象情報に対する視認回数を同様にして記録することができる。例えば、プロセッサ41は、何れかの視認対象情報に対した視認をした後、一定時間が経過した後に、再び、同じ商品視認情報が視認対象となった場合に視認回数をカウントする。すなわち、同じ情報を何度も見直す場合には、客が特に興味を持つ情報である可能性が高いため、視認時間と共に視認回数を記録しておく。 In addition, although the recording of the viewing time for the viewing target information has been described in the above description, the number of viewing times for the viewing target information can be recorded in the same manner. For example, the processor 41 counts the number of times of visual recognition when the same product visual recognition information becomes a visual recognition target again after a certain period of time has elapsed after visual recognition of any visual recognition target information. That is, when reviewing the same information many times, it is likely that the information is of particular interest to the customer, so the number of viewing times is recorded together with the viewing time.

プロセッサ41は、客による商品に対する視認が終了したと判別された場合(Act9、No)、視認の対象としていた商品の対応する商品視認情報を商品視認情報データベース43Aに記録する。商品に対する視認の終了は、例えば客がカメラ22による撮影範囲から外れた、商品を商品棚13に戻した、商品に対する視認がない状態が一定時間以上続く、などの状況が検出された場合とする。 When it is determined that the customer has finished viewing the product (Act 9, No), the processor 41 records the corresponding product visual recognition information of the product to be viewed in the product visual recognition information database 43A. The end of the visual recognition of the product is detected when, for example, the customer has moved out of the shooting range of the camera 22, the product has been returned to the product shelf 13, or the product has not been visually recognized for a certain period of time or longer. .

プロセッサ41は、図6に示すように、視認対象としていた対象商品の商品コードと対応づけて、視認対象となった商品視認情報、視認時間、視認回数を対応づけて記録する(Act10)。客が商品に付された複数の情報について注目していた場合には、それぞれの商品視認情報に対応する視認時間、視認回数を対応づけて記録する。 As shown in FIG. 6, the processor 41 associates the product code of the target product, and records the product visibility information, viewing time, and number of times of viewing in association with each other (Act 10). When the customer pays attention to a plurality of pieces of information attached to the product, the viewing time and the number of times of viewing corresponding to each piece of product visual recognition information are recorded in association with each other.

プロセッサ41は、客が他の商品棚13に移動するなどして、他の商品について同様に手にとって(Act2、Yes)、外装に記録された情報の確認をしていることが検出される場合には(Act3~9)、前述と同様にして、対象商品の商品視認情報を商品視認情報データベース43Aに記録する(Act10)。 When the processor 41 detects that the customer moves to another product shelf 13 and similarly picks up another product (Act 2, Yes) to check the information recorded on the exterior. (Acts 3 to 9), in the same manner as described above, the product visual recognition information of the target product is recorded in the product visual recognition information database 43A (Act 10).

こうして、商品の外装に付された情報毎の視認時間と視認回数を商品視認情報に含めることで、客による情報毎の興味の度合いを推定できるデータを収集することができる。 In this way, by including the viewing time and the number of viewing times for each piece of information attached to the exterior of the product in the product viewing information, it is possible to collect data for estimating the degree of interest of the customer for each piece of information.

客による店舗10での購買行動が終了し、会計場で会計(決済処理)がされると、この客が購入した商品についての決済情報が購買データベース43Cに記録される(Act11、Yes)。 When the customer's purchase behavior at the store 10 is completed and accounting (settlement processing) is carried out at the checkout counter, settlement information on the product purchased by the customer is recorded in the purchase database 43C (Act 11, Yes).

プロセッサ41は、購買データベース43Cに記録された決済情報が示す客が購入された商品と、商品視認情報データベース43Aに記録された商品視認情報が示す客が興味を示した商品とを突合し、商品視認情報が記録された商品のうち何れの商品が実際に購入されているかを判別する。プロセッサ41は、突合することで判別された、例えば購入された商品に対応する商品コードが記録された商品視認情報に、購入されたことを示す購買情報を追加する(Act12)。 The processor 41 matches the product purchased by the customer indicated by the payment information recorded in the purchase database 43C with the product in which the customer is interested and indicated by the product visual recognition information recorded in the product visual recognition information database 43A, and visually recognizes the product. To discriminate which product is actually purchased among products whose information is recorded. The processor 41 adds purchase information indicating that the product has been purchased to the product visual information in which, for example, the product code corresponding to the purchased product determined by matching is recorded (Act 12).

こうして、購買情報を商品視認情報に追加することで、客が外装に記録された情報を視認した商品と実際に購入された商品との関連を推定することができるデータを収集することができる。 In this way, by adding the purchase information to the merchandise visual information, it is possible to collect data for estimating the relationship between the merchandise for which the customer visually recognizes the information recorded on the exterior and the actually purchased merchandise.

また、プロセッサ41は、商品視認情報に記録された顧客IDに対応する客属性情報を、例えば会員データベースなどから取得して商品視認情報に追加する。さらに、プロセッサ41は、通信装置44を通じて外部の機器から取得される天気、温度、湿度などの情報、日時の情報などを含む環境情報を商品視認情報に追加する(Act13)。 In addition, the processor 41 acquires customer attribute information corresponding to the customer ID recorded in the product visual recognition information from, for example, a member database and adds it to the product visual recognition information. Furthermore, the processor 41 adds environmental information including information on weather, temperature, humidity, etc. and information on date and time acquired from an external device through the communication device 44 to the commodity visual recognition information (Act 13).

こうして、客属性情報、環境情報を商品視認情報に追加することで、どのような環境下において、どのような客が、商品に関する何れの情報に注目するかを推定できるデータを収集することが可能となる。 In this way, by adding customer attribute information and environmental information to product visibility information, it is possible to collect data that can be used to estimate what kind of customer will pay attention to what information about the product under what kind of environment. becomes.

なお、前述した説明では、客が商品を手に取った場合に、この商品を視認対象としているが、客が商品を手に取っていない商品を視認対象としても良い。例えば、商品棚13に置かれた商品の位置を、例えば商品棚13の各棚位置と商品の形状情報などをもとに特定することにより、前述したように客の視線方向を検出して、商品の何れの情報を視認しているかを判別することができる。 In the above description, when the customer picks up the product, the product is viewed as the target, but the product may be viewed when the customer does not pick up the product. For example, by specifying the position of the product placed on the product shelf 13, for example, based on the position of each shelf of the product shelf 13 and the shape information of the product, etc., the line-of-sight direction of the customer is detected as described above, It is possible to determine which information of the product is visually recognized.

このようにして、本実施形態における購買行動データ収集システムでは、客が商品のどこをどれだけ見ているのかを認識し、客に関心があるパッケージ上の情報を特定して記録することで、客が商品に関する何の情報に関心を示しているかを示すデータを収集可能となる。これらのデータを収集することで、それぞれの商品が売れる、売れない理由をより具体的に推定可能となる。 In this way, the purchasing behavior data collection system in this embodiment recognizes where and how much the customer is looking at the product, and by specifying and recording the information on the package that the customer is interested in, It is possible to collect data indicating what information customers are interested in regarding products. By collecting these data, it becomes possible to more specifically estimate the reasons why each product sells or does not sell.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 While several embodiments of the invention have been described, these embodiments have been presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and modifications can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the scope of the invention described in the claims and equivalents thereof.

また、前述した実施の形態において記載した処理は、コンピュータに実行させることのできるプログラムとして、例えば磁気ディスク(フレキシブルディスク、ハードディスク等)、光ディスク(CD-ROM、DVD等)、半導体メモリなどの記録媒体に書き込んで各種装置に提供することができる。また、通信媒体により伝送して各種装置に提供することも可能である。コンピュータは、記録媒体に記録されたプログラムを読み込み、または通信媒体を介してプログラムを受信し、このプログラムによって動作が制御されることにより、上述した処理を実行する。 Further, the processing described in the above-described embodiments can be performed by using a recording medium such as a magnetic disk (flexible disk, hard disk, etc.), an optical disk (CD-ROM, DVD, etc.), a semiconductor memory, etc. as a program that can be executed by a computer. can be written to and provided to various devices. Moreover, it is also possible to transmit it by a communication medium and provide it to various devices. The computer reads a program recorded on a recording medium or receives the program via a communication medium, and executes the above-described processes by being controlled by the program.

10…店舗、11…売場、12…バックヤード、13…商品棚、20…画像入力システム、21,22…カメラ、23…カメラコントローラ、31…顧客認識装置、40…サーバ、41…プロセッサ、42…メインメモリ、43…補助記憶デバイス、43A…商品視認情報データベース、43B…パッケージ情報データベース、43C…購買データベース、43D…カメラ設置データベース、44…通信装置、46,47…I/Oインターフェース。 DESCRIPTION OF SYMBOLS 10... Store, 11... Sales floor, 12... Backyard, 13... Product shelf, 20... Image input system, 21, 22... Camera, 23... Camera controller, 31... Customer recognition device, 40... Server, 41... Processor, 42 Main memory 43 Auxiliary storage device 43A Merchandise visual recognition information database 43B Package information database 43C Purchasing database 43D Camera installation database 44 Communication device 46, 47 I/O interface.

Claims (6)

客の視線を認識する視線認識部と、
客による視認対象とする商品を特定する商品認識部と、
商品の姿勢を認識する商品姿勢認識部と、
特定された商品の外装に付された複数の情報を含むパッケージ情報を検索する商品情報検索部と、
客の視線、商品の姿勢、及びパッケージ情報をもとに、客が視認している商品の外装に付された情報を判別する視認情報判別部と
客が視認していると判別された情報を含む商品視認情報を記録させる情報記録部と
を有する購買行動データ収集システム。
a line-of-sight recognition unit that recognizes the line of sight of the customer;
a product recognition unit that identifies a product to be visually recognized by a customer;
a product posture recognition unit that recognizes the posture of a product;
a product information search unit that searches for package information including a plurality of pieces of information attached to the exterior of the specified product;
Based on the customer's line of sight, product orientation, and package information, the visual information discriminating unit discriminates the information attached to the exterior of the product that the customer is visually recognizing, and the information that is discriminated as being visually recognized by the customer. a purchasing behavior data collection system having an information recording unit for recording product visibility information including;
前記視認情報判別部は、客が視認していると判別された情報毎に視認時間を判別し、
前記情報記録部は、客が視認していると判別された情報と前記視認時間が関連づけられた前記商品視認情報を記録させる請求項1記載の購買行動データ収集システム。
The visual recognition information determination unit determines the visual recognition time for each information determined to be visually recognized by the customer,
2. The purchasing behavior data collection system according to claim 1, wherein the information recording unit records the product visual recognition information associated with the information determined to be visually recognized by the customer and the visual recognition time.
前記客を識別する客識別手段をさらに有し、
前記情報記録部は、前記客に関する客属性情報を含む前記商品視認情報を記録させる請求項1または請求項2記載の購買行動データ収集システム。
further comprising customer identification means for identifying the customer,
3. The purchasing behavior data collection system according to claim 1, wherein said information recording unit records said product visual recognition information including customer attribute information relating to said customer.
前記情報記録部は、客が購入した商品に関する購買情報を取得し、前記商品視認情報に含まれる前記情報に対応する商品に応じて、前記購買情報を含む前記商品視認情報を記録させる請求項1~3の何れかに記載の購買行動データ収集システム。 2. The information recording unit acquires purchase information relating to a product purchased by a customer, and records the product visual recognition information including the purchase information in accordance with the product corresponding to the information included in the product visual recognition information. 4. The purchase behavior data collection system according to any one of 1 to 3. 客による商品の視認がされた状況における環境情報を取得する取得手段をさらに有し、
前記情報記録部は、前記環境情報を含む前記商品視認情報を記録させる請求項1~4の何れかに記載の購買行動データ収集システム。
further comprising acquisition means for acquiring environmental information in a situation in which the product is visually recognized by the customer;
5. The purchasing behavior data collection system according to any one of claims 1 to 4, wherein the information recording unit records the product visual recognition information including the environment information.
コンピュータを、
客の視線を認識する視線認識部と、
客による視認対象とする商品を特定する商品認識部と、
商品の姿勢を認識する商品姿勢認識部と、
特定された商品の外装に付された複数の情報を含むパッケージ情報を検索する商品情報検索部と、
客の視線、商品の姿勢、及びパッケージ情報をもとに、客が視認している商品の外装に付された情報を判別する視認情報判別部と
客が視認していると判別された情報を含む商品視認情報を記録させる情報記録部として機能させるための購買行動データ収集プログラム。
the computer,
a line-of-sight recognition unit that recognizes the line of sight of the customer;
a product recognition unit that identifies a product to be visually recognized by a customer;
a product posture recognition unit that recognizes the posture of a product;
a product information search unit that searches for package information including a plurality of pieces of information attached to the exterior of the specified product;
Based on the customer's line of sight, product orientation, and package information, the visual information discriminating unit discriminates the information attached to the exterior of the product that the customer is visually recognizing, and the information that is discriminated as being visually recognized by the customer. Purchasing behavior data collection program for functioning as an information recording unit for recording product visibility information including;
JP2019171615A 2019-09-20 2019-09-20 Purchase behavior data collection system and purchase behavior data collection program Active JP7337625B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019171615A JP7337625B2 (en) 2019-09-20 2019-09-20 Purchase behavior data collection system and purchase behavior data collection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019171615A JP7337625B2 (en) 2019-09-20 2019-09-20 Purchase behavior data collection system and purchase behavior data collection program

Publications (2)

Publication Number Publication Date
JP2021047810A JP2021047810A (en) 2021-03-25
JP7337625B2 true JP7337625B2 (en) 2023-09-04

Family

ID=74878554

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019171615A Active JP7337625B2 (en) 2019-09-20 2019-09-20 Purchase behavior data collection system and purchase behavior data collection program

Country Status (1)

Country Link
JP (1) JP7337625B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013125293A (en) 2011-12-13 2013-06-24 Nikon Corp Information analysis system
JP2015111358A (en) 2013-12-06 2015-06-18 株式会社ニコン Electronic apparatus
WO2016038904A1 (en) 2014-09-08 2016-03-17 富士ゼロックス株式会社 Behavior detection device, behavior detection program, behavior detection method, and storage medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013084151A (en) * 2011-10-11 2013-05-09 Chugoku Electric Power Co Inc:The Cross selling promotion system and cross selling promotion method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013125293A (en) 2011-12-13 2013-06-24 Nikon Corp Information analysis system
JP2015111358A (en) 2013-12-06 2015-06-18 株式会社ニコン Electronic apparatus
WO2016038904A1 (en) 2014-09-08 2016-03-17 富士ゼロックス株式会社 Behavior detection device, behavior detection program, behavior detection method, and storage medium

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
清野誠喜,パッケージド・アグロフード・マーケティング,初版,株式会社白桃書房,2009年03月26日,第157-166ページ,ISBN:978-4-561-65179-6
落合拓朗、藤田智、益子宗、星野准一,視線情報に基づいた嗜好分析から商品推薦を行うVRショッピングシステム,情報処理学会 研究報告 ヒューマンコンピュータインタラクション[online],日本,情報処理学会,2019年07月15日,第1-7ページ,ISSN:2188-8760

Also Published As

Publication number Publication date
JP2021047810A (en) 2021-03-25

Similar Documents

Publication Publication Date Title
JP7371614B2 (en) Store management device and store management method
JP7260022B2 (en) Store equipment, store system, store management method, program
TWI778030B (en) Store apparatus, store management method and program
WO2017085771A1 (en) Payment assistance system, payment assistance program, and payment assistance method
US20200184444A1 (en) Method and system for anonymous checkout in a store
JP7225434B2 (en) Information processing system
US20110199486A1 (en) Customer behavior recording device, customer behavior recording method, and recording medium
JP7298594B2 (en) Store management device, store management method, and program
JP7092354B2 (en) Product information management device, product information management method and program
JP7545801B2 (en) Information processing system, method and program for controlling information processing system
WO2021240904A1 (en) Information processing device, information processing method, and program
JP2019139321A (en) Customer behavior analysis system and customer behavior analysis method
JP2024015277A (en) Information providing device and control program thereof
CN107833403A (en) Goods registration device and goods registration method, terminal device
JP7337625B2 (en) Purchase behavior data collection system and purchase behavior data collection program
JP6965713B2 (en) Information processing equipment and programs
US12026708B2 (en) Method and system for anonymous checkout in a store
JP2016167172A (en) Information processing method, information processing system, information processor and program thereof
US20170278112A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
JP7516635B2 (en) Information terminal and control program
JP7457049B2 (en) Support system, support processing device and support method
US20240152971A1 (en) Information processing device, content display system, and information processing method
JP2021076997A (en) Marketing system using camera
JP2022144490A (en) Store system and program
CN114333146A (en) Display cabinet, display cabinet information acquisition method and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220909

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230725

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230728

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230823

R150 Certificate of patent or registration of utility model

Ref document number: 7337625

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150