JP2016062564A - Information processing device, and information processing program - Google Patents

Information processing device, and information processing program Download PDF

Info

Publication number
JP2016062564A
JP2016062564A JP2014192715A JP2014192715A JP2016062564A JP 2016062564 A JP2016062564 A JP 2016062564A JP 2014192715 A JP2014192715 A JP 2014192715A JP 2014192715 A JP2014192715 A JP 2014192715A JP 2016062564 A JP2016062564 A JP 2016062564A
Authority
JP
Japan
Prior art keywords
tag
module
action
product
customer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014192715A
Other languages
Japanese (ja)
Inventor
公亮 村口
Kosuke Muraguchi
公亮 村口
昌嗣 外池
Masatsugu Sotoike
昌嗣 外池
祐介 宇野
Yusuke Uno
祐介 宇野
福井 基文
Motofumi Fukui
基文 福井
新宮 淳
Atsushi Shingu
淳 新宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2014192715A priority Critical patent/JP2016062564A/en
Publication of JP2016062564A publication Critical patent/JP2016062564A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing device for specifying a customer's action for looking at a tag of a commodity when counting the customer's action for each action.SOLUTION: An information processing device includes: determination means which determines a customer's action for looking at a tag of a commodity from an image in which the customer is captured; and counting means which counts each action determined by the determination means.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置及び情報処理プログラムに関する。   The present invention relates to an information processing apparatus and an information processing program.

特許文献1には、商品に興味を抱いた顧客の人数を正確に把握することを課題とし、操作部での所定の操作(押下操作)に応じて、記憶装置の不揮発性メモリに記憶されている操作回数をインクリメントし、操作部での所定の操作(押下操作)に応じて、記憶装置の不揮発性メモリに記憶されている価格のデータを読み出してこの読み出した価格のデータに基づく価格表示を表示部に一定時間表示させるようにしたことが開示されている。   In Patent Document 1, it is an object to accurately grasp the number of customers who are interested in a product, and is stored in a nonvolatile memory of a storage device according to a predetermined operation (pressing operation) in an operation unit. In response to a predetermined operation (pressing operation) on the operation unit, the price data stored in the nonvolatile memory of the storage device is read and a price display based on the read price data is displayed. It is disclosed that display is performed on the display unit for a certain period of time.

特許文献2には、棚やショースペース等に陳列されている商品に手を伸ばした客に対してその商品に関する当該客に特化した情報を提供できるようにすることを課題とし、情報端末装置は、対応する商品に手を伸ばしたユーザから当該ユーザを識別するユーザ識別情報を非接触により取得し、取得したユーザ識別情報を当該情報端末装置に対応する商品識別情報とともにサーバ装置に伝送し、サーバ装置は、各ユーザのユーザ識別情報と関連付けてそのユーザに関する属性情報を記憶し、各情報端末装置からユーザ識別情報及び商品識別情報を受信する毎に、そのユーザ識別情報と関連付けられて記憶されているユーザ属性情報を読み出し、このユーザ属性情報と商品群識別情報とを関連付けて処理することが開示されている。   In Patent Document 2, it is an object of the present invention to provide information specific to a customer related to the product to a customer who reaches for the product displayed on a shelf or a show space. Obtains user identification information for identifying the user from a user who has reached for the corresponding product without contact, and transmits the acquired user identification information together with the product identification information corresponding to the information terminal device to the server device, The server device stores attribute information related to the user in association with the user identification information of each user, and is stored in association with the user identification information every time the user identification information and the product identification information are received from each information terminal device. It is disclosed that the user attribute information is read and the user attribute information is associated with the product group identification information and processed.

特開2009−092794号公報JP 2009-092794 A 特開2007−114957号公報JP 2007-114957 A

本発明は、顧客の行動をその行動毎に計数する場合にあって、顧客による商品のタグを見るための行動を判定するようにした情報処理装置及び情報処理プログラムを提供することを目的としている。   An object of the present invention is to provide an information processing apparatus and an information processing program for determining an action for viewing a tag of a product by a customer when counting a customer's action for each action. .

かかる目的を達成するための本発明の要旨とするところは、次の各項の発明に存する。
請求項1の発明は、顧客が撮影されている画像から、該顧客による商品のタグを見るための行動を判定する判定手段と、前記判定手段によって判定された行動毎に計数する計数手段を具備することを特徴とする情報処理装置である。
The gist of the present invention for achieving the object lies in the inventions of the following items.
The invention of claim 1 comprises a determination means for determining an action for viewing a tag of a product by the customer from an image taken by the customer, and a counting means for counting each action determined by the determination means. It is an information processing apparatus characterized by doing.

請求項2の発明は、前記タグを見るためには前記商品に触れることが必要な位置に、該タグが取り付けられており、前記判定手段は、前記商品に触れた後に、前記タグを前記画像内で検知した場合は、前記顧客による該商品の該タグを見るための行動であると判定することを特徴とする請求項1に記載の情報処理装置である。   According to a second aspect of the present invention, the tag is attached to a position where it is necessary to touch the product in order to see the tag, and the determination means touches the product after touching the product. The information processing apparatus according to claim 1, wherein the information processing apparatus determines that the action is an action for viewing the tag of the product by the customer.

請求項3の発明は、前記画像を撮影する撮影手段と前記タグは隣り合った位置にあり、前記判定手段は、前記画像内で前記顧客の視線が前記撮影手段に向かっている場合は、該顧客による前記商品の前記タグを見るための行動であると判定することを特徴とする請求項1に記載の情報処理装置である。   According to a third aspect of the present invention, when the photographing means for photographing the image and the tag are adjacent to each other, and the determination means is located in the image when the line of sight of the customer faces the photographing means, The information processing apparatus according to claim 1, wherein the information processing apparatus determines that the action is for viewing the tag of the product by a customer.

請求項4の発明は、前記タグは、前記商品の下部に吊り下げられており、前記判定手段は、前記タグに触れたことを前記画像内で検知した場合は、前記顧客による前記商品の該タグを見るための行動であると判定することを特徴とする請求項1に記載の情報処理装置である。   According to a fourth aspect of the present invention, the tag is suspended from a lower part of the product, and when the determination means detects in the image that the tag is touched, The information processing apparatus according to claim 1, wherein the information processing apparatus determines that the action is for viewing a tag.

請求項5の発明は、商品にタグが吊り下げられており、該タグと予め定められた位置との間の距離が、予め定められた距離未満又は以下となった場合に、顧客による該商品の該タグを見るための行動であるとして判定する判定手段と、前記判定手段によって判定された行動毎に計数する計数手段を具備することを特徴とする情報処理装置である。   According to the invention of claim 5, when a tag is hung from the product, and the distance between the tag and a predetermined position is less than or less than a predetermined distance, the product by the customer An information processing apparatus comprising: determination means for determining that the action is for viewing the tag; and counting means for counting each action determined by the determination means.

請求項6の発明は、前記タグには、動きを検知する2つ以上の検知部が取り付けられており、前記判定手段は、一方の検知部が検知した動きと、他方の検知部が検知した動きが逆方向である場合に、前記顧客による前記商品の前記タグを見るための行動であると判定することを特徴とする請求項5に記載の情報処理装置である。   According to a sixth aspect of the present invention, the tag is provided with two or more detection units for detecting movement, and the determination means detects movement detected by one detection unit and detection by the other detection unit. The information processing apparatus according to claim 5, wherein when the movement is in a reverse direction, the information processing apparatus determines that the action is for viewing the tag of the product by the customer.

請求項7の発明は、コンピュータを、顧客が撮影されている画像から、該顧客による商品のタグを見るための行動を判定する判定手段と、前記判定手段によって判定された行動毎に計数する計数手段として機能させるための情報処理プログラムである。   According to the seventh aspect of the present invention, the computer counts for each action determined by the determination means, the determination means for determining the action for viewing the product tag by the customer from the image taken by the customer. An information processing program for functioning as a means.

請求項8の発明は、コンピュータを、商品にタグが吊り下げられており、該タグと予め定められた位置との間の距離が、予め定められた距離未満又は以下となった場合に、顧客による該商品の該タグを見るための行動であるとして判定する判定手段と、前記判定手段によって判定された行動毎に計数する計数手段として機能させるための情報処理プログラムである。   According to the invention of claim 8, when a tag is suspended from a product and the distance between the tag and a predetermined position is less than or less than a predetermined distance, The information processing program for functioning as a determination unit that determines that the action is for viewing the tag of the product and a counting unit that counts for each action determined by the determination unit.

請求項1の情報処理装置によれば、顧客の行動をその行動毎に計数する場合にあって、顧客による商品のタグを見るための行動を判定することができる。   According to the information processing apparatus of the first aspect, when the customer's behavior is counted for each behavior, it is possible to determine the behavior for the customer to see the product tag.

請求項2の情報処理装置によれば、タグを見るためには商品に触れることが必要な位置に、そのタグが取り付けられている場合に、タグを見るための行動を判定することができる。   According to the information processing apparatus of the second aspect, when the tag is attached to a position where it is necessary to touch the product in order to see the tag, it is possible to determine an action for viewing the tag.

請求項3の情報処理装置によれば、画像を撮影する撮影手段と前記タグは隣り合った位置にある場合に、タグを見るための行動を判定することができる。   According to the information processing apparatus of the third aspect, when the photographing means for photographing an image and the tag are adjacent to each other, an action for viewing the tag can be determined.

請求項4の情報処理装置によれば、タグが商品の下部に吊り下げられている場合に、タグを見るための行動を判定することができる。   According to the information processing apparatus of the fourth aspect, when the tag is suspended from the lower part of the product, it is possible to determine an action for viewing the tag.

請求項5の情報処理装置によれば、顧客の行動をその行動毎に計数する場合にあって、顧客による商品のタグを見るための行動を判定することができる。   According to the information processing apparatus of the fifth aspect, when the customer's behavior is counted for each behavior, it is possible to determine the behavior of the customer to see the product tag.

請求項6の情報処理装置によれば、タグに取り付けられた検知部が検知した動きによって、顧客による商品の前記タグを見るための行動であると判定することができる。   According to the information processing apparatus of the sixth aspect, it is possible to determine that it is an action for the customer to see the tag of the product by the movement detected by the detection unit attached to the tag.

請求項7の情報処理プログラムによれば、顧客の行動をその行動毎に計数する場合にあって、顧客による商品のタグを見るための行動を判定することができる。   According to the information processing program of the seventh aspect, when the customer's behavior is counted for each behavior, it is possible to determine the behavior for the customer to see the product tag.

請求項8の情報処理プログラムによれば、顧客の行動をその行動毎に計数する場合にあって、顧客による商品のタグを見るための行動を判定することができる。   According to the information processing program of the eighth aspect, when the customer's behavior is counted for each behavior, it is possible to determine the behavior for the customer to see the product tag.

第1の実施の形態の構成例についての概念的なモジュール構成図である。It is a conceptual module block diagram about the structural example of 1st Embodiment. 第1の実施の形態を実現する場合のシステム構成例を示す説明図である。It is explanatory drawing which shows the system configuration example in the case of implement | achieving 1st Embodiment. 第1の実施の形態による処理例(1)を示すフローチャートである。It is a flowchart which shows the process example (1) by 1st Embodiment. 第1の実施の形態による処理例(1)を示す説明図である。It is explanatory drawing which shows the process example (1) by 1st Embodiment. 第1の実施の形態による処理例(2)を示すフローチャートである。It is a flowchart which shows the process example (2) by 1st Embodiment. 第1の実施の形態による処理例(2)を示す説明図である。It is explanatory drawing which shows the process example (2) by 1st Embodiment. 第1の実施の形態による処理例(3)を示すフローチャートである。It is a flowchart which shows the process example (3) by 1st Embodiment. 第1の実施の形態による処理例(3)を示す説明図である。It is explanatory drawing which shows the process example (3) by 1st Embodiment. 第2の実施の形態の構成例についての概念的なモジュール構成図である。It is a conceptual module block diagram about the structural example of 2nd Embodiment. 第2の実施の形態を実現する場合のシステム構成例を示す説明図である。It is explanatory drawing which shows the system configuration example in the case of implement | achieving 2nd Embodiment. 第2の実施の形態による処理例を示すフローチャートである。It is a flowchart which shows the process example by 2nd Embodiment. 第2の実施の形態による処理例(1)を示す説明図である。It is explanatory drawing which shows the process example (1) by 2nd Embodiment. 第2の実施の形態で用いるタグの例を示す説明図である。It is explanatory drawing which shows the example of the tag used by 2nd Embodiment. 第2の実施の形態による処理例(2)を示す説明図である。It is explanatory drawing which shows the process example (2) by 2nd Embodiment. 動作・カウントテーブルのデータ構造例を示す説明図である。It is explanatory drawing which shows the example of a data structure of an operation | movement count table. 本実施の形態を実現するコンピュータのハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of the computer which implement | achieves this Embodiment.

以下、図面に基づき本発明を実現するにあたっての好適な各種の実施の形態の例を説明する。
図1は、第1の実施の形態の構成例についての概念的なモジュール構成図を示している。
なお、モジュールとは、一般的に論理的に分離可能なソフトウェア(コンピュータ・プログラム)、ハードウェア等の部品を指す。したがって、本実施の形態におけるモジュールはコンピュータ・プログラムにおけるモジュールのことだけでなく、ハードウェア構成におけるモジュールも指す。それゆえ、本実施の形態は、それらのモジュールとして機能させるためのコンピュータ・プログラム(コンピュータにそれぞれの手順を実行させるためのプログラム、コンピュータをそれぞれの手段として機能させるためのプログラム、コンピュータにそれぞれの機能を実現させるためのプログラム)、システム及び方法の説明をも兼ねている。ただし、説明の都合上、「記憶する」、「記憶させる」、これらと同等の文言を用いるが、これらの文言は、実施の形態がコンピュータ・プログラムの場合は、記憶装置に記憶させる、又は記憶装置に記憶させるように制御するの意である。また、モジュールは機能に1対1に対応していてもよいが、実装においては、1モジュールを1プログラムで構成してもよいし、複数モジュールを1プログラムで構成してもよく、逆に1モジュールを複数プログラムで構成してもよい。また、複数モジュールは1コンピュータによって実行されてもよいし、分散又は並列環境におけるコンピュータによって1モジュールが複数コンピュータで実行されてもよい。なお、1つのモジュールに他のモジュールが含まれていてもよい。また、以下、「接続」とは物理的な接続の他、論理的な接続(データの授受、指示、データ間の参照関係等)の場合にも用いる。「予め定められた」とは、対象としている処理の前に定まっていることをいい、本実施の形態による処理が始まる前はもちろんのこと、本実施の形態による処理が始まった後であっても、対象としている処理の前であれば、そのときの状況・状態に応じて、又はそれまでの状況・状態に応じて定まることの意を含めて用いる。「予め定められた値」が複数ある場合は、それぞれ異なった値であってもよいし、2以上の値(もちろんのことながら、全ての値も含む)が同じであってもよい。また、「Aである場合、Bをする」という意味を有する記載は、「Aであるか否かを判断し、Aであると判断した場合はBをする」の意味で用いる。ただし、Aであるか否かの判断が不要である場合を除く。
また、システム又は装置とは、複数のコンピュータ、ハードウェア、装置等がネットワーク(1対1対応の通信接続を含む)等の通信手段で接続されて構成されるほか、1つのコンピュータ、ハードウェア、装置等によって実現される場合も含まれる。「装置」と「システム」とは、互いに同義の用語として用いる。もちろんのことながら、「システム」には、人為的な取り決めである社会的な「仕組み」(社会システム)にすぎないものは含まない。
また、各モジュールによる処理毎に又はモジュール内で複数の処理を行う場合はその処理毎に、対象となる情報を記憶装置から読み込み、その処理を行った後に、処理結果を記憶装置に書き出すものである。したがって、処理前の記憶装置からの読み込み、処理後の記憶装置への書き出しについては、説明を省略する場合がある。なお、ここでの記憶装置としては、ハードディスク、RAM(Random Access Memory)、外部記憶媒体、通信回線を介した記憶装置、CPU(Central Processing Unit)内のレジスタ等を含んでいてもよい。
Hereinafter, examples of various preferred embodiments for realizing the present invention will be described with reference to the drawings.
FIG. 1 is a conceptual module configuration diagram of a configuration example according to the first embodiment.
The module generally refers to components such as software (computer program) and hardware that can be logically separated. Therefore, the module in the present embodiment indicates not only a module in a computer program but also a module in a hardware configuration. Therefore, the present embodiment is a computer program for causing these modules to function (a program for causing a computer to execute each procedure, a program for causing a computer to function as each means, and a function for each computer. This also serves as an explanation of the program and system and method for realizing the above. However, for the sake of explanation, the words “store”, “store”, and equivalents thereof are used. However, when the embodiment is a computer program, these words are stored in a storage device or stored in memory. It is the control to be stored in the device. In addition, the modules may correspond to the functions on a one-to-one basis. However, in implementation, one module may be configured by one program, or a plurality of modules may be configured by one program. A module may be composed of a plurality of programs. The plurality of modules may be executed by one computer, or one module may be executed by a plurality of computers in a distributed or parallel environment. Note that one module may include other modules. Hereinafter, “connection” is used not only for physical connection but also for logical connection (data exchange, instruction, reference relationship between data, etc.). “Predetermined” means that the process is determined before the target process, and not only before the process according to this embodiment starts but also after the process according to this embodiment starts. In addition, if it is before the target processing, it is used in accordance with the situation / state at that time or with the intention to be decided according to the situation / state up to that point. When there are a plurality of “predetermined values”, they may be different values, or two or more values (of course, including all values) may be the same. In addition, the description having the meaning of “do B when it is A” is used in the meaning of “determine whether or not it is A and do B when it is judged as A”. However, the case where it is not necessary to determine whether or not A is excluded.
In addition, the system or device includes a plurality of computers, hardware, devices, and the like connected by communication means such as a network (including one-to-one communication connection), etc., and one computer, hardware, The case where it implement | achieves by an apparatus etc. is also included. “Apparatus” and “system” are used as synonymous terms. Of course, the “system” does not include a social “mechanism” (social system) that is an artificial arrangement.
In addition, when performing a plurality of processes in each module or in each module, the target information is read from the storage device for each process, and the processing result is written to the storage device after performing the processing. is there. Therefore, description of reading from the storage device before processing and writing to the storage device after processing may be omitted. Here, the storage device may include a hard disk, a RAM (Random Access Memory), an external storage medium, a storage device via a communication line, a register in a CPU (Central Processing Unit), and the like.

第1の実施の形態である情報処理装置100は、顧客の行動を判定(特定)するものであって、図1の例に示すように、画像受付モジュール120、画像処理モジュール130、情報処理モジュール140、情報記録モジュール150を有している。
販売促進のための対策を立てるために、店内等で商品に対する顧客の行動(動作)を判定して、その行動を計数することが必要である。本実施の形態は、そのために利用されるものである。特に、商品に付されているタグに対する行動を判定する。なお、タグとは、その商品の属性が記載された札である。商品の属性として、例えば、値段、製造元、原材料等がある。具体的には、値札等が該当する。
The information processing apparatus 100 according to the first embodiment determines (identifies) the behavior of a customer. As illustrated in the example of FIG. 1, an image reception module 120, an image processing module 130, an information processing module 140 and an information recording module 150.
In order to take measures for sales promotion, it is necessary to determine customer behavior (actions) with respect to a product in a store or the like and to count the behavior. This embodiment is used for that purpose. In particular, an action for a tag attached to a product is determined. The tag is a tag on which the attribute of the product is described. Examples of product attributes include price, manufacturer, and raw material. Specifically, a price tag or the like is applicable.

撮影モジュール110は、情報処理装置100の画像受付モジュール120と接続されている。撮影モジュール110は、商品とその商品の周辺(商品エリアともいわれる)を撮影する。その商品エリアには、その商品を購入するため、その商品を確かめる等のために、顧客が入り込む。そのため、撮影モジュール110が撮影した画像には、商品とともに顧客が含まれていることがある。
具体的には、撮影モジュール110は、静止画又は動画を撮影するための2Dカメラ、3Dカメラ、サーモカメラ、全方位カメラ等である。また、撮影モジュール110は、固定されたものであってもよいし、角度、位置等を変更することができるものであってもよい。また、商品と撮影モジュール110との関係は、1対1であってもよいし、1対Nであってもよいし、N対1であってもよいし、N対Nであってもよい。本実施の形態では、1対1の場合を例として説明する。なお、N対1の場合は、後述するように商品を認識し、その商品毎に顧客の行動を判定すればよいし、1対Nの場合は、複数の画像から1つの商品又はその商品のタグに対する行動を判定し、多数決等を用いて、複数の判定結果から最終的な判定結果を得るようにすればよい。
The imaging module 110 is connected to the image reception module 120 of the information processing apparatus 100. The photographing module 110 photographs a product and the periphery of the product (also referred to as a product area). In order to purchase the product and confirm the product, the customer enters the product area. For this reason, the image captured by the imaging module 110 may include a customer along with the product.
Specifically, the shooting module 110 is a 2D camera, a 3D camera, a thermo camera, an omnidirectional camera, or the like for shooting a still image or a moving image. Further, the imaging module 110 may be fixed, or may be capable of changing the angle, position, and the like. The relationship between the product and the imaging module 110 may be one-to-one, one-to-N, N-to-one, or N-to-N. . In this embodiment, a one-to-one case will be described as an example. In the case of N to 1, as described later, it is sufficient to recognize a product and determine the customer's behavior for each product. In the case of 1 to N, one product or a product of the product from a plurality of images. What is necessary is just to determine the action with respect to a tag and to obtain a final determination result from a plurality of determination results by using majority vote or the like.

画像受付モジュール120は、撮影モジュール110、画像処理モジュール130と接続されている。画像受付モジュール120は、撮影モジュール110によって撮影された画像を受け付け、その画像を画像処理モジュール130に渡す。
画像処理モジュール130は、画像受付モジュール120、情報処理モジュール140と接続されている。画像処理モジュール130は、顧客特徴抽出モジュール132、タグ認識モジュール134を有している。
顧客特徴抽出モジュール132は、画像受付モジュール120によって受け付けられた画像から、顧客の特徴を抽出する。例えば、商品の位置、顧客の体、顧客の頭部の位置、手(腕を含む)の位置、視線の方向、顔の位置、目等を特徴として抽出する。例えば、撮影モジュール110によって撮影される商品は予め定められたものであり、その予め定められた商品の特徴(色、形状、大きさ等)を予め抽出しておき、辞書として記憶させておくことによって、画像内からその商品を認識することができる。また、人の認識、人の部位(手、頭等)の認識、視線の方向等は、既存の技術を用いて認識する。なお、位置としては、画像内の座標系における位置であってもよいし、商品との相対位置であってもよい。
タグ認識モジュール134は、画像受付モジュール120によって受け付けられた画像から、商品のタグを認識する。例えば、撮影モジュール110によって撮影されるタグは予め定められたものであり、その予め定められたタグの特徴(色、形状、大きさ等)を予め抽出しておき、辞書として記憶させておくことによって、画像内からそのタグを認識することができる。また、タグには、商品毎又は商品の種類毎に異なるマーク、情報画像(例えば、二次元コード等)等が記載されていてもよいし、特定波長に反応する塗料が塗られていてもよいし、特定波長(音)を発する装置が付与等されていてもよい。タグ認識モジュール134は、これらを認識する。なお、特定波長に反応等するタグの場合は、撮影モジュール110は、その特定波長に反応するセンサを備えていてもよい。
The image reception module 120 is connected to the photographing module 110 and the image processing module 130. The image receiving module 120 receives an image shot by the shooting module 110 and passes the image to the image processing module 130.
The image processing module 130 is connected to the image receiving module 120 and the information processing module 140. The image processing module 130 includes a customer feature extraction module 132 and a tag recognition module 134.
The customer feature extraction module 132 extracts customer features from the image received by the image receiving module 120. For example, the product position, customer body, customer head position, hand (including arm) position, line-of-sight direction, face position, eyes, and the like are extracted as features. For example, the product photographed by the photographing module 110 is predetermined, and features (color, shape, size, etc.) of the predetermined product are extracted in advance and stored as a dictionary. The product can be recognized from within the image. In addition, the recognition of a person, the recognition of a person's part (hand, head, etc.), the direction of the line of sight, etc. are recognized using existing techniques. In addition, as a position, the position in the coordinate system in an image may be sufficient, and a relative position with respect to goods may be sufficient.
The tag recognition module 134 recognizes a product tag from the image received by the image receiving module 120. For example, the tags photographed by the photographing module 110 are predetermined, and the characteristics (color, shape, size, etc.) of the predetermined tags are extracted in advance and stored as a dictionary. The tag can be recognized from within the image. In addition, the tag may include a mark, an information image (for example, a two-dimensional code) that is different for each product or each product type, or may be coated with a paint that reacts to a specific wavelength. In addition, a device that emits a specific wavelength (sound) may be provided. The tag recognition module 134 recognizes these. In the case of a tag that responds to a specific wavelength, the imaging module 110 may include a sensor that responds to the specific wavelength.

情報処理モジュール140は、画像処理モジュール130、情報記録モジュール150と接続されている。情報処理モジュール140は、行動特定モジュール142、視線検知モジュール144、計数モジュール146を有している。
行動特定モジュール142は、顧客が撮影されている画像から、その顧客による商品のタグを見るための行動を判定する。
行動特定モジュール142が、判定する行動として、商品エリアに顧客が入った行動、商品に触った行動、タグに触った行動、タグを取り出した行動、タグを元に戻した行動、商品を見た行動、タグを見た行動等がある。
例えば、タグを見るためには商品に触れることが必要な位置に、そのタグを取り付けられている場合、行動特定モジュール142は、商品に触れた後に、タグを画像内で検知した場合は、顧客による、その商品のそのタグを見るための行動であると判定する。この場合、タグは商品内にあり、そのタグを見るためには、その商品に触れることが必要な位置に取り付けられている。この判定処理については、図3、4を用いて後述する。
また、撮影モジュール110とタグは隣り合った位置にあり、行動特定モジュール142は、画像内で顧客の視線が撮影モジュール110に向かっている場合は、その顧客による商品のタグを見るための行動であると判定する。視線検知のために、視線検知モジュール144の処理結果を用いる。この判定処理については、図5、6を用いて後述する。
また、タグは、商品の下部に吊り下げられており、行動特定モジュール142は、タグに触れたことを画像内で検知した場合は、顧客による商品のそのタグを見るための行動であると判定する。この判定処理については、図7、8を用いて後述する。
The information processing module 140 is connected to the image processing module 130 and the information recording module 150. The information processing module 140 includes an action specifying module 142, a line-of-sight detection module 144, and a counting module 146.
The action specifying module 142 determines an action for viewing a tag of a product by the customer from an image in which the customer is taken.
The behavior identification module 142 saw the behavior that the customer entered the product area, the behavior that touched the product, the behavior that touched the tag, the behavior that took out the tag, the behavior that returned the tag, and the product as the behavior to be judged There are actions, actions that looked at the tag, and the like.
For example, when the tag is attached to a position where it is necessary to touch the product to see the tag, the behavior identifying module 142 detects the tag in the image after touching the product. It is determined that the action is for viewing the tag of the product. In this case, the tag is in the product and is attached to a position where it is necessary to touch the product in order to view the tag. This determination process will be described later with reference to FIGS.
In addition, when the photographing module 110 and the tag are adjacent to each other, and the customer's line of sight faces the photographing module 110 in the image, the behavior specifying module 142 is an action for seeing the tag of the product by the customer. Judge that there is. The processing result of the line-of-sight detection module 144 is used for line-of-sight detection. This determination process will be described later with reference to FIGS.
In addition, the tag is suspended from the lower part of the product, and when the action identifying module 142 detects that the tag has been touched in the image, the action is determined to be an action for the customer to see the tag of the product. To do. This determination process will be described later with reference to FIGS.

視線検知モジュール144は、顧客特徴抽出モジュール132による処理結果を用いて、顧客の視線を検知する。例えば、撮影モジュール110への視線である、撮影モジュール110以外のものへの視線である等を検知する。
計数モジュール146は、行動特定モジュール142によって判定された行動毎に計数する。つまり、その行動が行われた回数を計測する。前述の行動毎に計数してもよいし、予め定められた行動の回数を計数するようにしてもよい。
情報記録モジュール150は、情報処理モジュール140と接続されている。情報記録モジュール150は、計数モジュール146による計数結果を記憶する。また、顧客の行動を顧客の特徴と関連付けて記憶するようにしてもよい。
The line-of-sight detection module 144 detects the customer's line of sight using the processing result of the customer feature extraction module 132. For example, a line of sight to the imaging module 110 or a line of sight to something other than the imaging module 110 is detected.
The counting module 146 performs counting for each action determined by the action specifying module 142. That is, the number of times the action is performed is measured. You may make it count for every above-mentioned action, and you may make it count the frequency | count of predetermined action.
The information recording module 150 is connected to the information processing module 140. The information recording module 150 stores the counting result obtained by the counting module 146. Further, customer behavior may be stored in association with customer characteristics.

図2は、第1の実施の形態を実現する場合のシステム構成例を示す説明図である。
情報処理装置100、撮影モジュール110A、撮影モジュール110B、撮影モジュール110C、撮影モジュール110D、商品管理装置210は、通信回線290を介してそれぞれ接続されている。通信回線290は、無線、有線、これらの組み合わせであってもよく、例えば、通信インフラとしてのイントラネット、インターネット等であってもよい。撮影モジュール110は、1つの店舗内に商品毎に複数設置されていてもよいし、複数の店舗に設置されていてもよい。
商品管理装置210は、情報処理装置100による処理結果(情報記録モジュール150に記憶されている情報)を得て、ユーザにその情報等を提示する。また、POS(Point Of Sale system)等と連携して、購入された商品に対する顧客の行動と、購入には至らなかったが、商品エリアに入った顧客の行動を比較できるように提示するようにしてもよい。
FIG. 2 is an explanatory diagram showing an example of a system configuration when the first embodiment is realized.
The information processing apparatus 100, the imaging module 110 </ b> A, the imaging module 110 </ b> B, the imaging module 110 </ b> C, the imaging module 110 </ b> D, and the product management apparatus 210 are connected via a communication line 290. The communication line 290 may be wireless, wired, or a combination thereof, for example, an intranet as a communication infrastructure, the Internet, or the like. A plurality of photographing modules 110 may be installed for each product in one store, or may be installed in a plurality of stores.
The merchandise management apparatus 210 obtains a processing result (information stored in the information recording module 150) by the information processing apparatus 100 and presents the information and the like to the user. In addition, in cooperation with POS (Point Of Sale system), etc., the customer's behavior with respect to the purchased product should be presented so that the behavior of the customer who did not purchase but entered the product area can be compared. May be.

図3は、第1の実施の形態による処理例(1)を示すフローチャートである。
ステップS302では、撮影モジュール110が、商品エリア内を撮影する。
ステップS304では、画像受付モジュール120が、画像を受け付ける。
ステップS306では、顧客特徴抽出モジュール132が、その画像から顧客の特徴を抽出する。
ステップS308では、タグ認識モジュール134が、その画像からタグを認識する。
ステップS310では、行動特定モジュール142が、顧客の行動を特定する。
ステップS312では、行動特定モジュール142が、特定された行動を判断する。その行動が、商品エリアに顧客が入った行動であればステップS314へ進み、商品又はタグに触った行動であればステップS316へ進み、タグを取り出した行動であればステップS318へ進み、タグを元に戻した行動であればステップS320へ進む。
ステップS314では、計数モジュール146が、商品エリアに顧客が入った行動をカウントする。
ステップS316では、計数モジュール146が、商品又はタグに触った行動をカウントする。
ステップS318では、計数モジュール146が、タグを取り出した行動をカウントする。
ステップS320では、計数モジュール146が、タグを元に戻した行動をカウントする。
ステップS322では、計数モジュール146が、情報記録モジュール150にカウント結果を記録する。
FIG. 3 is a flowchart illustrating a processing example (1) according to the first embodiment.
In step S302, the imaging module 110 images the product area.
In step S304, the image reception module 120 receives an image.
In step S306, the customer feature extraction module 132 extracts customer features from the image.
In step S308, the tag recognition module 134 recognizes a tag from the image.
In step S310, the behavior identifying module 142 identifies the customer's behavior.
In step S312, the action specifying module 142 determines the specified action. If the action is an action in which the customer has entered the product area, the process proceeds to step S314. If the action touches the product or the tag, the process proceeds to step S316. If the action is to take out the tag, the process proceeds to step S318. If the action has been restored, the process proceeds to step S320.
In step S314, the counting module 146 counts an action in which a customer enters the product area.
In step S316, the counting module 146 counts an action that touches a product or a tag.
In step S318, the counting module 146 counts the action of taking out the tag.
In step S320, the counting module 146 counts the action of returning the tag.
In step S322, the counting module 146 records the count result in the information recording module 150.

図4は、第1の実施の形態による処理例(1)を示す説明図である。特に、ステップS310での、行動特定モジュール142が、顧客の行動を特定する処理例について説明する。以下、店舗としてアパレル店、商品としてシャツを例にして説明する。
この例では、撮影モジュール110は、店舗の天井に取り付けられており、商品エリアを撮影する。したがって、その撮影画像は、図4内の画像欄の例のように、顧客の頭430、手440、シャツ410を上から撮影したものである。
また、タグ420を見るためにはシャツ410に触れることが必要な位置に、タグ420が取り付けられている。例えば、シャツ410の内側に取り付けられていてもよいし、シャツ410のボタンの間にタグ420が裏返って入っているようにしてもよい。なお、図4内の画像欄の例では、タグ420も記載したが、図4(C)以外の場合は、シャツ410内にあり、画像内では撮影されていない。
FIG. 4 is an explanatory diagram illustrating a processing example (1) according to the first embodiment. In particular, an example of processing in which the behavior identifying module 142 identifies customer behavior in step S310 will be described. Hereinafter, an apparel store as a store and a shirt as a product will be described as an example.
In this example, the imaging module 110 is attached to the ceiling of the store and images a product area. Therefore, the photographed image is obtained by photographing the customer's head 430, hand 440, and shirt 410 from above, as in the example of the image column in FIG.
Further, the tag 420 is attached at a position where it is necessary to touch the shirt 410 in order to see the tag 420. For example, the tag 410 may be attached to the inside of the shirt 410, or the tag 420 may be turned upside down between the buttons of the shirt 410. In the example of the image column in FIG. 4, the tag 420 is also described. However, in the case other than FIG. 4C, it is in the shirt 410 and is not photographed in the image.

図4の例では、時間軸400の矢印の方向に進むとする。
図4(A)の例では、顧客が商品エリアに入った行動を検知した例を示している。これは、顧客(顧客の頭430、手440等)が撮影されていない状態から、顧客の頭430等が予め定められた時間以上とどまっていることを検知した場合に、顧客が商品エリアに入った行動として判定すればよい。
図4(B)の例では、シャツ410のタグ420を手に取った場合を示している。顧客の手440がシャツ410内の領域に入り、予め定められた時間以上とどまったことを検知することによって、「商品に触った行動」であると判定する。
図4(C)の例では、シャツ410のタグ420を読むためにタグ420を取り出した場合を示している。図4(B)の例の状態から、手440(又はタグ420)がシャツ410の領域から予め定められた距離だけ離れ、予め定められた時間以上とどまったことを検知することによって、「タグを取り出した行動」であると判定する。なお、ここでの「予め定められた距離」として、タグ420をシャツ410に取り付けるためのひも425の長さとしてもよい。なお、この「タグを取り出した行動」を「タグを見るための行動」としてもよい。
図4(D)の例では、シャツ410のタグ420を見終わり、戻した場合を示している。図4(C)の例の状態から、顧客の手440がシャツ410から離れたことを検知することによって、「タグを元に戻した行動」であると判定する。
In the example of FIG. 4, it is assumed that the process proceeds in the direction of the arrow on the time axis 400.
In the example of FIG. 4 (A), an example is shown in which the behavior of the customer entering the product area is detected. This is because when the customer (customer's head 430, hand 440, etc.) is not photographed and it is detected that the customer's head 430, etc. stays for a predetermined time or more, the customer enters the product area. It may be determined as an action.
In the example of FIG. 4B, the case where the tag 420 of the shirt 410 is picked up is shown. By detecting that the customer's hand 440 enters the area within the shirt 410 and stays for a predetermined time or more, it is determined that the action is “touching the product”.
In the example of FIG. 4C, a case where the tag 420 is taken out to read the tag 420 of the shirt 410 is shown. From the state of the example of FIG. 4B, by detecting that the hand 440 (or tag 420) is away from the area of the shirt 410 by a predetermined distance and stays for a predetermined time or longer, the “tag. It is determined that the action is “taken out”. Here, as the “predetermined distance”, the length of the string 425 for attaching the tag 420 to the shirt 410 may be used. The “behavior for taking out the tag” may be set as “behavior for viewing the tag”.
In the example of FIG. 4D, the case where the tag 420 of the shirt 410 has been viewed and returned is shown. By detecting that the customer's hand 440 has moved away from the shirt 410 from the state of the example of FIG. 4C, it is determined that the action is “an action that returned the tag to the original”.

図5は、第1の実施の形態による処理例(2)を示すフローチャートである。
ステップS502では、撮影モジュール110が、商品エリア内を撮影する。
ステップS504では、画像受付モジュール120が、画像を受け付ける。
ステップS506では、顧客特徴抽出モジュール132が、その画像から顧客の特徴を抽出する。
ステップS508では、行動特定モジュール142が、行動を特定する。
ステップS510では、行動特定モジュール142が、特定された行動を判断する。その行動が、商品エリアに顧客が入った行動であればステップS512へ進み、商品を見た行動であればステップS514へ進み、商品を触った行動であればステップS516へ進み、タグを見た行動であればステップS518へ進む。
ステップS512では、計数モジュール146が、商品エリアに顧客が入った行動をカウントする。
ステップS514では、計数モジュール146が、商品を見た行動をカウントする。
ステップS516では、計数モジュール146が、商品を触った行動をカウントする。
ステップS518では、計数モジュール146が、タグを見た行動をカウントする。
ステップS520では、計数モジュール146が、情報記録モジュール150にカウント結果を記録する。
FIG. 5 is a flowchart illustrating a processing example (2) according to the first embodiment.
In step S502, the imaging module 110 captures the product area.
In step S504, the image reception module 120 receives an image.
In step S506, the customer feature extraction module 132 extracts customer features from the image.
In step S508, the action specifying module 142 specifies an action.
In step S510, the action specifying module 142 determines the specified action. If the action is an action in which the customer is in the product area, the process proceeds to step S512. If the action is the action of viewing the product, the process proceeds to step S514. If the action is the action of touching the product, the process proceeds to step S516. If it is action, it will progress to step S518.
In step S512, the counting module 146 counts an action in which a customer enters the product area.
In step S514, the counting module 146 counts the behavior of seeing the product.
In step S516, the counting module 146 counts the action of touching the product.
In step S518, the counting module 146 counts actions that have seen the tag.
In step S520, the counting module 146 records the count result in the information recording module 150.

図6は、第1の実施の形態による処理例(2)を示す説明図である。特に、ステップS508での、行動特定モジュール142が、顧客の行動を特定する処理例について説明する。
この例では、撮影モジュール110(図ではカメラ690)は、タグ620と隣り合った位置に設置されている。また、シャツ610も撮影するために、シャツ610と離れた位置に設置するようにしてもよい。具体的には、図6の例では、商品の下側(床)にタグ620がついており、その横にカメラ690を設置しており、斜め上前方を撮影している。
FIG. 6 is an explanatory diagram illustrating a processing example (2) according to the first embodiment. In particular, an example of processing in which the behavior identifying module 142 identifies customer behavior in step S508 will be described.
In this example, the imaging module 110 (camera 690 in the figure) is installed at a position adjacent to the tag 620. Further, in order to photograph the shirt 610, the shirt 610 may be installed at a position away from the shirt 610. Specifically, in the example of FIG. 6, a tag 620 is attached to the lower side (floor) of the product, a camera 690 is installed beside the tag 620, and an image of the upper front side is taken.

図6(A)の例では、顧客が左手でシャツ610に触った場合を示している。
顧客630が撮影されていない状態から、顧客630等が予め定められた時間以上とどまっていることを検知した場合に、顧客が商品エリアに入った行動として判定すればよい。
そして、視線検知モジュール144がシャツ610への視線であることを検知し、その視線が予め定められた時間以上ある場合に、「商品を見た行動」であると判定する。なお、視線検知モジュール144は、眼球650内の瞳孔651の位置がシャツ610の方向であることを検知することによって、シャツ610への視線であると検知してもよい。さらに、眼球650内の白目652の位置がシャツ610とは逆方向であることを検知することによって、シャツ610への視線であると検知してもよい、
また、顧客の左手640がシャツ610内の領域に入り、予め定められた時間以上とどまったことを検知することによって、「商品に触った行動」であると判定する。
図6(B)の例では、顧客がタグ620を見ている場合を示している。
視線検知モジュール144がカメラ690への視線であることを検知し、その視線が予め定められた時間以上ある場合、「タグを見た行動」であると判定する。なお、タグ620とカメラ690は隣り合っているので、カメラ690への視線とはタグ620への視線であるとしてよい。視線検知モジュール144は、眼球654内の瞳孔655の位置が眼球654内の中央であることを検知することによって、カメラ690への視線であると検知してもよい。また、眼球654内の瞳孔655が白目656に囲まれているという位置関係、眼球654内の瞳孔655の面積割合が予め定められた閾値以上である場合等にカメラ690への視線であると検知するようにしてもよい。なお、左手640は、シャツ610に触っている状態である左手644の位置であってもよいし、シャツ610から離れた状態である左手642の位置であってもよい。なお、この「タグを見た行動」を「タグを見るための行動」としてもよい。
In the example of FIG. 6A, the case where the customer touches the shirt 610 with the left hand is shown.
When it is detected that the customer 630 has stayed for a predetermined time or more from a state in which the customer 630 is not photographed, it may be determined that the customer has entered the product area.
Then, when the line-of-sight detection module 144 detects that the line of sight is directed to the shirt 610 and the line of sight is longer than a predetermined time, the line-of-sight detection module 144 determines that the action is “seeing the product”. The line-of-sight detection module 144 may detect the line of sight to the shirt 610 by detecting that the position of the pupil 651 in the eyeball 650 is in the direction of the shirt 610. Further, by detecting that the position of the white eye 652 in the eyeball 650 is opposite to the shirt 610, it may be detected that the line of sight to the shirt 610 is present.
Further, by detecting that the customer's left hand 640 has entered the area in the shirt 610 and stayed for a predetermined time or more, it is determined that the action is “touching a product”.
In the example of FIG. 6B, the case where the customer is looking at the tag 620 is shown.
When the line-of-sight detection module 144 detects that it is a line of sight to the camera 690 and the line of sight is longer than or equal to a predetermined time, it is determined that the action is “seeing the tag”. Since the tag 620 and the camera 690 are adjacent to each other, the line of sight to the camera 690 may be the line of sight to the tag 620. The line-of-sight detection module 144 may detect that it is the line of sight to the camera 690 by detecting that the position of the pupil 655 in the eyeball 654 is the center in the eyeball 654. Further, when the pupil 655 in the eyeball 654 is surrounded by the white eye 656, or when the area ratio of the pupil 655 in the eyeball 654 is greater than or equal to a predetermined threshold, the line of sight to the camera 690 is detected. You may make it do. Note that the left hand 640 may be the position of the left hand 644 that is touching the shirt 610, or may be the position of the left hand 642 that is away from the shirt 610. The “behavior for seeing the tag” may be set as “behavior for seeing the tag”.

図7は、第1の実施の形態による処理例(3)を示すフローチャートである。
ステップS702では、撮影モジュール110が、商品エリア内を撮影する。
ステップS704では、画像受付モジュール120が、画像を受け付ける。
ステップS706では、顧客特徴抽出モジュール132が、その画像から顧客の特徴を抽出する。
ステップS708では、タグ認識モジュール134が、その画像からタグを認識する。
ステップS710では、行動特定モジュール142が、行動を特定する。
ステップS712では、行動特定モジュール142が、特定された行動を判断する。その行動が、商品エリアに顧客が入った行動であればステップS714へ進み、商品を触った行動であればステップS716へ進み、タグを触った行動であればステップS718へ進む。
ステップS714では、計数モジュール146が、商品エリアに顧客が入った行動をカウントする。
ステップS716では、計数モジュール146が、商品を触った行動をカウントする。
ステップS718では、計数モジュール146が、タグを触った行動をカウントする。
ステップS720では、計数モジュール146が、情報記録モジュール150にカウント結果を記録する。
FIG. 7 is a flowchart illustrating a processing example (3) according to the first embodiment.
In step S <b> 702, the imaging module 110 images the product area.
In step S704, the image reception module 120 receives an image.
In step S706, the customer feature extraction module 132 extracts customer features from the image.
In step S708, the tag recognition module 134 recognizes a tag from the image.
In step S710, the action specifying module 142 specifies an action.
In step S712, the action specifying module 142 determines the specified action. If the action is an action in which a customer has entered the product area, the process proceeds to step S714. If the action has touched the product, the process proceeds to step S716. If the action has touched the tag, the process proceeds to step S718.
In step S714, the counting module 146 counts the behavior that the customer has entered the product area.
In step S716, the counting module 146 counts the action of touching the product.
In step S718, the counting module 146 counts actions that touch the tag.
In step S720, the counting module 146 records the count result in the information recording module 150.

図8は、第1の実施の形態による処理例(3)を示す説明図である。特に、ステップS710での、行動特定モジュール142が、顧客の行動を特定する処理例について説明する。
この例では、撮影モジュール110は、商品エリアを横から撮影するように取り付けられている。つまり、シャツ810、顧客830を側面から撮影する位置である。
また、タグ820は、シャツ810の下部に吊り下げられている状態で取り付けられている。したがって、顧客が撮影されていない状態の画像では、シャツ810とタグ820が重なった位置にはないこととなる。つまり、シャツ810は上部の領域にあり、それより下の領域にタグ820が撮影されていることになる。また、タグ820は、吊り下げられている状態で上下が逆になっていてもよい。この場合、顧客が、タグ820の内容を見るためには、タグ820を手に取る可能性が高まるためである。
FIG. 8 is an explanatory diagram illustrating a processing example (3) according to the first embodiment. In particular, an example of processing in which the behavior identifying module 142 identifies customer behavior in step S710 will be described.
In this example, the photographing module 110 is attached so as to photograph the product area from the side. That is, it is a position where the shirt 810 and the customer 830 are photographed from the side.
The tag 820 is attached in a state of being suspended from the lower part of the shirt 810. Therefore, in the image in which the customer is not photographed, the shirt 810 and the tag 820 are not in the overlapping position. That is, the shirt 810 is in the upper area, and the tag 820 is photographed in the area below it. Moreover, the tag 820 may be turned upside down in a suspended state. In this case, in order for the customer to see the contents of the tag 820, the possibility of picking up the tag 820 increases.

図8(A)の例では、顧客が手840でシャツ810に触った場合を示している。
顧客830が撮影されていない状態から、顧客830等が予め定められた時間以上とどまっていることを検知した場合に、顧客が商品エリアに入った行動として判定すればよい。
そして、手840がシャツ810内の領域に入り、予め定められた時間以上とどまったことを検知することによって、「商品に触った行動」であると判定する。
図8(B)の例では、顧客がタグ820に触った場合を示している。
手842がタグ820内の領域に入り、予め定められた時間以上とどまったことを検知することによって、「タグに触った行動」であると判定する。なお、この「タグに触った行動」を「タグを見るための行動」としてもよい。
In the example of FIG. 8A, the case where the customer touches the shirt 810 with the hand 840 is shown.
When it is detected that the customer 830 has stayed for a predetermined time or more from a state in which the customer 830 is not photographed, it may be determined that the customer has entered the product area.
Then, by detecting that the hand 840 enters the region in the shirt 810 and stays for a predetermined time or longer, it is determined that the action is “touching a product”.
In the example of FIG. 8B, a case where the customer touches the tag 820 is shown.
By detecting that the hand 842 enters the area in the tag 820 and stays for a predetermined time or longer, it is determined that the action is “touching the tag”. Note that this “behavior touching the tag” may be “behavior for viewing the tag”.

図9は、第2の実施の形態の構成例についての概念的なモジュール構成図である。
第2の実施の形態である情報処理装置900は、顧客の行動を判定するものであって、図9の例に示すように、検出情報受付モジュール920、情報処理モジュール940、情報記録モジュール950を有している。
本実施の形態では、商品にタグが吊り下げられている。そして、そのタグには、距離を計測するための機器が取り付けられている。例えば、電波の強弱によって距離を測定することが可能なRFID(Radio Frequency IDentifier)等であってもよい。そして、そのタグに取り付けられた機器と無線通信を行う機器が商品の近辺に設置されている。例えば、商品が服である場合は、ハンガー等にその機器を埋め込んでいてもよい。この場合、タグが顧客によって触られた状態でのタグとハンガー間の距離は、タグが吊り下げられた状態でのタグとハンガー間の距離とは異なる。タグを手に取った状態での距離を異ならせる確実性を高めるために、商品の下部にタグを吊り下げるようにしてもよい。
FIG. 9 is a conceptual module configuration diagram of a configuration example according to the second embodiment.
The information processing apparatus 900 according to the second embodiment determines customer behavior. As shown in the example of FIG. 9, the information processing apparatus 900 includes a detection information receiving module 920, an information processing module 940, and an information recording module 950. Have.
In the present embodiment, a tag is suspended from the product. A device for measuring the distance is attached to the tag. For example, it may be an RFID (Radio Frequency IDentifier) that can measure the distance by the strength of radio waves. And the apparatus which performs wireless communication with the apparatus attached to the tag is installed in the vicinity of goods. For example, when the product is clothes, the device may be embedded in a hanger or the like. In this case, the distance between the tag and the hanger when the tag is touched by the customer is different from the distance between the tag and the hanger when the tag is suspended. In order to increase the certainty of different distances in the state where the tag is picked up, the tag may be suspended from the lower part of the product.

検出モジュール910は、情報処理装置900の検出情報受付モジュール920と接続されている。検出モジュール910は、前述のように、タグに取り付けられた機器と予め定められた位置との間の距離を検出する。
検出情報受付モジュール920は、検出モジュール910、情報処理モジュール940と接続されている。検出情報受付モジュール920は、検出モジュール910によって検出された距離を受け付け、情報処理モジュール940に渡す。
情報処理モジュール940は、検出情報受付モジュール920、情報記録モジュール950と接続されている。情報処理モジュール940は、行動特定モジュール942、計数モジュール946を有している。
行動特定モジュール942は、タグと予め定められた位置との間の距離が、予め定められた距離未満又は以下となった場合に、顧客によるその商品のそのタグを見るための行動であるとして判定する。ここで「予め定められた位置」として、例えば、タグに取り付けられた機器と対応する機器が備え付けられている機器(例えば、前述のハンガー)の位置がある。また、「予め定められた距離」とは、タグが吊り下げられた状態(つまり、顧客がタグに触っていない状態)における、タグと予め定められた位置との間の距離である。顧客がタグに触った場合(手に取った場合)は、タグと予め定められた位置とは近くなる。したがって、前述の条件(タグと予め定められた位置との間の距離が、予め定められた距離未満又は以下となった場合)を満たす場合は、顧客によるその商品のそのタグを見るための行動であるとして判定する。
計数モジュール946は、計数モジュール146と同等の機能を有する。
情報記録モジュール950は、情報処理モジュール940と接続されている。情報記録モジュール950は、情報記録モジュール150と同等の機能を有する。
The detection module 910 is connected to the detection information reception module 920 of the information processing apparatus 900. As described above, the detection module 910 detects the distance between the device attached to the tag and a predetermined position.
The detection information receiving module 920 is connected to the detection module 910 and the information processing module 940. The detection information reception module 920 receives the distance detected by the detection module 910 and passes it to the information processing module 940.
The information processing module 940 is connected to the detection information receiving module 920 and the information recording module 950. The information processing module 940 includes an action specifying module 942 and a counting module 946.
The action specifying module 942 determines that the action is for the customer to see the tag of the product when the distance between the tag and the predetermined position is less than or less than the predetermined distance. To do. Here, as the “predetermined position”, for example, there is a position of a device (for example, the aforementioned hanger) provided with a device corresponding to the device attached to the tag. The “predetermined distance” is a distance between the tag and a predetermined position in a state where the tag is suspended (that is, a state where the customer does not touch the tag). When the customer touches the tag (when picked up), the tag and the predetermined position are close. Therefore, if the above conditions are met (if the distance between the tag and the predetermined position is less than or less than the predetermined distance), the customer's action to view the tag of the product It judges with being.
The counting module 946 has a function equivalent to that of the counting module 146.
The information recording module 950 is connected to the information processing module 940. The information recording module 950 has the same function as the information recording module 150.

図10は、第2の実施の形態を実現する場合のシステム構成例を示す説明図である。
情報処理装置900、検出モジュール910A、検出モジュール910B、検出モジュール910C、検出モジュール910D、商品管理装置210は、通信回線290を介してそれぞれ接続されている。図2の例に示したシステム構成例と同等のものであり、撮影モジュール110を検出モジュール910に、情報処理装置100を情報処理装置900に変更したものである。
FIG. 10 is an explanatory diagram illustrating an example of a system configuration when the second embodiment is realized.
The information processing apparatus 900, the detection module 910A, the detection module 910B, the detection module 910C, the detection module 910D, and the product management apparatus 210 are connected via a communication line 290, respectively. This is the same as the system configuration example shown in the example of FIG. 2, and the imaging module 110 is changed to the detection module 910 and the information processing apparatus 100 is changed to the information processing apparatus 900.

図11は、第2の実施の形態による処理例を示すフローチャートである。
ステップS1102では、検出モジュール910が、センサ・電波送信モジュール1225の状態を検出する。
ステップS1104では、検出情報受付モジュール920が、状態情報を受け付ける。
ステップS1106では、行動特定モジュール942が、行動を特定する。
ステップS1108では、行動特定モジュール942が、特定された行動を判断する。その行動が、商品を触った行動であればステップS1110へ進み、タグを触った行動であればステップS1112へ進む。
ステップS1110では、計数モジュール946が、商品を触った行動をカウントする。
ステップS1112では、計数モジュール946が、タグを触った行動をカウントする。
ステップS1114では、計数モジュール946が、情報記録モジュール950にカウント結果を記録する。
FIG. 11 is a flowchart illustrating a processing example according to the second exemplary embodiment.
In step S1102, the detection module 910 detects the state of the sensor / radio wave transmission module 1225.
In step S1104, the detection information receiving module 920 receives state information.
In step S1106, the action specifying module 942 specifies an action.
In step S1108, the action specifying module 942 determines the specified action. If the action is an action touching a product, the process proceeds to step S1110, and if the action is an action touching a tag, the process proceeds to step S1112.
In step S <b> 1110, the counting module 946 counts actions that touched the product.
In step S1112, the counting module 946 counts actions that touch the tag.
In step S1114, the counting module 946 records the count result in the information recording module 950.

図12は、第2の実施の形態による処理例(1)を示す説明図である。特に、ステップS1106での、行動特定モジュール942が、顧客の行動を特定する処理例について説明する。
図12(A)の例に示すように、センサ・電波送信モジュール1225は、シャツ1210の下部に吊り下げられている。タグ1220にセンサ・電波送信モジュール1225が取り付けられている。そして、ハンガー1255には電波送受信モジュール1250が取り付けられている。センサ・電波送信モジュール1225は電波送受信モジュール1250との通信を行い、電波送受信モジュール1250は、センサ・電波送信モジュール1225までの距離を計測する。そして、計測した距離を検出情報受付モジュール920に送信する。また、センサ・電波送信モジュール1225には加速度センサ等が取り付けられており、タグ1220(センサ・電波送信モジュール1225)の動きを検知し、その動きを示す情報を電波送受信モジュール1250に送信し、電波送受信モジュール1250はその動きを示す情報を検出情報受付モジュール920に送信する。具体的には、上下左右の動きを検出し、電波でその動きの情報を発信する。
顧客1230が手1240でシャツ1210を触った場合は、タグ1220が揺れる可能性が高い。したがって、センサ・電波送信モジュール1225の加速度センサ等によって動きが検知された場合であって、センサ・電波送信モジュール1225と電波送受信モジュール1250間の距離が予め定められた距離であるとき(又は動きの前後で距離の変化が予め定められた範囲に収まっているとき)は、「商品を触った行動」であると判定する。
図12(B)に示す例のように、顧客1230が手1242でタグ1220を触った場合は、センサ・電波送信モジュール1225と電波送受信モジュール1250との距離が、図12(A)に示す例の場合よりも短くなる。したがって、センサ・電波送信モジュール1225の加速度センサ等によって動きが検知された場合であって、センサ・電波送信モジュール1225と電波送受信モジュール1250間の距離が予め定められた距離未満又は以下である場合は、「タグを触った行動」であると判定する。さらに、この判定のための条件として、センサ・電波送信モジュール1225の加速度センサ等によって動きが検知されたことを付加してもよい。なお、この「タグに触った行動」を「タグを見るための行動」としてもよい。
FIG. 12 is an explanatory diagram illustrating a processing example (1) according to the second embodiment. In particular, a description will be given of a processing example in which the behavior identifying module 942 identifies the behavior of the customer in step S1106.
As shown in the example of FIG. 12A, the sensor / radio wave transmission module 1225 is suspended from the lower portion of the shirt 1210. A sensor / radio wave transmission module 1225 is attached to the tag 1220. A radio wave transmission / reception module 1250 is attached to the hanger 1255. The sensor / radio wave transmission module 1225 communicates with the radio wave transmission / reception module 1250, and the radio wave transmission / reception module 1250 measures the distance to the sensor / radio wave transmission module 1225. Then, the measured distance is transmitted to the detection information receiving module 920. Further, an acceleration sensor or the like is attached to the sensor / radio wave transmission module 1225, detects the movement of the tag 1220 (sensor / radio wave transmission module 1225), transmits information indicating the movement to the radio wave transmission / reception module 1250, and transmits the radio wave. The transmission / reception module 1250 transmits information indicating the movement to the detection information reception module 920. Specifically, the movement of up, down, left, and right is detected, and information on the movement is transmitted by radio waves.
When customer 1230 touches shirt 1210 with hand 1240, tag 1220 is likely to shake. Therefore, when motion is detected by an acceleration sensor or the like of the sensor / radio wave transmission module 1225 and the distance between the sensor / radio wave transmission module 1225 and the radio wave transmission / reception module 1250 is a predetermined distance (or motion When the change in the distance before and after is within a predetermined range), it is determined that the action is a touching product.
When the customer 1230 touches the tag 1220 with the hand 1242 as in the example shown in FIG. 12B, the distance between the sensor / radio wave transmission module 1225 and the radio wave transmission / reception module 1250 is the example shown in FIG. It becomes shorter than the case of. Therefore, when movement is detected by an acceleration sensor or the like of the sensor / radio wave transmission module 1225 and the distance between the sensor / radio wave transmission module 1225 and the radio wave transmission / reception module 1250 is less than or less than a predetermined distance, , It is determined that the action is “touching the tag”. Furthermore, as a condition for this determination, it may be added that the motion is detected by the acceleration sensor of the sensor / radio wave transmission module 1225 or the like. Note that this “behavior touching the tag” may be “behavior for viewing the tag”.

図13は、第2の実施の形態で用いるタグ1300の例を示す説明図である。図12の例で示したタグ1220は、タグ1220の一方を糸で吊り下げる一般的なものであるが、図13の例に示すタグ1300であってもよい。
タグ1300には、4つの糸1390(糸1390A、糸1390B、糸1390C、糸1390D)が4角に取り付けられ、タグ1300を床と平行に保つようにしている。なお、タグ1300を床と平行に保つようになるのであれば、糸1390は4本でなくてもよいし(例えば、3本、5本等)、また他の装置(治具)を用いて吊り下げるようにしてもよい。
そして、タグ1300には、動きを検知するセンサ・電波送信モジュール1310が2つ(センサ・電波送信モジュール1310A、センサ・電波送信モジュール1310B)取り付けられている。センサ・電波送信モジュール1310は、タグ1300に記載されている文字等(図形等も含む)が読める向きの上下に1つずつが望ましい。つまり、文字等を読むために、タグ1300を傾ける必要があるが、その際に、一方のセンサ・電波送信モジュール1310は上方向に移動し、他方のセンサ・電波送信モジュール1310は下方向に移動することになる。また、タグ1300内の文字等は、裏側(通常の状態では見られない側)に記載されているのが望ましい。文字等を読むためには、タグ1300を手に取らざるを得ないからである。センサ・電波送信モジュール1310は、1つのタグ1300に対して、3つ以上取り付けるようにしてもよい。
FIG. 13 is an explanatory diagram illustrating an example of a tag 1300 used in the second embodiment. The tag 1220 shown in the example of FIG. 12 is a general tag that suspends one of the tags 1220 with a thread, but may be the tag 1300 shown in the example of FIG.
Four threads 1390 (thread 1390A, thread 1390B, thread 1390C, thread 1390D) are attached to the tag 1300 at four corners to keep the tag 1300 parallel to the floor. If the tag 1300 is to be kept parallel to the floor, the number of the threads 1390 may not be four (for example, three, five, etc.), and other devices (jigs) may be used. You may make it hang.
The tag 1300 is provided with two sensors / radio wave transmission modules 1310 (sensor / radio wave transmission module 1310A, sensor / radio wave transmission module 1310B) for detecting movement. The sensor / radio wave transmission module 1310 is desirably provided one above and one below in a direction in which characters (including graphics) described on the tag 1300 can be read. In other words, in order to read characters or the like, it is necessary to tilt the tag 1300. At that time, one sensor / radio wave transmission module 1310 moves upward, and the other sensor / radio wave transmission module 1310 moves downward. Will do. In addition, it is desirable that characters and the like in the tag 1300 are written on the back side (side that cannot be seen in a normal state). This is because the tag 1300 must be picked up in order to read characters and the like. Three or more sensors / radio wave transmission modules 1310 may be attached to one tag 1300.

図14は、第2の実施の形態によるタグ1300を用いた処理例(2)を示す説明図である。
(1)あるアパレル店において、顧客が商品1410を手に取ると、商品1410についているタグ1300に取り付けられている2つのセンサ・電波送信モジュール1310A、センサ・電波送信モジュール1310Bが信号を発信し、電波受信モジュール1450がその信号を受信する。なお、電波受信モジュール1450は、センサ・電波送信モジュール1310A、1310Bから発信された電波情報を受信する。商品種類毎に取り付けられている。また、電波情報が発信された加速度センサが取り付けられている商品情報を有している。
電波受信モジュール1450に予め記録されている商品1410の情報と、センサ・電波送信モジュール1310A、センサ・電波送信モジュール1310Bの動作情報を併せて情報処理装置1460に送信する。センサ・電波送信モジュール1310A、センサ・電波送信モジュール1310Bの動作情報は、共に「z軸正方向(上方向)」である場合、情報処理装置900としての機能を有する情報処理装置1460(行動特定モジュール942)によって「商品が手に取られた」と判定され、情報記録モジュール950としての機能を有する情報記録モジュール1470に記録される。このように、両方のセンサ・電波送信モジュール1310が検知した動きが同じ方向への動きである場合は、「商品が手に取られた」と判定する。
FIG. 14 is an explanatory diagram illustrating a processing example (2) using the tag 1300 according to the second embodiment.
(1) In a certain apparel store, when a customer picks up a product 1410, two sensors / radio wave transmission modules 1310A and sensors / radio wave transmission modules 1310B attached to a tag 1300 attached to the product 1410 transmit signals, The radio wave receiving module 1450 receives the signal. The radio wave reception module 1450 receives radio wave information transmitted from the sensor / radio wave transmission modules 1310A and 1310B. It is attached to each product type. Moreover, it has the product information to which the acceleration sensor to which the radio wave information is transmitted is attached.
Information on the product 1410 recorded in advance in the radio wave receiving module 1450 and operation information of the sensor / radio wave transmission module 1310A and sensor / radio wave transmission module 1310B are transmitted to the information processing apparatus 1460 together. When the operation information of the sensor / radio wave transmission module 1310A and the sensor / radio wave transmission module 1310B is “z-axis positive direction (upward)”, the information processing device 1460 having a function as the information processing device 900 (behavior specifying module) 942), it is determined that “a product has been picked up” and recorded in the information recording module 1470 having the function as the information recording module 950. As described above, when the movements detected by both the sensors / radio wave transmission modules 1310 are movements in the same direction, it is determined that “the product has been picked up by the hand”.

(2)その後、顧客がタグ1300を手に取った(又は裏返した)とすると、(1)の場合と同様にセンサ・電波送信モジュール1310A、センサ・電波送信モジュール1310Bから発信された信号を電波受信モジュール1450が受信し、商品1410の情報と共に情報処理装置1460へ情報を送信する。センサ・電波送信モジュール1310A、センサ・電波送信モジュール1310Bの動作情報は、それぞれ「z軸正方向(上方向)」と「z軸負方向(下方向)」であり、情報処理装置1460(行動特定モジュール942)によって「タグに触った行動」(又は「タグを裏返した行動」)と判定され、情報記録モジュール1470に記録される。なお、この「タグに触った行動」(又は「タグを裏返した行動」)を「タグを見るための行動」としてもよい。つまり、一方のセンサ・電波送信モジュール1310が検知した動きと、他方のセンサ・電波送信モジュール1310が検知した動きが逆方向である場合に、顧客による商品のタグを見るための行動であると判定する。 (2) After that, if the customer picks up the tag 1300 (or turns it over), the signals transmitted from the sensor / radio wave transmission module 1310A and the sensor / radio wave transmission module 1310B are converted into radio waves as in the case of (1). The reception module 1450 receives the information and transmits the information to the information processing apparatus 1460 together with the information about the product 1410. The operation information of the sensor / radio wave transmission module 1310A and the sensor / radio wave transmission module 1310B is “z-axis positive direction (upward)” and “z-axis negative direction (downward)”, respectively. It is determined by the module 942) as “behavior touching the tag” (or “behavior turning the tag over”) and recorded in the information recording module 1470. The “behavior touching the tag” (or “behavior turning the tag upside down”) may be set as “behavior for viewing the tag”. That is, when the movement detected by one sensor / radio wave transmission module 1310 and the movement detected by the other sensor / radio wave transmission module 1310 are in the opposite direction, it is determined that the action is for the customer to see the product tag. To do.

図15は、動作・カウントテーブル1500のデータ構造例を示す説明図である。動作・カウントテーブル1500は、第1の実施の形態、第2の実施の形態における情報記録モジュール150、情報記録モジュール950(情報記録モジュール1470)に記録される処理結果である。
動作・カウントテーブル1500は、動作欄1510、カウント欄1520を有している。動作欄1510は、行動を記憶している。カウント欄1520は、その行動が行われた回数を記憶している。
また処理結果として、行動が行われた日時(年、月、日、時、分、秒、秒以下、又はこれらの組み合わせであってもよい)等を含めてもよい。
これらの処理結果を用いて、例えば、「商品が手に取られている行動」は「その商品に興味あり」と判断してもよいし、「タグを見るための行動」は「その商品の値段に興味あり」と判断してもよいし、予め定められた時間内に行動が複数回検出されている場合は、1人(同じ顧客)による行動であると判断してもよい。これらの判断結果をリアルタイムで店員に通知するようにしてもよい。
FIG. 15 is an explanatory diagram showing an example of the data structure of the operation / count table 1500. The operation / count table 1500 is a result of processing recorded in the information recording module 150 and the information recording module 950 (information recording module 1470) in the first embodiment and the second embodiment.
The operation / count table 1500 has an operation column 1510 and a count column 1520. The action column 1510 stores actions. The count column 1520 stores the number of times that the action has been performed.
Further, the processing result may include the date and time when the action was performed (may be year, month, day, hour, minute, second, second or less, or a combination thereof).
Using these processing results, for example, “an action in which a product is picked up” may be determined to be “interested in the product”, and “an action for viewing a tag” may be “in the product”. It may be determined that the user is interested in the price, or if an action is detected a plurality of times within a predetermined time, it may be determined that the action is by one person (same customer). You may make it notify a salesclerk of these judgment results in real time.

図16を参照して、本実施の形態の情報処理装置(情報処理装置100、情報処理装置900)のハードウェア構成例について説明する。図16に示す構成は、例えばパーソナルコンピュータ(PC)等によって構成されるものであり、スキャナ等のデータ読み取り部1617と、プリンタ等のデータ出力部1618を備えたハードウェア構成例を示している。   A hardware configuration example of the information processing apparatus (the information processing apparatus 100 or the information processing apparatus 900) according to the present embodiment will be described with reference to FIG. The configuration illustrated in FIG. 16 is configured by, for example, a personal computer (PC) or the like, and illustrates a hardware configuration example including a data reading unit 1617 such as a scanner and a data output unit 1618 such as a printer.

CPU(Central Processing Unit)1601は、前述の実施の形態において説明した各種のモジュール、すなわち、画像受付モジュール120、画像処理モジュール130、顧客特徴抽出モジュール132、タグ認識モジュール134、情報処理モジュール140、行動特定モジュール142、視線検知モジュール144、計数モジュール146、検出情報受付モジュール920、情報処理モジュール940、行動特定モジュール942、計数モジュール946等の各モジュールの実行シーケンスを記述したコンピュータ・プログラムにしたがった処理を実行する制御部である。   A CPU (Central Processing Unit) 1601 includes various modules described in the above-described embodiments, that is, the image reception module 120, the image processing module 130, the customer feature extraction module 132, the tag recognition module 134, the information processing module 140, an action Processing according to a computer program describing the execution sequence of each module such as the identification module 142, the line-of-sight detection module 144, the counting module 146, the detection information receiving module 920, the information processing module 940, the behavior identifying module 942, the counting module 946, and the like. A control unit to be executed.

ROM(Read Only Memory)1602は、CPU1601が使用するプログラムや演算パラメータ等を格納する。RAM(Random Access Memory)1603は、CPU1601の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を格納する。これらはCPUバス等から構成されるホストバス1604により相互に接続されている。   A ROM (Read Only Memory) 1602 stores programs, calculation parameters, and the like used by the CPU 1601. A RAM (Random Access Memory) 1603 stores programs used in the execution of the CPU 1601, parameters that change as appropriate during the execution, and the like. These are connected to each other by a host bus 1604 including a CPU bus or the like.

ホストバス1604は、ブリッジ1605を介して、PCI(Peripheral Component Interconnect/Interface)バス等の外部バス1606に接続されている。   The host bus 1604 is connected to an external bus 1606 such as a PCI (Peripheral Component Interconnect / Interface) bus through a bridge 1605.

キーボード1608、マウス等のポインティングデバイス1609は、操作者により操作される入力デバイスである。ディスプレイ1610は、液晶表示装置又はCRT(Cathode Ray Tube)等があり、各種情報をテキストやイメージ情報として表示する。   A keyboard 1608 and a pointing device 1609 such as a mouse are input devices operated by an operator. The display 1610 includes a liquid crystal display device or a CRT (Cathode Ray Tube), and displays various types of information as text or image information.

HDD(Hard Disk Drive)1611は、ハードディスクを内蔵し、ハードディスクを駆動し、CPU1601によって実行するプログラムや情報を記録又は再生させる。ハードディスクには、画像、検出情報、計数結果等が格納される。さらに、その他の各種のデータ処理プログラム等、各種コンピュータ・プログラムが格納される。   An HDD (Hard Disk Drive) 1611 includes a hard disk, drives the hard disk, and records or reproduces a program executed by the CPU 1601 and information. The hard disk stores images, detection information, counting results, and the like. Further, various computer programs such as various other data processing programs are stored.

ドライブ1612は、装着されている磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体1613に記録されているデータ又はプログラムを読み出して、そのデータ又はプログラムを、インタフェース1607、外部バス1606、ブリッジ1605、及びホストバス1604を介して接続されているRAM1603に供給する。リムーバブル記録媒体1613も、ハードディスクと同様のデータ記録領域として利用可能である。   The drive 1612 reads data or a program recorded on a removable recording medium 1613 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and the data or program is read out from the interface 1607 and the external bus 1606. , A bridge 1605, and a RAM 1603 connected via the host bus 1604. The removable recording medium 1613 can also be used as a data recording area similar to the hard disk.

接続ポート1614は、外部接続機器1615を接続するポートであり、USB、IEEE1394等の接続部を持つ。接続ポート1614は、インタフェース1607、及び外部バス1606、ブリッジ1605、ホストバス1604等を介してCPU1601等に接続されている。通信部1616は、通信回線に接続され、外部とのデータ通信処理を実行する。データ読み取り部1617は、例えばスキャナであり、ドキュメントの読み取り処理を実行する。データ出力部1618は、例えばプリンタであり、ドキュメントデータの出力処理を実行する。   The connection port 1614 is a port for connecting an external connection device 1615 and has a connection unit such as USB, IEEE1394. The connection port 1614 is connected to the CPU 1601 and the like via the interface 1607, the external bus 1606, the bridge 1605, the host bus 1604, and the like. A communication unit 1616 is connected to a communication line and executes data communication processing with the outside. The data reading unit 1617 is a scanner, for example, and executes document reading processing. The data output unit 1618 is a printer, for example, and executes document data output processing.

なお、図16に示す情報処理装置のハードウェア構成は、1つの構成例を示すものであり、本実施の形態は、図16に示す構成に限らず、本実施の形態において説明したモジュールを実行可能な構成であればよい。例えば、一部のモジュールを専用のハードウェア(例えば特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)等)で構成してもよく、一部のモジュールは外部のシステム内にあり通信回線で接続しているような形態でもよく、さらに図16に示すシステムが複数互いに通信回線によって接続されていて互いに協調動作するようにしてもよい。また、複写機、ファックス、スキャナ、プリンタ、複合機(スキャナ、プリンタ、複写機、ファックス等のいずれか2つ以上の機能を有している画像処理装置)等に組み込まれていてもよい。   Note that the hardware configuration of the information processing apparatus shown in FIG. 16 shows one configuration example, and the present embodiment is not limited to the configuration shown in FIG. 16, and the modules described in this embodiment are executed. Any configuration is possible. For example, some modules may be configured with dedicated hardware (for example, Application Specific Integrated Circuit (ASIC), etc.), and some modules are in an external system and connected via a communication line In addition, a plurality of systems shown in FIG. 16 may be connected to each other via communication lines so as to cooperate with each other. Further, it may be incorporated in a copying machine, a fax machine, a scanner, a printer, a multifunction machine (an image processing apparatus having any two or more functions such as a scanner, a printer, a copying machine, and a fax machine).

また、前述の実施の形態の説明において、予め定められた値との比較において、「以上」、「以下」、「より大きい」、「より小さい(未満)」としたものは、その組み合わせに矛盾が生じない限り、それぞれ「より大きい」、「より小さい(未満)」、「以上」、「以下」としてもよい。   Further, in the description of the above-described embodiment, “more than”, “less than”, “greater than”, and “less than (less than)” in a comparison with a predetermined value contradicts the combination. As long as the above does not occur, “larger”, “smaller (less than)”, “more”, and “less” may be used.

なお、説明したプログラムについては、記録媒体に格納して提供してもよく、また、そのプログラムを通信手段によって提供してもよい。その場合、例えば、前記説明したプログラムについて、「プログラムを記録したコンピュータ読み取り可能な記録媒体」の発明として捉えてもよい。
「プログラムを記録したコンピュータ読み取り可能な記録媒体」とは、プログラムのインストール、実行、プログラムの流通等のために用いられる、プログラムが記録されたコンピュータで読み取り可能な記録媒体をいう。
なお、記録媒体としては、例えば、デジタル・バーサタイル・ディスク(DVD)であって、DVDフォーラムで策定された規格である「DVD−R、DVD−RW、DVD−RAM等」、DVD+RWで策定された規格である「DVD+R、DVD+RW等」、コンパクトディスク(CD)であって、読出し専用メモリ(CD−ROM)、CDレコーダブル(CD−R)、CDリライタブル(CD−RW)等、ブルーレイ・ディスク(Blu−ray(登録商標) Disc)、光磁気ディスク(MO)、フレキシブルディスク(FD)、磁気テープ、ハードディスク、読出し専用メモリ(ROM)、電気的消去及び書換可能な読出し専用メモリ(EEPROM(登録商標))、フラッシュ・メモリ、ランダム・アクセス・メモリ(RAM)、SD(Secure Digital)メモリーカード等が含まれる。
そして、前記のプログラム又はその一部は、前記記録媒体に記録して保存や流通等させてもよい。また、通信によって、例えば、ローカル・エリア・ネットワーク(LAN)、メトロポリタン・エリア・ネットワーク(MAN)、ワイド・エリア・ネットワーク(WAN)、インターネット、イントラネット、エクストラネット等に用いられる有線ネットワーク、又は無線通信ネットワーク、さらにこれらの組み合わせ等の伝送媒体を用いて伝送させてもよく、また、搬送波に乗せて搬送させてもよい。
さらに、前記のプログラムは、他のプログラムの一部分であってもよく、又は別個のプログラムと共に記録媒体に記録されていてもよい。また、複数の記録媒体に分割して記録されていてもよい。また、圧縮や暗号化等、復元可能であればどのような態様で記録されていてもよい。
The program described above may be provided by being stored in a recording medium, or the program may be provided by communication means. In that case, for example, the above-described program may be regarded as an invention of a “computer-readable recording medium recording the program”.
The “computer-readable recording medium on which a program is recorded” refers to a computer-readable recording medium on which a program is recorded, which is used for program installation, execution, program distribution, and the like.
The recording medium is, for example, a digital versatile disc (DVD), which is a standard established by the DVD Forum, such as “DVD-R, DVD-RW, DVD-RAM,” and DVD + RW. Standard “DVD + R, DVD + RW, etc.”, compact disc (CD), read-only memory (CD-ROM), CD recordable (CD-R), CD rewritable (CD-RW), Blu-ray disc ( Blu-ray (registered trademark) Disc), magneto-optical disk (MO), flexible disk (FD), magnetic tape, hard disk, read-only memory (ROM), electrically erasable and rewritable read-only memory (EEPROM (registered trademark)) )), Flash memory, Random access memory (RAM) SD (Secure Digital) memory card and the like.
The program or a part of the program may be recorded on the recording medium for storage or distribution. Also, by communication, for example, a local area network (LAN), a metropolitan area network (MAN), a wide area network (WAN), a wired network used for the Internet, an intranet, an extranet, or a wireless communication It may be transmitted using a transmission medium such as a network or a combination of these, or may be carried on a carrier wave.
Furthermore, the program may be a part of another program, or may be recorded on a recording medium together with a separate program. Moreover, it may be divided and recorded on a plurality of recording media. Further, it may be recorded in any manner as long as it can be restored, such as compression or encryption.

100…情報処理装置
110…撮影モジュール
120…画像受付モジュール
130…画像処理モジュール
132…顧客特徴抽出モジュール
134…タグ認識モジュール
140…情報処理モジュール
142…行動特定モジュール
144…視線検知モジュール
146…計数モジュール
150…情報記録モジュール
210…商品管理装置
290…通信回線
900…情報処理装置
910…検出モジュール
920…検出情報受付モジュール
940…情報処理モジュール
942…行動特定モジュール
946…計数モジュール
950…情報記録モジュール
1450…電波受信モジュール
1460…情報処理装置
1470…情報記録モジュール
DESCRIPTION OF SYMBOLS 100 ... Information processing apparatus 110 ... Image pick-up module 120 ... Image reception module 130 ... Image processing module 132 ... Customer feature extraction module 134 ... Tag recognition module 140 ... Information processing module 142 ... Action specification module 144 ... Gaze detection module 146 ... Count module 150 ... information recording module 210 ... merchandise management device 290 ... communication line 900 ... information processing device 910 ... detection module 920 ... detection information receiving module 940 ... information processing module 942 ... action specifying module 946 ... counting module 950 ... information recording module 1450 ... radio wave Receiving module 1460 ... Information processing device 1470 ... Information recording module

Claims (8)

顧客が撮影されている画像から、該顧客による商品のタグを見るための行動を判定する判定手段と、
前記判定手段によって判定された行動毎に計数する計数手段
を具備することを特徴とする情報処理装置。
A determination means for determining an action for viewing a tag of a product by the customer from an image in which the customer is photographed;
An information processing apparatus comprising: a counting unit that counts for each action determined by the determination unit.
前記タグを見るためには前記商品に触れることが必要な位置に、該タグが取り付けられており、
前記判定手段は、前記商品に触れた後に、前記タグを前記画像内で検知した場合は、前記顧客による該商品の該タグを見るための行動であると判定する
ことを特徴とする請求項1に記載の情報処理装置。
The tag is attached to a position where it is necessary to touch the product in order to see the tag,
The said determination means, when the said tag is detected in the said image after touching the said product, it determines with it being the action for seeing the said tag of the said product by the said customer. The information processing apparatus described in 1.
前記画像を撮影する撮影手段と前記タグは隣り合った位置にあり、
前記判定手段は、前記画像内で前記顧客の視線が前記撮影手段に向かっている場合は、該顧客による前記商品の前記タグを見るための行動であると判定する
ことを特徴とする請求項1に記載の情報処理装置。
The photographing means for photographing the image and the tag are adjacent to each other,
The said determination means determines that it is the action for seeing the said tag of the said product by the customer, when the eyes | visual_axis of the said customer is facing the said imaging | photography means in the said image. The information processing apparatus described in 1.
前記タグは、前記商品の下部に吊り下げられており、
前記判定手段は、前記タグに触れたことを前記画像内で検知した場合は、前記顧客による前記商品の該タグを見るための行動であると判定する
ことを特徴とする請求項1に記載の情報処理装置。
The tag is suspended at the bottom of the product,
The said determination means determines that it is the action for seeing the said tag of the said goods by the said customer, when it detects in the said image that the said tag was touched. Information processing device.
商品にタグが吊り下げられており、該タグと予め定められた位置との間の距離が、予め定められた距離未満又は以下となった場合に、顧客による該商品の該タグを見るための行動であるとして判定する判定手段と、
前記判定手段によって判定された行動毎に計数する計数手段
を具備することを特徴とする情報処理装置。
A tag is hung on the product, and the customer can view the tag of the product when the distance between the tag and the predetermined position is less than or less than the predetermined distance. A determination means for determining that the action is an action;
An information processing apparatus comprising: a counting unit that counts for each action determined by the determination unit.
前記タグには、動きを検知する2つ以上の検知部が取り付けられており、
前記判定手段は、一方の検知部が検知した動きと、他方の検知部が検知した動きが逆方向である場合に、前記顧客による前記商品の前記タグを見るための行動であると判定する
ことを特徴とする請求項5に記載の情報処理装置。
Two or more detection parts for detecting movement are attached to the tag,
When the movement detected by one detection unit and the movement detected by the other detection unit are in the opposite direction, the determination unit determines that the action is for the customer to see the tag of the product. The information processing apparatus according to claim 5.
コンピュータを、
顧客が撮影されている画像から、該顧客による商品のタグを見るための行動を判定する判定手段と、
前記判定手段によって判定された行動毎に計数する計数手段
として機能させるための情報処理プログラム。
Computer
A determination means for determining an action for viewing a tag of a product by the customer from an image in which the customer is photographed;
An information processing program for functioning as counting means for counting each action determined by the determining means.
コンピュータを、
商品にタグが吊り下げられており、該タグと予め定められた位置との間の距離が、予め定められた距離未満又は以下となった場合に、顧客による該商品の該タグを見るための行動であるとして判定する判定手段と、
前記判定手段によって判定された行動毎に計数する計数手段
として機能させるための情報処理プログラム。
Computer
A tag is hung on the product, and the customer can view the tag of the product when the distance between the tag and the predetermined position is less than or less than the predetermined distance. A determination means for determining that the action is an action;
An information processing program for functioning as counting means for counting each action determined by the determining means.
JP2014192715A 2014-09-22 2014-09-22 Information processing device, and information processing program Pending JP2016062564A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014192715A JP2016062564A (en) 2014-09-22 2014-09-22 Information processing device, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014192715A JP2016062564A (en) 2014-09-22 2014-09-22 Information processing device, and information processing program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018224319A Division JP6773102B2 (en) 2018-11-30 2018-11-30 Information processing equipment and information processing programs

Publications (1)

Publication Number Publication Date
JP2016062564A true JP2016062564A (en) 2016-04-25

Family

ID=55798014

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014192715A Pending JP2016062564A (en) 2014-09-22 2014-09-22 Information processing device, and information processing program

Country Status (1)

Country Link
JP (1) JP2016062564A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018165849A (en) * 2017-03-28 2018-10-25 達広 佐野 Attribute collection system by camera
JPWO2021171588A1 (en) * 2020-02-28 2021-09-02
WO2022050294A1 (en) * 2020-09-02 2022-03-10 京セラ株式会社 Commodity management system and electronic tag

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000129919A (en) * 1998-10-26 2000-05-09 Ohbayashi Corp Concrete placement control system
JP2007114957A (en) * 2005-10-19 2007-05-10 Toshiba Tec Corp Merchandise information display system
JP2009003701A (en) * 2007-06-21 2009-01-08 Denso Corp Information system and information processing apparatus
JP2009092794A (en) * 2007-10-05 2009-04-30 Toshiba Tec Corp Electronic price tag

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000129919A (en) * 1998-10-26 2000-05-09 Ohbayashi Corp Concrete placement control system
JP2007114957A (en) * 2005-10-19 2007-05-10 Toshiba Tec Corp Merchandise information display system
JP2009003701A (en) * 2007-06-21 2009-01-08 Denso Corp Information system and information processing apparatus
JP2009092794A (en) * 2007-10-05 2009-04-30 Toshiba Tec Corp Electronic price tag

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"ビデオ行動解析システム・エソビジョンXT", [ONLINE], JPN6018037814, 2 July 2014 (2014-07-02), ISSN: 0004023855 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018165849A (en) * 2017-03-28 2018-10-25 達広 佐野 Attribute collection system by camera
JPWO2021171588A1 (en) * 2020-02-28 2021-09-02
WO2022050294A1 (en) * 2020-09-02 2022-03-10 京セラ株式会社 Commodity management system and electronic tag

Similar Documents

Publication Publication Date Title
JP6194777B2 (en) Operation determination method, operation determination apparatus, and operation determination program
JP6962356B2 (en) Image processing device, display control device, image processing method, and recording medium
US10304104B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
WO2017085771A1 (en) Payment assistance system, payment assistance program, and payment assistance method
US11302037B2 (en) Electronic device for adaptively altering information display area and operation method thereof
US20150213498A1 (en) Method and apparatus for providing product information
TW201913501A (en) Shop device, store management method and program
US20150227789A1 (en) Information processing apparatus, information processing method, and program
US20160180315A1 (en) Information processing apparatus using object recognition, and commodity identification method by the same
CN103608761A (en) Input device, input method and recording medium
KR20120132179A (en) Method and apparatus for transmitting intention using photographing image
JP2016062564A (en) Information processing device, and information processing program
JP2017067503A (en) Position estimation system, position estimation method, and position estimation program
JP6476678B2 (en) Information processing apparatus and information processing program
JP6773102B2 (en) Information processing equipment and information processing programs
JP5720841B1 (en) Confirmation action detection device and confirmation action detection program
US9785829B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
US20160034882A1 (en) Object recognition apparatus and method for managing data used for object recognition
WO2017179543A1 (en) Information processing device, information processing method, and program recording medium
JP2016058074A (en) Behavior analysis device and behavior analysis program
US20210398317A1 (en) Information processing device for identifying user who would have written object
WO2016038902A1 (en) Behavior analysis device, behavior analysis method, behavior analysis program, and recording medium
US20170161529A1 (en) Object recognition encoder
JP2018173767A (en) Individual identification device, information process system, control method of individual identification device, and program
US20240087428A1 (en) Display device and display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170905

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180824

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181130

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190507