JP2022097524A - Electronic apparatus system and transmission method - Google Patents

Electronic apparatus system and transmission method Download PDF

Info

Publication number
JP2022097524A
JP2022097524A JP2022068596A JP2022068596A JP2022097524A JP 2022097524 A JP2022097524 A JP 2022097524A JP 2022068596 A JP2022068596 A JP 2022068596A JP 2022068596 A JP2022068596 A JP 2022068596A JP 2022097524 A JP2022097524 A JP 2022097524A
Authority
JP
Japan
Prior art keywords
article
user
information
unit
store
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022068596A
Other languages
Japanese (ja)
Inventor
雄飛 降矢
Taketo Furuya
啓 志賀
Hiromu Shiga
一皇 伊三木
Kazukimi Imiki
由桂 有馬
Yuka Arima
政一 関口
Masaichi Sekiguchi
直樹 關口
Naoki Sekiguchi
雄 村越
Yu MURAKOSHI
洋治 内山
Yoji Uchiyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2022068596A priority Critical patent/JP2022097524A/en
Publication of JP2022097524A publication Critical patent/JP2022097524A/en
Priority to JP2023188606A priority patent/JP2024009011A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a user-friendly electronic apparatus system.
SOLUTION: An electronic apparatus system includes: an entrance detection unit that is arranged in a store and detects user's entrance to the store; a recognition unit that recognizes an article held by the user on the basis of image information captured in the store; an acquisition unit that acquires information on the article recognized by the recognition unit; and a transmission unit that transmits the information on the article acquired by the acquisition unit to a device in the store.
SELECTED DRAWING: Figure 10
COPYRIGHT: (C)2022,JPO&INPIT

Description

本発明は、電子機器システム及び送信方法に関する。 The present invention relates to an electronic device system and a transmission method.

従来より、来店者の商品の購買に関する行動情報を取得し、その情報を販売促進に結びつける販売促進システムが提案されている(例えば、特許文献1参照)。 Conventionally, a sales promotion system has been proposed in which behavior information regarding a visitor's purchase of a product is acquired and the information is linked to sales promotion (see, for example, Patent Document 1).

特開2010-277256号公報Japanese Unexamined Patent Publication No. 2010-277256

しかしながら、従来の販売促進システムでは、必要な情報が十分に取得できているとはいえず、使い勝手がよいとはいえなかった。 However, it cannot be said that the conventional sales promotion system can sufficiently acquire the necessary information, and it cannot be said that it is easy to use.

本発明は上記の課題に鑑みてなされたものであり、使い勝手のよい電子機器システムを提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an easy-to-use electronic device system.

本発明の電子機器は、物品をユーザが手にしたこと、及び物品がユーザの視野内の所定範囲に入ったことの少なくとも一方に応じて、前記物品の情報を入力する入力部(46,42)と、前記入力部が入力した前記物品の情報に関する報知を行う報知部(46)と、を備えている。 The electronic device of the present invention is an input unit (46, 42) for inputting information on the article according to at least one of the fact that the article is picked up by the user and the article is within a predetermined range in the user's field of view. ), And a notification unit (46) for notifying information about the article input by the input unit.

この場合において、前記ユーザが前記物品を複数回手にしたとき、又は前記ユーザの視野内の所定範囲に前記物品が複数回入ったときに、前記報知部が報知する情報を制限する第1制御部(46)を備えていてもよい。この場合、前記第1制御部は、前記物品を手にした回数、又は前記物品が前記ユーザの視野内の所定範囲内に入った回数に応じて、前記報知部が報知する情報を異ならせることとしてもよい。また、前記物品と類似する類似物品を前記ユーザが手にしたとき、又は前記ユーザの視野内の所定範囲に前記類似物品が入ったときに、前記報知部が報知する情報を制限する第2制御部(46)を備えていてもよい。 In this case, the first control that limits the information notified by the notification unit when the user picks up the article a plurality of times or when the article enters a predetermined range within the user's field of view a plurality of times. The unit (46) may be provided. In this case, the first control unit makes the information notified by the notification unit different depending on the number of times the article is picked up or the number of times the article is within a predetermined range in the user's field of view. May be. In addition, when the user picks up a similar article similar to the article, or when the similar article enters a predetermined range in the user's field of view, the second control limits the information notified by the notification unit. The unit (46) may be provided.

本発明の電子機器においては、前記入力部は、前記物品の情報として前記ユーザが購入予定の商品の情報を入力し、前記報知部は、前記購入予定の商品に応じた情報を報知することとしてもよい。この場合、前記入力部は、外部機器(20’)から前記購入予定の商品の情報を入力することとしてもよい。また、前記入力部は、前記購入予定の商品を収納する収納装置(120)を介して、前記外部機器から前記購入予定の商品に応じた情報を入力することとしてもよい。 In the electronic device of the present invention, the input unit inputs the information of the product to be purchased by the user as the information of the article, and the notification unit notifies the information according to the product to be purchased. May be good. In this case, the input unit may input the information of the product to be purchased from the external device (20'). Further, the input unit may input information according to the product to be purchased from the external device via the storage device (120) for storing the product to be purchased.

また、本発明の電子機器において、前記報知部は、表示を行う表示部(12)と、音声を出力する音声出力部(18)との少なくとも一方を備えていてもよい。この場合、前記音声出力部は、指向性のある音声出力部であることとしてもよい。また、本発明の電子機器においては、前記ユーザの顔付近に装着可能な装着部(110)を備えていてもよい。 Further, in the electronic device of the present invention, the notification unit may include at least one of a display unit (12) for displaying and an audio output unit (18) for outputting audio. In this case, the audio output unit may be a directional audio output unit. Further, the electronic device of the present invention may be provided with a mounting portion (110) that can be mounted near the user's face.

なお、本発明をわかりやすく説明するために、上記においては一実施形態を表す図面の符号に対応つけて説明したが、本発明は、これに限定されるものではなく、後述の実施形態の構成を適宜改良しても良く、また、少なくとも一部を他の構成物に代替させても良い。更に、その配置について特に限定のない構成要件は、実施形態で開示した配置に限らず、その機能を達成できる位置に配置することができる。 In addition, in order to explain the present invention in an easy-to-understand manner, the present invention has been described with reference to the reference numerals of the drawings representing one embodiment, but the present invention is not limited to this, and the configuration of the embodiments described later is not limited thereto. May be appropriately improved, or at least a part thereof may be replaced with another component. Further, the configuration requirements without particular limitation on the arrangement are not limited to the arrangement disclosed in the embodiment, and can be arranged at a position where the function can be achieved.

本発明は、使い勝手のよい電子機器システムを提供することができるという効果を奏する。 The present invention has the effect of being able to provide an easy-to-use electronic device system.

第1の実施形態に係る電子機器システムの構成を示すブロック図である。It is a block diagram which shows the structure of the electronic device system which concerns on 1st Embodiment. 装着装置、カゴ装置、物品装置の利用状況を示す図である。It is a figure which shows the usage situation of a mounting device, a basket device, and an article device. 装着装置の斜視図である。It is a perspective view of the mounting device. 図4(a)は、第1の実施形態にかかる装着装置の処理を示すフローチャートであり、図4(b)は、第1の実施形態にかかる物品装置の処理を示すフローチャートである。FIG. 4A is a flowchart showing the processing of the mounting device according to the first embodiment, and FIG. 4B is a flowchart showing the processing of the article device according to the first embodiment. 第1の実施形態にかかるカゴ装置の処理を示すフローチャートである。It is a flowchart which shows the processing of the basket device which concerns on 1st Embodiment. 第1の実施形態にかかるサーバの処理を示すフローチャートである。It is a flowchart which shows the processing of the server which concerns on 1st Embodiment. 図7(a)、図7(b)は、視線画像の例を示す図(その1)である。7 (a) and 7 (b) are views (No. 1) showing an example of a line-of-sight image. 視線画像の例を示す図(その2)である。It is a figure (the 2) which shows the example of the line-of-sight image. あるユーザが入店してからレジを通るまでの間に、手に取った物品の順を示す図である。It is a figure which shows the order of the goods which a certain user picked up from entering a store to passing through a cash register. 第2の実施形態に係る電子機器システムの構成を示すブロック図である。It is a block diagram which shows the structure of the electronic device system which concerns on 2nd Embodiment. 図11(a)は、第2の実施形態にかかる装着装置の処理を示すフローチャートであり、図11(b)は、第2の実施形態にかかる物品装置の処理を示すフローチャートである。FIG. 11A is a flowchart showing the processing of the mounting device according to the second embodiment, and FIG. 11B is a flowchart showing the processing of the article device according to the second embodiment. 第2の実施形態にかかるカゴ装置の処理を示すフローチャートである。It is a flowchart which shows the processing of the basket device which concerns on 2nd Embodiment. 第2の実施形態にかかるサーバの処理を示すフローチャートである。It is a flowchart which shows the processing of the server which concerns on 2nd Embodiment. 図14(a)、図14(b)は、買い物DBの一例を示す図である。14 (a) and 14 (b) are diagrams showing an example of a shopping DB.

《第1の実施形態》
以下、第1の実施形態に係る電子機器システムについて、図1~図9に基づいて、詳細に説明する。図1には、第1の実施形態に係る電子機器システム100の構成がブロック図にて示されている。
<< First Embodiment >>
Hereinafter, the electronic device system according to the first embodiment will be described in detail with reference to FIGS. 1 to 9. FIG. 1 shows a block diagram of the configuration of the electronic device system 100 according to the first embodiment.

電子機器システム100は、図1に示すように、装着装置10と、カゴ装置20と、物品装置30と、サーバ40と、を備える。図2に示すように、装着装置10は、店舗に来店したユーザ(買い物客)が顔に装着する眼鏡型の端末である。カゴ装置20は、店舗に設置されたカゴ120に設けられる装置である。物品装置30は、店舗内に陳列された物品(商品)130に設けられる装置である。サーバ40は、店舗内やデータセンタなどに設けられる情報処理装置である。なお、装着装置10とカゴ装置20との間、及び物品装置30とカゴ装置20との間は、人体を介した通信(人体通信)が可能とされ、カゴ装置20とサーバ40との間は、無線通信が可能とされている。 As shown in FIG. 1, the electronic device system 100 includes a mounting device 10, a basket device 20, an article device 30, and a server 40. As shown in FIG. 2, the wearing device 10 is a glasses-type terminal worn on the face by a user (shopper) who visits the store. The basket device 20 is a device provided in the basket 120 installed in the store. The article device 30 is a device provided in the article (commodity) 130 displayed in the store. The server 40 is an information processing device provided in a store, a data center, or the like. Communication via the human body (human body communication) is possible between the mounting device 10 and the basket device 20, and between the article device 30 and the basket device 20, and between the basket device 20 and the server 40. , Wireless communication is possible.

(装着装置10)
装着装置10は、図1に示すように、撮像部11、表示部12、操作部13、マイク14、記憶部15、通信部16および制御部17を備える。なお、図3には、装着装置10が斜視図にて示されている。図3に示すように、装着装置10は、眼鏡型のフレーム110を備えている。なお、図1において図示され、図3において図示されていない装着装置10の構成は、フレーム110の内部や、フレーム110の一部に設けられているものとする。
(Mounting device 10)
As shown in FIG. 1, the mounting device 10 includes an image pickup unit 11, a display unit 12, an operation unit 13, a microphone 14, a storage unit 15, a communication unit 16, and a control unit 17. Note that FIG. 3 shows the mounting device 10 in a perspective view. As shown in FIG. 3, the wearing device 10 includes a spectacle-shaped frame 110. It should be noted that the configuration of the mounting device 10 shown in FIG. 1 and not shown in FIG. 3 is assumed to be provided inside the frame 110 or a part of the frame 110.

撮像部11は、レンズ、撮像素子、画像処理部などを備え、静止画や動画を撮像するものである。撮像部11は、図3に示すようにフレーム110の端部近傍(ユーザの右目近傍)に設けられている。このため、ユーザが装着装置10を装着した状態(図2の状態)では、ユーザが向いている(見ている)方向の画像を撮像することができる。また、撮像された画像の所定部分(例えば、中心からやや左側にずれた部分)は、ユーザが視線を向けている部分(注視している部分)とみなすことができる。 The image pickup unit 11 includes a lens, an image pickup element, an image processing unit, and the like, and captures a still image or a moving image. As shown in FIG. 3, the image pickup unit 11 is provided in the vicinity of the end portion of the frame 110 (near the user's right eye). Therefore, in the state where the user wears the wearing device 10 (the state shown in FIG. 2), it is possible to capture an image in the direction in which the user is facing (viewing). Further, a predetermined portion of the captured image (for example, a portion slightly shifted to the left from the center) can be regarded as a portion to which the user is looking (a portion to be gazed at).

表示部12は、フレーム110内部又はフレーム110近傍に設けられたプロジェクタと、プロジェクタからの投影像をユーザの目に導くためのプリズムとを有している。表示部12は、制御部17の指示の下、各種情報を表示する。 The display unit 12 has a projector provided inside the frame 110 or in the vicinity of the frame 110, and a prism for guiding the projected image from the projector to the user's eyes. The display unit 12 displays various information under the instruction of the control unit 17.

操作部13は、フレーム110に設けられたタッチパッドであり、ユーザの指の動きを検知して、ユーザからの操作を受け付け、受け付けた操作情報を制御部17に送信する。 The operation unit 13 is a touch pad provided on the frame 110, detects the movement of the user's finger, accepts an operation from the user, and transmits the accepted operation information to the control unit 17.

なお、撮像部11、表示部12、操作部13については、例えば、米国公開特許2013/0044042号にもその詳細が開示されている。 The details of the image pickup unit 11, the display unit 12, and the operation unit 13 are also disclosed in, for example, US Patent No. 2013/0044042.

マイク14は、フレーム110に設けられ、ユーザが発した音声やユーザの周辺の音声を収集する。マイク14が収集した音声は、不図示の音声認識部により音声認識され、音声認識結果は、制御部17に送信される。制御部17は、音声認識結果に基づく処理(例えば、コマンドの実行処理など)を実行する。なお、制御部17が音声認識を実行してもよい。また、制御部17は、収集した音声データを記憶部15に格納する。 The microphone 14 is provided in the frame 110 and collects the voice emitted by the user and the voice around the user. The voice collected by the microphone 14 is recognized by a voice recognition unit (not shown), and the voice recognition result is transmitted to the control unit 17. The control unit 17 executes a process based on the voice recognition result (for example, a command execution process). The control unit 17 may execute voice recognition. Further, the control unit 17 stores the collected voice data in the storage unit 15.

記憶部15は、例えば、フラッシュメモリ等の不揮発性の半導体メモリであり、撮像部11が撮像した画像データや、マイク14が集音した音声データ、表示部12に表示する表示データなどを記憶する。 The storage unit 15 is, for example, a non-volatile semiconductor memory such as a flash memory, and stores image data captured by the image pickup unit 11, audio data collected by the microphone 14, display data displayed on the display unit 12, and the like. ..

通信部16は、他の機器と人体通信を行うものである。通信部16は、フレーム110に設けられユーザと接触可能な電極部16aと、電極部16aを用いて人体通信を行う人体通信部16bと、を有する。なお、人体通信には、人体に微弱な電流を流して、その電流を変調して情報を伝達する電流方式や、人体の表面に誘起する電界を変調して情報を伝達する電界方式などがある。本実施形態では、電流方式及び電界方式のいずれのタイプを用いることも可能である。なお、ユーザが装着装置10の電極部16aに直接接触する場合はもちろん、電極部16aとユーザとが直接接触していない場合でも、人体通信は可能である。本実施形態において、通信部16は、撮像部11が撮像した画像データやマイク14が収集した音声データをカゴ装置20に送信するものである。なお、通信部16は、他の機器と例えばBluetooth(登録商標)、RFID(Radio Frequency Identification)、TransferJet(登録商標)などの近接通信を行ってもよい。 The communication unit 16 performs human body communication with other devices. The communication unit 16 includes an electrode unit 16a provided on the frame 110 and capable of contacting the user, and a human body communication unit 16b for performing human body communication using the electrode unit 16a. In human body communication, there are a current method in which a weak current is passed through the human body and the current is modulated to transmit information, and an electric field method in which an electric field induced on the surface of the human body is modulated to transmit information. .. In this embodiment, either a current method or an electric field method can be used. It should be noted that human body communication is possible not only when the user is in direct contact with the electrode portion 16a of the mounting device 10, but also when the electrode portion 16a and the user are not in direct contact with each other. In the present embodiment, the communication unit 16 transmits the image data captured by the image pickup unit 11 and the voice data collected by the microphone 14 to the basket device 20. The communication unit 16 may perform proximity communication with other devices such as Bluetooth (registered trademark), RFID (Radio Frequency Identification), and TransferJet (registered trademark).

なお、通信部16に代えて、もしくは通信部16と併用して無線通信部を装着装置10に持たせてもよい。この場合、画像データや音声データを無線通信によりサーバ40に直接送信するようにしてもよいし、画像データや音声データを無線通信によりカゴ装置20に送信してもよい。 The wireless communication unit may be provided in the mounting device 10 in place of the communication unit 16 or in combination with the communication unit 16. In this case, the image data or the voice data may be transmitted directly to the server 40 by wireless communication, or the image data or the voice data may be transmitted to the basket device 20 by wireless communication.

制御部17は、装着装置10全体を統括的に制御する。制御部17は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備える。本実施形態では、制御部17は、撮像部11の撮像に関する制御や、表示部12の表示に関する制御などを行う。 The control unit 17 comprehensively controls the entire mounting device 10. The control unit 17 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like. In the present embodiment, the control unit 17 controls the image pickup of the image pickup unit 11 and the display of the display unit 12.

なお、装着装置10は、眼鏡型の端末ではなくてもよい。例えば、体の任意の位置に装着可能な装着型端末であってもよく、その機能の一部が分離していてもよい。一例を挙げると、表示部を備えたコンタクトレンズ型の端末として、他の機能を腕時計型の端末に持たせるようにしてもよい。 The wearing device 10 does not have to be a spectacle-type terminal. For example, it may be a wearable terminal that can be worn at any position on the body, or a part of its functions may be separated. As an example, as a contact lens type terminal provided with a display unit, a wristwatch type terminal may have other functions.

(カゴ装置20)
カゴ装置20は、図1に示すように、生体センサ21、カレンダ部22、記憶部23、第1通信部24、第2通信部25、及び制御部26等を備える。
(Basket device 20)
As shown in FIG. 1, the basket device 20 includes a biological sensor 21, a calendar unit 22, a storage unit 23, a first communication unit 24, a second communication unit 25, a control unit 26, and the like.

生体センサ21は、カゴ120のうち、ユーザがカゴ120を持つ際に手が触れる部分(持ち手部分)に設けられる。生体センサ21は、心拍数、血圧、発汗量などの体の生体情報の変化を検出するものであって、例えば、LED(light emitting diode)及びフォトセンサ、並びに、発汗センサを含む。例えば、LED及びフォトセンサを用いることで、LEDの照射する光を指に当てたときに反射する光をフォトセンサで受光することにより心拍数を検出することができる。また、発汗センサは、複数の電極により手のインピーダンスを測定することにより、発汗量を検出することができる。本実施形態においては、生体センサ21からの出力は、制御部26に送られる。そして、制御部26では、生体センサ21の出力に基づいてユーザの感情(喜怒哀楽)の変化を推定する。 The biosensor 21 is provided in a portion of the basket 120 that the user touches when holding the basket 120 (handle portion). The biological sensor 21 detects changes in biological information of the body such as heart rate, blood pressure, and sweating amount, and includes, for example, an LED (light emitting diode) and a photo sensor, and a sweating sensor. For example, by using an LED and a photo sensor, the heart rate can be detected by receiving the light reflected by the photo sensor when the light emitted by the LED is applied to a finger. In addition, the sweating sensor can detect the amount of sweating by measuring the impedance of the hand with a plurality of electrodes. In the present embodiment, the output from the biosensor 21 is sent to the control unit 26. Then, the control unit 26 estimates changes in the user's emotions (emotions and sorrows) based on the output of the biological sensor 21.

カレンダ部22は、年、月、日、時刻といった時間情報を取得して、制御部26に対して出力する。また、カレンダ部22は計時を行う。 The calendar unit 22 acquires time information such as year, month, day, and time, and outputs it to the control unit 26. In addition, the calendar unit 22 measures the time.

記憶部23は、例えば、フラッシュメモリ等の不揮発性の半導体メモリであり、後述するようにユーザが手にした物品に関する情報を記憶するものである。また、記憶部23は、カゴ装置20を一意に識別するためのID番号(カゴID)を記憶する。 The storage unit 23 is, for example, a non-volatile semiconductor memory such as a flash memory, and stores information about an article obtained by the user as described later. Further, the storage unit 23 stores an ID number (basket ID) for uniquely identifying the basket device 20.

第1通信部24は、他の機器と人体通信を行うものである。なお、第1通信部24は、他の機器と近接通信を行うこととしてもよい。本実施形態においては、第1通信部24は、人体通信を用いて装着装置10の通信部16及び物品装置30の通信部32と通信を行う。 The first communication unit 24 is for performing human body communication with other devices. The first communication unit 24 may perform proximity communication with other devices. In the present embodiment, the first communication unit 24 communicates with the communication unit 16 of the mounting device 10 and the communication unit 32 of the article device 30 by using human body communication.

第1通信部24は、カゴ120の持ち手部分に設けられた、ユーザの手や腕と接触可能な電極部24aと、電極部24aを介して人体通信を行う人体通信部24bと、を有する。 The first communication unit 24 has an electrode unit 24a provided on the handle portion of the basket 120 and capable of contacting the user's hand or arm, and a human body communication unit 24b that performs human body communication via the electrode unit 24a. ..

第2通信部25は、他の装置との間で無線通信を行うものである。本実施形態においてはサーバ40との間で無線通信を行い、ユーザが手に触れた物品の物品情報や、撮像部11が撮像した画像データ、マイク14が収集した音声データ、生体センサ21の検出結果をサーバ40に送信するものである。なお、本実施形態のカゴ装置20は、物品装置30とサーバ40との間における物品情報の通信、及び装着装置10とサーバ40との間における画像データや音声データの通信を中継する通信中継装置としての機能を有している。 The second communication unit 25 performs wireless communication with other devices. In the present embodiment, wireless communication is performed with the server 40, and the article information of the article touched by the user, the image data captured by the imaging unit 11, the voice data collected by the microphone 14, and the detection of the biosensor 21 are performed. The result is transmitted to the server 40. The basket device 20 of the present embodiment is a communication relay device that relays the communication of article information between the article device 30 and the server 40, and the communication of image data and voice data between the mounting device 10 and the server 40. It has the function as.

制御部26は、カゴ装置20全体を制御するものであり、CPU、RAM、ROM等を備える。本実施形態では、制御部26は、物品装置30、装着装置10及びサーバ40との間における情報通信の制御を行う。 The control unit 26 controls the entire basket device 20, and includes a CPU, RAM, ROM, and the like. In the present embodiment, the control unit 26 controls information communication between the article device 30, the mounting device 10, and the server 40.

なお、カゴ装置20は、店舗で利用されるカートに設けることとしてもよい。この場合、生体センサ21や第1通信部24の電極部24aは、カートのグリップ部分に設けることが好ましい。 The basket device 20 may be provided in a cart used in a store. In this case, it is preferable that the biosensor 21 and the electrode portion 24a of the first communication unit 24 are provided on the grip portion of the cart.

(物品装置30)
物品装置30は、店舗等で販売される物品(商品)であって、食料品、衣服、靴、時計、アクセサリー、ゴルフクラブ、バッグ等、来店者(ユーザ)の身体に接触する物品に設けられる。本実施形態では、説明の便宜上、物品装置30は、スーパーマーケットに陳列された商品(食料品等)に設けられているものとして説明する。
(Article device 30)
The article device 30 is an article (commodity) sold at a store or the like, and is provided for an article that comes into contact with the body of a visitor (user) such as groceries, clothes, shoes, watches, accessories, golf clubs, bags, and the like. .. In the present embodiment, for convenience of explanation, the article device 30 will be described as being provided in a product (food product or the like) displayed in a supermarket.

物品装置30は、図1に示すように、記憶部31と、通信部32と、制御部33と、を備える。 As shown in FIG. 1, the article device 30 includes a storage unit 31, a communication unit 32, and a control unit 33.

記憶部31は、例えば、フラッシュメモリ等の不揮発性の半導体メモリであり、物品装置30が取り付けられた物品(商品)に関する情報を記憶する。具体的には、記憶部31は、物品装置30が取り付けられた物品の物品情報(商品情報)を記憶する。例えば、物品装置30が加工食品(例えば缶詰)に取り付けられている場合には、記憶部31は、物品情報として、製造者(販売者)、商品名、原材料名、賞味期限、内容量、原産国等を記憶する。 The storage unit 31 is, for example, a non-volatile semiconductor memory such as a flash memory, and stores information about an article (commodity) to which the article device 30 is attached. Specifically, the storage unit 31 stores the article information (product information) of the article to which the article device 30 is attached. For example, when the article device 30 is attached to a processed food (for example, canned food), the storage unit 31 uses the manufacturer (seller), the product name, the raw material name, the expiration date, the content, and the origin as the article information. Remember the country etc.

制御部33は、物品装置30全体を制御するものであり、CPU、RAM、ROM等を備える。本実施形態では、制御部33は、記憶部31に記憶されている物品情報のカゴ装置20への送信を制御している。なお、制御部33及び記憶部31は物品のいずれの位置に設けられても構わない。 The control unit 33 controls the entire article device 30, and includes a CPU, RAM, ROM, and the like. In the present embodiment, the control unit 33 controls the transmission of the article information stored in the storage unit 31 to the basket device 20. The control unit 33 and the storage unit 31 may be provided at any position of the article.

通信部32は、他の機器と人体通信を行うものである。なお、通信部32は、他の機器と近接通信を行うこととしてもよい。本実施形態において、通信部32は、ユーザ(例えば手)と接触する位置に設けられる電極部32aと、電極部32aを用いて人体通信を行う人体通信部32bと、を備える。本実施形態では、図2に示すように、カゴ120を持ったユーザが物品130を手にした状態で、カゴ装置20の第1通信部24と物品装置30の通信部32との間の人体通信が成立する。これにより、記憶部31に記憶された物品情報がカゴ装置20に送信される。なお、ユーザが物品装置30の電極部32aに直接接触する場合はもちろん、電極部32aとユーザとが直接接触していない場合(手袋をしている場合など)でも、人体通信は可能である。 The communication unit 32 performs human body communication with other devices. The communication unit 32 may perform proximity communication with other devices. In the present embodiment, the communication unit 32 includes an electrode unit 32a provided at a position in contact with a user (for example, a hand), and a human body communication unit 32b that performs human body communication using the electrode unit 32a. In the present embodiment, as shown in FIG. 2, a human body between the first communication unit 24 of the basket device 20 and the communication unit 32 of the article device 30 in a state where the user holding the basket 120 holds the article 130. Communication is established. As a result, the article information stored in the storage unit 31 is transmitted to the basket device 20. It should be noted that human body communication is possible not only when the user is in direct contact with the electrode portion 32a of the article device 30, but also when the electrode portion 32a and the user are not in direct contact (such as when wearing gloves).

(サーバ40)
サーバ40は、図1に示すように、記憶部41と、通信部42と、OCR(Optical Character Reader)部43と、画像認識部44と、制御部46と、を備える。
(Server 40)
As shown in FIG. 1, the server 40 includes a storage unit 41, a communication unit 42, an OCR (Optical Character Reader) unit 43, an image recognition unit 44, and a control unit 46.

記憶部41は、例えば、フラッシュメモリ等の不揮発性の半導体メモリや、ハードディスクドライブ等であり、カゴ装置20から取得した情報、すなわち、装着装置10の撮像部11が撮像した画像データやマイク14を用いて収集した音声データ、物品装置30から送信されてきた物品情報を記憶する。また、記憶部41は、店舗の従業員(店員)の顔画像データや商品画像データ、及びユーザの購入行動を分析する際に用いる各種データを記憶している。本実施形態においては、制御部46は、後述するように、画像認識部44と協働して装着装置10の撮像部11が撮像した画像データに従業員の顔や商品が含まれているかどうかを検出する。 The storage unit 41 is, for example, a non-volatile semiconductor memory such as a flash memory, a hard disk drive, or the like, and stores information acquired from the basket device 20, that is, image data captured by the image pickup unit 11 of the mounting device 10 and a microphone 14. The voice data collected by using and the article information transmitted from the article device 30 are stored. Further, the storage unit 41 stores face image data and product image data of a store employee (clerk), and various data used when analyzing the purchase behavior of the user. In the present embodiment, as will be described later, the control unit 46 cooperates with the image recognition unit 44 to determine whether the image data captured by the image pickup unit 11 of the mounting device 10 includes an employee's face or a product. Is detected.

通信部42は、他の機器と無線通信を行うものである。本実施形態では、通信部42は、無線通信によりカゴ装置20の第2通信部25と無線通信を行う。 The communication unit 42 performs wireless communication with other devices. In the present embodiment, the communication unit 42 wirelessly communicates with the second communication unit 25 of the basket device 20 by wireless communication.

OCR部43は、装着装置10の撮像部11が撮像した画像データに含まれる文字を認識して、テキストデータに変換する。例えば、撮像部11が、図7(b)の画像データを撮像した場合、OCR部43は、文字認識をして、テキストデータ「申し訳ございません。現在入荷待ちです。次回入荷時期は未定です。」を取得する。 The OCR unit 43 recognizes characters included in the image data captured by the image pickup unit 11 of the mounting device 10 and converts them into text data. For example, when the image pickup unit 11 captures the image data of FIG. 7 (b), the OCR unit 43 recognizes characters and text data "Sorry. Currently waiting for arrival. The next arrival time is undecided. To get.

画像認識部44は、装着装置10の撮像部11が撮像した画像データの特徴点を、例えばSURF(Speeded Up Robust Features)やSHIFT(Scale Invariant Feature Transform)といった特徴量検出アルゴリズムにより抽出し、記憶部41に記憶されている複数の認識対象の標準パターンと比較することにより画像認識を行う。本実施形態においては、画像認識部44は、記憶部41に記憶されている従業員の顔画像データや商品画像データとの比較を行って、撮像部11が撮像した画像に従業員や商品が含まれているかどうかを検出する。 The image recognition unit 44 extracts the feature points of the image data captured by the image pickup unit 11 of the mounting device 10 by a feature amount detection algorithm such as SURF (Speeded Up Robust Features) or SHIFT (Scale Invariant Feature Transform), and stores the feature points. Image recognition is performed by comparing with a plurality of standard patterns of recognition targets stored in 41. In the present embodiment, the image recognition unit 44 compares with the employee's face image data and product image data stored in the storage unit 41, and the employee or product is included in the image captured by the image pickup unit 11. Detect if it is included.

制御部46は、サーバ40全体を制御するものであり、CPU、RAM、ROM等を備える。 The control unit 46 controls the entire server 40, and includes a CPU, RAM, ROM, and the like.

次に、図4~図9を用いて、電子機器システム100の処理について、詳細に説明する。なお、本実施形態では、装着装置10を装着しているユーザ(買い物客)が店舗(例えば、スーパーマーケット)に来店した際に、カゴ120を保持して、買い物を行うものとする。また、ユーザは、店舗内で物品装置30が設けられた物品(商品)130を手に取ったり、カゴ120に入れたりすることで、購入する物品を決定し、レジで購入処理を行うものとする。 Next, the processing of the electronic device system 100 will be described in detail with reference to FIGS. 4 to 9. In the present embodiment, when a user (shopper) wearing the mounting device 10 visits a store (for example, a supermarket), the basket 120 is held and shopping is performed. In addition, the user decides the goods to be purchased by picking up the goods (goods) 130 provided with the goods device 30 in the store or putting them in the basket 120, and performs the purchase process at the cash register. do.

(装着装置10の処理)
図4(a)には、装着装置10の処理がフローチャートにて示されている。
(Processing of mounting device 10)
FIG. 4A shows a flowchart of the processing of the mounting device 10.

図4(a)の処理では、装着装置10の制御部17は、ステップS10において、カゴ装置20との人体通信が成立するまで待機する。この場合、装着装置10を装着したユーザが店舗に入り、カゴ120を保持することでカゴ装置20にユーザの手が触れた段階で、装着装置10の通信部16とカゴ装置20の第1通信部24との間の通信が成立する。カゴ装置20との人体通信が成立すると、制御部17は、ステップS12に移行する。なお、ステップS10に代えて、ユーザが店舗に入店した後に装着装置10の電源をオンした段階でステップS12以降の処理を実行するようにしてもよい。この場合、装着装置10に、GPS(Global Positioning System)モジュールや、店舗内に設置された無線LAN(Local Area Network)基地局との通信状況に応じた位置検出が可能な位置検出装置を設け、位置検出装置の検出結果に基づいて、ユーザが店舗に入店したか否かを制御部17が判断することとしてもよい。また、これとは逆に、装着装置10は通信部16に常に電源を供給しておき、カゴ装置20との人体通信の成立により装着装置10が起動するようにしてもよい。 In the process of FIG. 4A, the control unit 17 of the mounting device 10 waits in step S10 until human body communication with the basket device 20 is established. In this case, when the user wearing the mounting device 10 enters the store and the user touches the basket device 20 by holding the basket 120, the communication unit 16 of the mounting device 10 and the first communication of the basket device 20 are performed. Communication with the unit 24 is established. When the human body communication with the basket device 20 is established, the control unit 17 proceeds to step S12. Instead of step S10, the processes after step S12 may be executed when the power of the mounting device 10 is turned on after the user enters the store. In this case, the mounting device 10 is provided with a GPS (Global Positioning System) module and a position detection device capable of position detection according to the communication status with a wireless LAN (Local Area Network) base station installed in the store. The control unit 17 may determine whether or not the user has entered the store based on the detection result of the position detection device. On the contrary, the mounting device 10 may always supply power to the communication unit 16 so that the mounting device 10 is activated by the establishment of human body communication with the basket device 20.

ステップS12に移行すると、制御部17は、撮像部11に指示を出し、ユーザ側からの撮像を実行する。この場合、撮像部11は、静止画及び動画のいずれを撮像してもよい。なお、本実施形態では、撮像部11は、静止画を撮像するものとして説明する。制御部17は、撮像部11によって撮像された画像(以下、視線画像と呼ぶ)を記憶部15に記憶する。なお、ステップS12では、撮像部11による視線画像の撮像に加えて、制御部17は、マイク14を用いて、ユーザの声や周辺の音を含む音声を収集し、音声データとして記憶部15に記憶してもよい。 When the process proceeds to step S12, the control unit 17 issues an instruction to the image pickup unit 11 and executes imaging from the user side. In this case, the image pickup unit 11 may capture either a still image or a moving image. In this embodiment, the image pickup unit 11 will be described as taking a still image. The control unit 17 stores an image captured by the image pickup unit 11 (hereinafter referred to as a line-of-sight image) in the storage unit 15. In step S12, in addition to the image pickup of the line-of-sight image by the image pickup unit 11, the control unit 17 collects the voice including the user's voice and surrounding sounds by using the microphone 14, and stores the voice data in the storage unit 15. You may remember it.

次いで、ステップS14では、制御部17は、通信部16を介して、視線画像をカゴ装置20へ送信する。なお、制御部17は、例えば装着装置10に加速度計や角速度計を設けてユーザの移動速度を計測し、ユーザの移動速度が所定の移動速度(例えば時速1Km以下)になったときに、カゴ装置20へ視線画像を送信するようにしてもよい。なお、ユーザは、買い物途中にカゴ装置20から手を離す場合もある。したがって、制御部17は、人体通信が可能である場合には、人体通信により視線画像をカゴ装置20へ送信し、人体通信が不可能な場合には、近接通信や無線通信などにより視線画像をカゴ装置20へ送信するようにしてもよい。なお、無線通信を行う場合には、装着装置10が無線通信部を備えておく必要がある。 Next, in step S14, the control unit 17 transmits the line-of-sight image to the basket device 20 via the communication unit 16. The control unit 17 is provided with, for example, an accelerometer or an angular velocity meter in the mounting device 10 to measure the moving speed of the user, and when the moving speed of the user reaches a predetermined moving speed (for example, 1 km / h or less), the basket The line-of-sight image may be transmitted to the device 20. The user may take his / her hand off the basket device 20 during shopping. Therefore, the control unit 17 transmits the line-of-sight image to the basket device 20 by human body communication when human body communication is possible, and transmits the line-of-sight image by proximity communication or wireless communication when human body communication is not possible. It may be transmitted to the basket device 20. When performing wireless communication, the mounting device 10 needs to be provided with a wireless communication unit.

次いで、ステップS16では、制御部17は、レジ端末から入力のあったカゴ装置20との人体通信が成立したか否かを判断する。ここで、レジ端末からの入力とは、ユーザがレジにカゴ120を持っていった場合に、カゴ装置20とレジ端末との間の通信により、レジ端末からカゴ装置20に対して送信される、買い物終了情報の入力を意味する。すなわち、レジ端末からの入力があったカゴ装置20と装着装置10との人体通信が成立した場合、ユーザの買い物が終了したことを意味する。したがって、買い物が終了しておらず、ステップS16の判断が否定された場合には、ステップS12に戻り、ステップS12、S14、S16の処理・判断を繰り返す。すなわち、撮像部11による視線画像の撮像と、カゴ装置20への送信が繰り返される。一方、ユーザの買い物が終了し、ステップS16の判断が肯定された場合には、図4(a)の全処理が終了する。 Next, in step S16, the control unit 17 determines whether or not human body communication with the basket device 20 input from the cash register terminal has been established. Here, the input from the cash register terminal is transmitted from the cash register terminal to the basket device 20 by communication between the basket device 20 and the cash register terminal when the user has the basket 120 at the cash register. , Means to enter shopping end information. That is, when the human body communication between the basket device 20 and the mounting device 10 input from the cash register terminal is established, it means that the user's shopping is completed. Therefore, if the shopping is not completed and the determination in step S16 is denied, the process returns to step S12, and the processing / determination in steps S12, S14, and S16 is repeated. That is, the image pickup of the line-of-sight image by the image pickup unit 11 and the transmission to the basket device 20 are repeated. On the other hand, when the user's shopping is completed and the determination in step S16 is affirmed, the entire process of FIG. 4A is completed.

なお、ステップS16に代えて、制御部17は、ユーザ(装着装置10)が店舗から出たか否かを判断してもよい。この場合、前述のように、装着装置10には、GPS等の位置検出装置を設けておく必要がある。 In addition, instead of step S16, the control unit 17 may determine whether or not the user (wearing device 10) has left the store. In this case, as described above, the mounting device 10 needs to be provided with a position detecting device such as GPS.

(物品装置30の処理)
図4(b)には、物品装置30の処理がフローチャートにて示されている。
(Processing of article device 30)
FIG. 4B shows a flowchart of the processing of the article device 30.

図4(b)の処理では、物品装置30の制御部33は、ステップS20において、カゴ装置20との人体通信が新たに成立するまで待機する。この場合、図2に示すように、カゴ120を保持するユーザが物品130を商品棚等から取り上げたタイミングで、カゴ装置20との人体通信が新たに成立し、ステップS22に移行する。 In the process of FIG. 4B, the control unit 33 of the article device 30 waits in step S20 until human body communication with the basket device 20 is newly established. In this case, as shown in FIG. 2, at the timing when the user holding the basket 120 picks up the article 130 from the product shelf or the like, human body communication with the basket device 20 is newly established, and the process proceeds to step S22.

ステップS22に移行すると、制御部33は、通信部32に指示を出し、記憶部31に記憶されている物品情報をカゴ装置20へ送信する。 When the process proceeds to step S22, the control unit 33 issues an instruction to the communication unit 32 and transmits the article information stored in the storage unit 31 to the basket device 20.

その後は、ステップS20に戻り、制御部33は、ステップS20、S22の処理・判断を繰り返す。 After that, the process returns to step S20, and the control unit 33 repeats the processing / determination of steps S20 and S22.

図4(b)の処理が実行されることで、カゴ120を保持するユーザが、買い物途中に手にした物品130の情報をカゴ装置20に逐一送信することが可能となる。 By executing the process of FIG. 4B, the user holding the basket 120 can transmit the information of the article 130 obtained during shopping to the basket device 20 one by one.

(カゴ装置20の処理)
図5には、カゴ装置20の処理がフローチャートにて示されている。
(Processing of basket device 20)
FIG. 5 shows a flowchart of the processing of the basket device 20.

図5の処理では、ステップS30において、カゴ装置20の制御部26が、装着装置10との人体通信が成立するまで待機する。装着装置10との人体通信が成立すると、制御部26は、ステップS32に移行する。なお、ステップS32に移行するタイミングは、前述した図4(a)のステップS12に移行するタイミングと同一である。 In the process of FIG. 5, in step S30, the control unit 26 of the basket device 20 waits until human body communication with the mounting device 10 is established. When the human body communication with the mounting device 10 is established, the control unit 26 shifts to step S32. The timing of shifting to step S32 is the same as the timing of shifting to step S12 of FIG. 4A described above.

ステップS32に移行すると、制御部26は、装着装置10から送信されてくる視線画像を取得し、記憶部23に記憶する。なお、例えばカゴ装置20に加速度計や角速度計を設けてユーザの移動速度を計測し、ユーザの移動速度が所定の移動速度(例えば時速1Km以下)になったときに、装着装置10から視線画像が送信されてきた画像を取得し、記憶部23に記憶することとしてもよい。 When the process proceeds to step S32, the control unit 26 acquires the line-of-sight image transmitted from the mounting device 10 and stores it in the storage unit 23. For example, an accelerometer or an angular velocity meter is provided in the basket device 20 to measure the movement speed of the user, and when the movement speed of the user reaches a predetermined movement speed (for example, 1 km / h or less), a line-of-sight image from the mounting device 10. May acquire the transmitted image and store it in the storage unit 23.

次いで、ステップS34では、制御部26が、新たな物品情報を受信したか否かを判断する。ステップS34の判断が否定された場合、すなわち、新たな物品情報を受信していない場合には、ステップS38に移行する。一方、ステップS34の判断が肯定された場合、すなわち、新たな物品情報を受信した場合には、ステップS36に移行する。 Next, in step S34, the control unit 26 determines whether or not new article information has been received. If the determination in step S34 is denied, that is, if new article information has not been received, the process proceeds to step S38. On the other hand, if the determination in step S34 is affirmed, that is, when new article information is received, the process proceeds to step S36.

ステップS36に移行すると、制御部26は、物品情報を取得し、記憶部23に記憶する。その後は、ステップS38に移行する。 When the process proceeds to step S36, the control unit 26 acquires the article information and stores it in the storage unit 23. After that, the process proceeds to step S38.

ステップS38に移行すると、制御部26は、生体センサ21を用いた検出を実行する。なお、ステップS32、S34及びS36、S38の処理の順番は適宜入れ替えてもよく、各ステップの処理を同時並行的に実行することとしてもよい。 When the process proceeds to step S38, the control unit 26 executes detection using the biosensor 21. The order of the processes of steps S32, S34, S36, and S38 may be changed as appropriate, and the processes of each step may be executed in parallel.

次いで、ステップS40では、制御部26が、生体センサ21の検出結果に基づいて、ユーザに感情の変化があったか否かを判断する。この場合、例えば、生体センサ21の検出結果から、心拍数が急激に上昇した場合や、血圧が急激に上昇した場合、発汗量が急激に増加した場合などにおいて、ユーザに感情の変化があったと判断する。なお、ユーザの感情が変化する例としては、タイムサービスが始まり商品を安く購入できるチャンスに遭遇したり、購入を予定していた商品が売り切れであったり、レジが混雑しているような場合である。ステップS40の判断が否定された場合には、ステップS44に移行するが、ステップS40の判断が肯定された場合には、ステップS42に移行する。 Next, in step S40, the control unit 26 determines whether or not the user has an emotional change based on the detection result of the biological sensor 21. In this case, for example, from the detection result of the biological sensor 21, it is said that the user has a change in emotion when the heart rate suddenly rises, the blood pressure suddenly rises, the sweating amount suddenly increases, and the like. to decide. Examples of changes in user emotions include when the time service starts and you encounter a chance to purchase a product at a low price, the product you were planning to purchase is sold out, or the cash register is crowded. be. If the determination in step S40 is denied, the process proceeds to step S44, but if the determination in step S40 is affirmed, the process proceeds to step S42.

ステップS42に移行すると、制御部26は、第2通信部25に指示を出し、記憶部23に記憶されている、感情変化直前に取得された視線画像及び物品情報(以下、第1情報と呼ぶ)をサーバ40に送信する。なお、感情変化直前とは、例えば、感情変化が生じる数秒前を意味する。なお、感情変化直前に物品情報が取得されない場合もある。感情変化が物品130を保持したことに起因しない場合である。この場合には、制御部26は、視線画像を第1情報としてサーバ40に送信すればよい。 When the process proceeds to step S42, the control unit 26 issues an instruction to the second communication unit 25, and the line-of-sight image and article information (hereinafter referred to as first information) stored in the storage unit 23 and acquired immediately before the emotional change. ) Is transmitted to the server 40. The term immediately before the emotional change means, for example, a few seconds before the emotional change occurs. In some cases, the article information is not acquired immediately before the emotional change. This is the case where the emotional change is not due to holding the article 130. In this case, the control unit 26 may transmit the line-of-sight image as the first information to the server 40.

ここで、感情変化直前に取得された視線画像としては、図7(a)、図7(b)、図8に示すような視線画像が想定される。図7(a)の視線画像は、ユーザがタイムサービスに遭遇したことを示す画像であり、具体的には、商品に貼付されたタイムサービスのシールをユーザが見たことを示す画像である。また、図7(b)の視線画像は、ユーザが購入しようとしていた商品が売り切れている場合の画像であり、具体的には、入荷待ちの掲示をユーザが見たことを示す画像である。また、図8の視線画像は、レジが混雑している状態をユーザが見たことを示す画像である。 Here, as the line-of-sight image acquired immediately before the emotional change, the line-of-sight images as shown in FIGS. 7 (a), 7 (b), and 8 are assumed. The line-of-sight image of FIG. 7A is an image showing that the user has encountered the time service, and specifically, is an image showing that the user has seen the time service sticker attached to the product. Further, the line-of-sight image of FIG. 7B is an image when the product that the user is trying to purchase is sold out, and specifically, is an image showing that the user has seen a notice waiting for arrival. Further, the line-of-sight image of FIG. 8 is an image showing that the user has seen a state in which the cash register is crowded.

なお、第1情報は、カゴIDが付加された状態でサーバ40に送信される。すなわち、サーバ40では、第1情報をカゴIDを用いて管理する。 The first information is transmitted to the server 40 with the basket ID added. That is, the server 40 manages the first information by using the basket ID.

ステップS40が否定された後、あるいはステップS42の処理が実行された後、制御部26は、ステップS44において、レジ端末から入力があったか否かを判断する。この場合のレジ端末の入力とは、前述したように、ユーザが買い物を終了し、レジにカゴ120を持っていった場合に、カゴ装置20とレジ端末との間の通信により、レジ端末からカゴ装置20に対して送信される、買い物終了情報の入力を意味する。このステップS44の判断が否定された場合、すなわち、ユーザの買い物が終了していない場合には、ステップS32に戻り、ステップS32~S44の処理・判断を繰り返す。一方、ステップS44の判断が肯定された場合には、ステップS46に移行する。 After the step S40 is denied or the process of step S42 is executed, the control unit 26 determines in step S44 whether or not there is an input from the cash register terminal. In this case, the input of the cash register terminal is, as described above, from the cash register terminal by communication between the basket device 20 and the cash register terminal when the user finishes shopping and brings the basket 120 to the cash register. It means inputting shopping end information transmitted to the basket device 20. If the determination in step S44 is denied, that is, if the user's shopping has not been completed, the process returns to step S32, and the processing / determination in steps S32 to S44 is repeated. On the other hand, if the determination in step S44 is affirmed, the process proceeds to step S46.

ステップS46に移行すると、制御部26は、第2通信部25に指示を出し、ステップS30以降取得された全ての視線画像、物品情報、生体情報(以下、第2情報と呼ぶ)をサーバ40に送信する。すなわち、制御部26は、第2通信部25を介して、ユーザが買い物をしている間に得られた視線画像、ユーザが手にした物品の物品情報、及びユーザが買い物をしている間に得られた感情の変化情報をサーバ40に送信する。なお、制御部26は、ユーザが買い物をしている間に装着装置10のマイク14を用いて取得された音声データをサーバ40に送信することとしてもよい。なお、制御部26から送信される各情報には、情報の取得時刻(カレンダ部22から得られる)がタイムスタンプとして付与されるものとする。また、第2情報は、カゴIDが付加された状態でサーバ40に送信される。すなわち、サーバ40では、第2情報をカゴIDを用いて管理する。その後は、制御部26は、図5の全処理を終了する。 When the process proceeds to step S46, the control unit 26 issues an instruction to the second communication unit 25, and all the line-of-sight images, article information, and biometric information (hereinafter referred to as second information) acquired after step S30 are sent to the server 40. Send. That is, the control unit 26 uses the second communication unit 25 to obtain a line-of-sight image while the user is shopping, information on the goods that the user has obtained, and while the user is shopping. The emotional change information obtained in the above is transmitted to the server 40. The control unit 26 may transmit the voice data acquired by using the microphone 14 of the wearing device 10 to the server 40 while the user is shopping. It is assumed that each information transmitted from the control unit 26 is given an information acquisition time (obtained from the calendar unit 22) as a time stamp. Further, the second information is transmitted to the server 40 with the basket ID added. That is, the server 40 manages the second information by using the basket ID. After that, the control unit 26 ends all the processing of FIG.

以上のように、制御部26が図5の処理を実行することで、ユーザが買い物をしている間に感情の変化があったタイミングで、カゴ装置20からサーバ40に対して第1情報が送信され、ユーザが買い物を終了したタイミングで、カゴ装置20からサーバ40に対して第2情報が送信されるようになっている。 As described above, by executing the process of FIG. 5 by the control unit 26, the first information is transmitted from the basket device 20 to the server 40 at the timing when the user's emotions change while shopping. The second information is transmitted from the basket device 20 to the server 40 at the timing when the user finishes shopping.

(サーバ40の処理)
図6には、サーバ40の処理がフローチャートにて示されている。
(Processing of server 40)
FIG. 6 shows the processing of the server 40 in a flowchart.

図6の処理では、サーバ40の制御部46は、ステップS50において、カゴ装置20からの入力があるまで待機する。すなわち、制御部46は、カゴ装置20において図5のステップS42又はS46が実行されることにより、第1情報又は第2情報が送信されてきた段階で、ステップS52に移行する。 In the process of FIG. 6, the control unit 46 of the server 40 waits until there is an input from the basket device 20 in step S50. That is, the control unit 46 shifts to step S52 at the stage where the first information or the second information is transmitted by executing step S42 or S46 of FIG. 5 in the basket device 20.

ステップS52に移行すると、制御部46は、入力された情報が第1情報であるか否かを判断する。すなわち、制御部46は、ユーザに感情の変化があった直前にカゴ装置20で取得された視線情報や物品情報が入力されたか否かを判断する。ここでの判断が肯定された場合には、ステップS54に移行する。 When the process proceeds to step S52, the control unit 46 determines whether or not the input information is the first information. That is, the control unit 46 determines whether or not the line-of-sight information or the article information acquired by the basket device 20 has been input immediately before the user has a change in emotion. If the determination here is affirmed, the process proceeds to step S54.

ステップS54に移行すると、制御部46は、第1情報に基づく感情分析を実行する。具体的には、制御部46は、感情が変化した直前に取得された視線画像をOCR部43や画像認識部44を用いて分析した結果や、感情が変化した直前に取得された物品情報を分析した結果に基づいて、ユーザの感情分析(満足か、不満かの分析)を行う。 When the process proceeds to step S54, the control unit 46 executes the sentiment analysis based on the first information. Specifically, the control unit 46 analyzes the result of analyzing the line-of-sight image acquired immediately before the emotion changes using the OCR unit 43 and the image recognition unit 44, and the article information acquired immediately before the emotion changes. Based on the analysis result, the user's emotion analysis (analysis of satisfaction or dissatisfaction) is performed.

例えば、制御部46は、視線画像が図7(a)の画像であった場合には、OCR部43を用いることで「朝市 タイムサービス 表示価格より20%引き」という文字を検出することができる。この場合、タイムサービス、20%引きといった、買い物客にとってポジティブな単語が含まれているため、制御部46は、ユーザが喜んで満足な状態(ポジティブな状態)であると分析する。なお、買い物客にとってポジティブな単語は、記憶部41に記憶されているものとする。 For example, when the line-of-sight image is the image of FIG. 7A, the control unit 46 can detect the character "20% discount from the morning market time service display price" by using the OCR unit 43. .. In this case, since the words positive for the shopper such as time service and 20% discount are included, the control unit 46 analyzes that the user is happy and satisfied (positive state). It is assumed that a word positive for the shopper is stored in the storage unit 41.

また、制御部46は、視線画像が図7(b)の画像であった場合には、OCR部43を用いることで、「申し訳ございません。現在入荷待ちです。次回入荷時期は未定です。」という文字を検出することができる。この場合、申し訳ございません、入荷待ち、未定といった、買い物客にとってネガティブな単語が含まれているため、制御部46は、ユーザが哀しんで不満足な状態(ネガティブな状態)であると分析する。なお、買い物客にとってネガティブな単語は、記憶部41に記憶されているものとする。 In addition, when the line-of-sight image is the image shown in FIG. 7B, the control unit 46 uses the OCR unit 43 to "sorry. It is currently backordered. The next arrival time is undecided." Can be detected. In this case, since negative words for the shopper such as sorry, backordered, and undecided are included, the control unit 46 analyzes that the user is in a sad and unsatisfied state (negative state). It is assumed that a word negative for the shopper is stored in the storage unit 41.

また、制御部46は、視線画像が図8の画像であった場合には、画像認識部44を用いることで、レジが混雑していることや、レジ待ちしている人が不満顔である(笑顔でない)ということを検出することができる。この場合、制御部46は、ユーザが哀しんで不満足な状態(ネガティブな状態)であると判断する。 Further, when the line-of-sight image is the image of FIG. 8, the control unit 46 uses the image recognition unit 44 to make the cash register crowded and the person waiting for the cash register is dissatisfied. It is possible to detect that (not a smile). In this case, the control unit 46 determines that the user is in a sad and unsatisfactory state (negative state).

また、制御部46は、視線画像に従業員の顔の画像が含まれる場合には、従業員に起因してユーザの感情が変化したと判断する。この場合、制御部46は、画像認識部44を用いることで、従業員の顔が笑顔か否かを認識する。なお、画像認識部44は、視線画像に含まれる顔の画像が従業員の顔の画像であるか否か、笑顔であるか否かを、記憶部41に記憶されている従業員の顔画像データを用いて判断する。そして、制御部46は、従業員が笑顔でない場合には、ユーザが哀しんでいる又は怒っている不満足な状態(ネガティブな状態)であると判断し、従業員が笑顔の場合には、満足な状態(ポジティブな状態)であると判断する。 Further, when the line-of-sight image includes an image of an employee's face, the control unit 46 determines that the user's emotions have changed due to the employee. In this case, the control unit 46 recognizes whether or not the employee's face is smiling by using the image recognition unit 44. The image recognition unit 44 stores the employee's face image stored in the storage unit 41 as to whether or not the face image included in the line-of-sight image is an employee's face image and whether or not the image is a smile. Judgment using data. Then, the control unit 46 determines that the user is in a sad or angry unsatisfied state (negative state) when the employee is not smiling, and is satisfied when the employee is smiling. Judge that it is a state (positive state).

更に、制御部46は、視線画像において物品を手に持っている状態が撮像されていた場合には、物品を見たこと、触れたことによって感情に変化が生じたと判断する。なお、制御部46は、例えば、カゴ装置20が取得した物品情報を併用することで、ユーザが喜んでいるのか哀しんでいるのかを判断することができる場合もある。例えば、物品情報に、数量限定などの情報が含まれている場合には、ユーザが喜んでいると判断することができる。また、物品情報から、賞味期限切れであることが判明した場合には、ユーザが哀しんでいると判断することができる。 Further, when the state of holding the article in the hand is imaged in the line-of-sight image, the control unit 46 determines that the emotion has changed due to seeing or touching the article. In some cases, the control unit 46 can determine whether the user is happy or sad by using the article information acquired by the basket device 20 together. For example, when the article information includes information such as a limited quantity, it can be determined that the user is pleased. Further, when it is found from the article information that the expiration date has expired, it can be determined that the user is sad.

図6に戻り、次のステップS56では、制御部46が、感情分析結果に基づいて、対応が必要か否かを判断する。具体的には、制御部46は、ユーザが哀しんでいたり怒っているなど不満足な状態の場合(ネガティブな状態にある場合)に、対応が必要であると判断する。ステップS56の判断が否定された場合には、ステップS50に戻る。一方、ステップS56の判断が肯定された場合には、ステップS58に移行する。 Returning to FIG. 6, in the next step S56, the control unit 46 determines whether or not a response is necessary based on the emotion analysis result. Specifically, the control unit 46 determines that it is necessary to take measures when the user is in an unsatisfied state (when in a negative state) such as being sad or angry. If the determination in step S56 is denied, the process returns to step S50. On the other hand, if the determination in step S56 is affirmed, the process proceeds to step S58.

ステップS58に移行すると、制御部46は、感情分析結果に基づく対応処理を実行する。例えば、制御部46は、視線画像が図4(b)の場合には、記憶部41に記憶されているお詫びのメッセージや次回入荷予定などの各種メッセージを、通信部42を介して、カゴ装置20に送信する。そして、カゴ装置20の制御部26は、第1通信部24を介して、各種メッセージを装着装置10に送信する。この場合、装着装置10では、制御部17は、表示部12を用いて、各種メッセージを表示(投影)する。 When the process proceeds to step S58, the control unit 46 executes a response process based on the emotion analysis result. For example, when the line-of-sight image is shown in FIG. 4B, the control unit 46 sends various messages such as an apology message and the next arrival schedule stored in the storage unit 41 to the basket device via the communication unit 42. Send to 20. Then, the control unit 26 of the basket device 20 transmits various messages to the mounting device 10 via the first communication unit 24. In this case, in the mounting device 10, the control unit 17 displays (projects) various messages using the display unit 12.

また、例えば、視線画像が図8の場合には、制御部46は、レジが混雑していることに対するお詫びのメッセージを、カゴ装置20を介して装着装置10の制御部17に送信する。この場合、制御部17は、表示部12にお詫びのメッセージを表示(投影)する。なお、制御部46は、店内放送を利用して、レジの混雑に対するお詫びのメッセージを出力してもよい。また、制御部46は、店内放送を利用して、レジ打ちを行う従業員を補充すべき旨のメッセージ(レジ応援のメッセージ)を出力するようにしてもよい。あるいは、制御部46は、従業員が保持する端末に対して、レジ応援のメッセージを出力するようにしてもよい。また、制御部46は、レジが混雑している状況を見たユーザに対して、レジの進み具合(客1人当たりの処理時間)やレジを担当する店員の熟練度(見習いか、ベテランか)を報知することとしてもよい。 Further, for example, when the line-of-sight image is shown in FIG. 8, the control unit 46 transmits a message of apology for the congestion of the cash register to the control unit 17 of the mounting device 10 via the basket device 20. In this case, the control unit 17 displays (projects) an apology message on the display unit 12. The control unit 46 may output an apology message for the congestion of the cash register by using the in-store broadcast. Further, the control unit 46 may output a message (message of cash register support) to the effect that the employee who performs the cash register should be replenished by using the in-store broadcast. Alternatively, the control unit 46 may output a cash register support message to the terminal held by the employee. In addition, the control unit 46 determines the progress of the cash register (processing time per customer) and the skill level of the clerk in charge of the cash register (apprenticeship or veteran) for the user who sees the situation where the cash register is crowded. May be notified.

また、例えば、視線画像から、従業員の対応に問題があると判断された場合には、制御部46は、他の従業員や店長などが保持する端末に対して、客と従業員とのトラブルが発生した旨のメッセージを出力する。なお、カゴ装置20に無線LAN基地局との通信感度に応じて位置を検出することが可能な位置検出装置を設けておけば、制御部46は、位置検出装置の検出結果に基づいて、トラブル発生位置を他の従業員や店長などに知らせることができる。 Further, for example, when it is determined from the line-of-sight image that there is a problem in the response of the employee, the control unit 46 receives the customer and the employee with respect to the terminal held by another employee, the store manager, or the like. Output a message to the effect that a problem has occurred. If the basket device 20 is provided with a position detection device capable of detecting the position according to the communication sensitivity with the wireless LAN base station, the control unit 46 will have trouble based on the detection result of the position detection device. It is possible to inform other employees, store managers, etc. of the location of occurrence.

更に、例えば、視線画像から、客が物品に対して哀しんでいる又は怒っていると判断された場合には、制御部46は、店内放送や従業員が保持する端末を利用して、従業員が直接対応すべき旨のメッセージを出力してもよい。この場合にも、制御部46は、従業員に客の位置を知らせるようにしてもよい。 Further, for example, when it is determined from the line-of-sight image that the customer is sad or angry at the article, the control unit 46 uses the in-store broadcast or the terminal held by the employee to use the employee. May output a message to the effect that it should respond directly. In this case as well, the control unit 46 may inform the employee of the position of the customer.

なお、第1情報には、感情変化の直前にマイク14が収集した音声データが含まれていてもよい。制御部46は、音声データの分析により、音声データにユーザの怒声やため息、従業員の謝罪の言葉が含まれていた場合には、ユーザが怒っていたり、不満足な状態にある(ネガティブな状態にある)と判断することができる。 The first information may include voice data collected by the microphone 14 immediately before the emotional change. According to the analysis of the voice data, the control unit 46 is in an angry or unsatisfied state (negative state) when the voice data contains a user's angry voice, a sigh, or an employee's apology. It can be judged that it is in).

なお、上述した対応処理のパターンは、予め定められているものとし、当該パターンは、記憶部41に記憶されているものとする。 It is assumed that the pattern of the corresponding processing described above is predetermined, and that the pattern is stored in the storage unit 41.

上記のようにしてステップS58の処理が終了した後は、ステップS50に戻る。 After the processing of step S58 is completed as described above, the process returns to step S50.

一方、ステップS52の判断が否定された場合、すなわち、カゴ装置20から入力された情報が第2情報であった場合には、ステップS60に移行する。 On the other hand, if the determination in step S52 is denied, that is, if the information input from the basket device 20 is the second information, the process proceeds to step S60.

ステップS60に移行すると、制御部46は、第2情報に基づく、購入行動分析を実行する。この場合、制御部46は、ユーザが買い物の途中で、何を見て、何を手にとり、何を購入したかということを分析する。換言すれば、ユーザがどの商品を見なかったり、手に取らなかったかということを分析しているともいえる。 When the process proceeds to step S60, the control unit 46 executes the purchase behavior analysis based on the second information. In this case, the control unit 46 analyzes what the user sees, picks up, and purchases in the middle of shopping. In other words, it can be said that it analyzes which products the user did not see or pick up.

図9には、あるユーザが入店してからレジを通るまでの間に、手に取った物品の順が示されている。また、図9では、ユーザが購入した物品に下線を付している。なお、制御部46は、ユーザが購入した物品の情報として、レジ端末から取得した購入情報を利用することができる。 FIG. 9 shows the order of the items picked up by a user from entering the store to passing through the cash register. Further, in FIG. 9, the articles purchased by the user are underlined. The control unit 46 can use the purchase information acquired from the cash register terminal as the information of the goods purchased by the user.

図9において、ユーザは、カレールーAとカレールーBとを手に取っているものの、最終的にはカレールーAを購入している。この場合、制御部46は、カレールーAを手に取った際の視線画像と、カレールーBを手に取った際の視線画像とを参照することで、何を判断基準として、カレールーAを購入したかを分析する。例えばユーザが注視している領域(視線画像の所定位置(ほぼ中心))に値段の情報が長時間含まれていた場合には、値段に基づいてカレールーAを購入したと判断する。また、ユーザが注視している領域に、辛さの表示や、パッケージの写真、成分表示や、賞味期限が長時間含まれていた場合には、それらの情報に基づいて、カレールーAを購入したと判断する。なお、制御部46は、ユーザが注視している領域に、値段や辛さの表示、成分や賞味期限などが含まれているか否かを、OCR部43を用いて抽出するものとする。 In FIG. 9, the user picks up the curry-A and the curry-B, but finally purchases the curry-A. In this case, the control unit 46 purchased the curry-A as a criterion by referring to the line-of-sight image when the curry-A was picked up and the line-of-sight image when the curry-B was picked up. To analyze. For example, if the price information is included for a long time in the area (predetermined position (almost center) of the line-of-sight image) that the user is gazing at, it is determined that the curry roux A has been purchased based on the price. In addition, if the area that the user is watching contains a spiciness display, a package photo, an ingredient display, or a long-term expiration date, the curry roux A was purchased based on such information. Judge. The control unit 46 uses the OCR unit 43 to extract whether or not the area that the user is watching includes the display of price and spiciness, the ingredients, and the expiration date.

なお、牛肉A,Bについても同様に、購入の際の判断基準を判断するようにすればよい。例えば、制御部46は、ユーザが注視している領域に、内容量の表示や、部位の表示、100g当たりの値段などが長時間含まれていた場合には、それらの情報に基づいて、牛肉Bを購入したと判断する。 Similarly, for beef A and B, the judgment criteria at the time of purchase may be judged. For example, when the area that the user is gazing at includes the display of the content, the display of the part, the price per 100 g, and the like for a long time, the control unit 46 is based on the information of the beef. It is determined that B has been purchased.

また、制御部46は、複数のユーザにおいて取得されたデータを参照することで、ある商品を購入したユーザが比較検討をした別の商品が何であるかを集計したり、比較検討した結果購入した商品の決め手が何であったかを集計したりすることができる。なお、購入の際の判断基準の分析結果は、各商品の製造元や生産者に提供することとしてもよい。製造元や生産者は、この分析結果を今後の商品開発や商品の改善に役立てることが可能である。 Further, the control unit 46 refers to the data acquired by a plurality of users, aggregates what the other product that the user who purchased one product has compared and examined, and purchased as a result of the comparison and examination. It is possible to aggregate what was the deciding factor of the product. The analysis result of the judgment criteria at the time of purchase may be provided to the manufacturer or producer of each product. Manufacturers and producers can use the results of this analysis for future product development and product improvement.

また、制御部46は、図9のデータを参照することで、客が物品を手に取った順番を集計することができる。この場合、制御部46は、集計結果を利用することで、客の店舗内における動きの傾向を分析することができる。これにより、制御部46は、客の動きに基づく、物品や棚の適切な配置を求めることができる。 Further, the control unit 46 can total the order in which the customer picks up the article by referring to the data in FIG. In this case, the control unit 46 can analyze the tendency of the customer's movement in the store by using the aggregation result. As a result, the control unit 46 can request an appropriate arrangement of articles and shelves based on the movement of the customer.

更に、制御部46は、入店から退店までの間にユーザがポジティブな状態になった回数や位置、ネガティブな状態になった回数や位置を集計することで、客の満足度や不満度を位置ごと(売り場ごと)に分析することができる。 Further, the control unit 46 aggregates the number and position of the user's positive state and the number and position of the user's negative state between entering and leaving the store, thereby satisfying and dissatisfiing the customer. Can be analyzed by position (by sales floor).

また、制御部46は、客がネガティブな状態からポジティブな状態に変化した場合の視線画像を分析することとしてもよい。制御部46は、視線画像を分析した結果、ネガティブな状態からポジティブな状態に変化する間の視線画像に従業員の顔が含まれていた場合には、当該従業員の対応によりトラブルが解消したと分析することができる。また、ネガティブな状態からポジティブな状態に変化する間に装着装置10や店内放送を用いた対応処理を行っていた場合には、対応処理が適切であったと分析することができる。 Further, the control unit 46 may analyze the line-of-sight image when the customer changes from a negative state to a positive state. As a result of analyzing the line-of-sight image, the control unit 46 solved the problem by the employee's response when the line-of-sight image included the employee's face while changing from the negative state to the positive state. Can be analyzed. Further, when the response process using the mounting device 10 or the in-store broadcast is performed while the negative state changes to the positive state, it can be analyzed that the response process was appropriate.

以上、詳細に説明したように、本第1の実施形態によると、サーバ40の制御部46及び通信部42は、ユーザの購買に関する動作情報として視線画像や物品情報を入力し、ユーザの購買に関する感情情報として生体センサ21の検出結果を入力する。これにより、制御部46は、視線画像や物品情報、生体センサ21の検出結果に基づいた購買に関する分析を行い、購買に関する有用な情報を取得・提供することが可能となる。したがって、ユーザによる使い勝手を向上することができる。この場合、ユーザの側から撮像した視線画像を用いることで、店舗の棚側から撮像した画像を用いる場合と比較して、ユーザが実際に見ている状況、すなわち、視線の先にある物品や表示、状況等を考慮した分析が可能となる。 As described in detail above, according to the first embodiment, the control unit 46 and the communication unit 42 of the server 40 input line-of-sight images and article information as operation information related to the user's purchase, and relate to the user's purchase. The detection result of the biological sensor 21 is input as emotion information. As a result, the control unit 46 can analyze the purchase based on the line-of-sight image, the article information, and the detection result of the biological sensor 21, and can acquire and provide useful information on the purchase. Therefore, the usability by the user can be improved. In this case, by using the line-of-sight image taken from the user's side, the situation actually seen by the user, that is, the article or the article in front of the line of sight, is compared with the case of using the image taken from the shelf side of the store. Analysis that takes into account the display, situation, etc. is possible.

ここで、従来は、装着装置10のような撮像部11が搭載された装置を装着したユーザが店舗内に入店してきた場合、店舗内の様子や商品が勝手に撮像されてしまうため、店舗側にとってメリットがあるとはいえなかった。これに対し、本第1の実施形態では、ユーザが装着装置10を装着して店舗に入るのを許容する代わりに、店舗側は、撮像部11が撮像した画像データをカゴ装置20を介してもらうこととしている。これにより、店舗は、画像データを分析することで、ユーザの商品購入までの行動や感情を分析することが可能である。 Here, conventionally, when a user wearing a device equipped with an image pickup unit 11 such as a mounting device 10 enters a store, the inside of the store and products are imaged without permission. It could not be said that there was a merit for the side. On the other hand, in the first embodiment, instead of allowing the user to wear the mounting device 10 and enter the store, the store side transfers the image data captured by the imaging unit 11 via the basket device 20. I'm going to get it. As a result, the store can analyze the behavior and emotions of the user up to the purchase of the product by analyzing the image data.

また、従来は、ショッピングの満足度などをユーザに対するアンケートにより収集することとしていたが、ユーザにとっては店舗のWebサイトにアクセスして、質問に回答したり、紙に回答を筆記したりする必要があり煩わしいものであった。これに対し、本第1の実施形態では、装着装置10で取得された画像データとユーザの生体情報とを紐付けて店舗側に提供することにより、ユーザが無意識のうちに、ユーザの満足度や不満度を店舗側に伝達することが可能である。 Also, in the past, shopping satisfaction was collected by questionnaires to users, but users need to access the store's website to answer questions or write answers on paper. It was annoying. On the other hand, in the first embodiment, the image data acquired by the mounting device 10 and the biometric information of the user are linked and provided to the store side, so that the user unknowingly satisfies the user. It is possible to convey the degree of dissatisfaction to the store side.

また、本第1の実施形態では、視線画像や物品情報、生体センサ21の検出結果に基づいて、ユーザへのメッセージや従業員へのメッセージを出力する。これにより、不満足に感じたユーザに対して即時対応を行うことが可能となる。 Further, in the first embodiment, a message to the user and a message to the employee are output based on the line-of-sight image, the article information, and the detection result of the biosensor 21. This makes it possible to immediately respond to a user who feels unsatisfied.

また、本第1の実施形態では、制御部46は、視線画像や物品情報からユーザが物品を保持したことを判断する。これにより、制御部46は、ユーザが物品を保持したという情報や保持した順番等を分析することで、購買に関する有用な情報を取得・提供することが可能となる。 Further, in the first embodiment, the control unit 46 determines that the user holds the article from the line-of-sight image and the article information. As a result, the control unit 46 can acquire and provide useful information regarding purchasing by analyzing the information that the user holds the goods, the order in which the goods are held, and the like.

また、本第1の実施形態では、制御部46は、生体センサ21の検出結果を利用するため、ユーザに感情の変化が生じたか否かを簡易に判断することが可能である。また、生体センサ21の検出結果とあわせてユーザの視線画像を分析することで、ユーザの感情がポジティブになったのか、ネガティブになったのかを精度よく判断することができる。 Further, in the first embodiment, since the control unit 46 uses the detection result of the biological sensor 21, it is possible to easily determine whether or not the user has an emotional change. Further, by analyzing the user's line-of-sight image together with the detection result of the biosensor 21, it is possible to accurately determine whether the user's emotion is positive or negative.

また、本第1の実施形態では、装着装置10が、視線画像を撮像し、撮像した視線画像を人体通信を介してユーザに接触しているカゴ装置20に対して送信する。これにより、カゴ装置20は、カゴ120を保持しているユーザの視線画像のみを取得することが可能である。すなわち、店舗に入店したユーザの装着装置10から視線画像を確実に取得し、店舗に入店していない人(例えば店舗付近を通りがかった人)の装着装置10から視線画像を取得してしまうのを確実に防止することができる。 Further, in the first embodiment, the wearing device 10 captures a line-of-sight image and transmits the captured line-of-sight image to the basket device 20 in contact with the user via human body communication. As a result, the basket device 20 can acquire only the line-of-sight image of the user holding the basket 120. That is, the line-of-sight image is surely acquired from the wearing device 10 of the user who has entered the store, and the line-of-sight image is acquired from the wearing device 10 of a person who has not entered the store (for example, a person who has passed near the store). It can be surely prevented from being stored.

また、本第1の実施形態では、生体センサ21の検出結果に変化があったとき、すなわち、ユーザの感情の変化があったときに、サーバ40に対して第1情報が送信される(S42)。これにより、分析が必要な情報を適切なタイミングでサーバ40に送信することができる。 Further, in the first embodiment, the first information is transmitted to the server 40 when there is a change in the detection result of the biosensor 21, that is, when there is a change in the user's emotion (S42). ). As a result, the information that needs to be analyzed can be transmitted to the server 40 at an appropriate timing.

なお、上記第1の実施形態では、生体センサ21をカゴ装置20が備える場合について説明したが、これに限らず、生体センサを装着装置10が備えていてもよい。この場合、装着装置10のフレームの一部やフレーム近傍に顔の一部と接触する生体センサを設けることとすればよい。また、装着装置10に耳たぶに装着可能な生体センサを接続するようにしてもよい。 In the first embodiment, the case where the basket device 20 includes the biosensor 21 has been described, but the present invention is not limited to this, and the mounting device 10 may include the biosensor. In this case, a biosensor that comes into contact with a part of the frame of the mounting device 10 or a part of the face near the frame may be provided. Further, a biosensor that can be attached to the earlobe may be connected to the attachment device 10.

また、上記第1の実施形態では、物品装置30を物品130に設ける場合について説明した。しかしながら、これに限られるものではなく、ステップS54の感情分析やステップS60の購入行動分析において物品情報が不要な場合には、物品装置30は必ずしも物品130に設けなくてもよい。例えば、視線画像において、物品を手に持っている状態が撮像されていた場合に、画像認識を行うことで、手に持っている物品を特定できる場合などである。 Further, in the first embodiment, the case where the article device 30 is provided in the article 130 has been described. However, the present invention is not limited to this, and when the article information is not required in the sentiment analysis in step S54 or the purchase behavior analysis in step S60, the article device 30 does not necessarily have to be provided in the article 130. For example, in the line-of-sight image, when the state of holding an article in a hand is captured, the image recognition may be performed to identify the article held in the hand.

なお、上記第1の実施形態では、物品装置30がカゴ装置20との間で人体通信を行う場合について説明したが、これに限らず、物品装置30は、装着装置10との間で人体通信を行うこととしてもよい。この場合、装着装置10とカゴ装置20との間で人体通信が成立した状態で、装着装置10が取得した物品情報を装着装置10からカゴ装置20に対して送信するようにすればよい。 In the first embodiment, the case where the article device 30 performs human body communication with the basket device 20 has been described, but the present invention is not limited to this, and the article device 30 has a human body communication with the mounting device 10. May be done. In this case, the article information acquired by the mounting device 10 may be transmitted from the mounting device 10 to the basket device 20 in a state where human body communication is established between the mounting device 10 and the basket device 20.

なお、上記第1の実施形態では、生体センサ21の検出結果を利用する場合について説明したが、これに限られるものではなく、生体センサ21の検出結果を利用しないこととしてもよい。この場合、制御部46は、例えば、視線画像に基づいて、ユーザが所定時間の間、図7(a)のマークを凝視していると判断した場合に、ユーザがポジティブな状態にあると推定することとしてもよい。また、制御部46は、例えば、視線画像に基づいて、ユーザが図7(b)の張り紙や図7(c)のレジ待ち状態を所定時間凝視していると判断した場合に、ユーザがネガティブな状態にあると推定することとしてもよい。この場合、制御部46は、ユーザが見ることでポジティブ又はネガティブな状態になると予測されるマークや張り紙、状況の画像パターンを予め記憶しておき、該画像パターンと視線画像との比較を行うこととすればよい。 In the first embodiment, the case where the detection result of the biological sensor 21 is used has been described, but the present invention is not limited to this, and the detection result of the biological sensor 21 may not be used. In this case, the control unit 46 estimates that the user is in a positive state when it is determined that the user is staring at the mark of FIG. 7A for a predetermined time, for example, based on the line-of-sight image. You may do it. Further, when the control unit 46 determines, for example, based on the line-of-sight image that the user is staring at the poster in FIG. 7 (b) or the waiting state for registration in FIG. 7 (c) for a predetermined time, the user is negative. It may be presumed that it is in such a state. In this case, the control unit 46 stores in advance an image pattern of a mark, a sticker, or a situation that is predicted to be in a positive or negative state when viewed by the user, and compares the image pattern with the line-of-sight image. And it is sufficient.

なお、上記第1の実施形態では、視線画像の所定位置を視線の中心位置とみなす場合について説明したが、これに限られるものではない。例えば、赤外線照射部と、赤外線受光部と、を有し、赤外線照射部から眼球に対して赤外線を照射し、眼球にて反射した赤外線を赤外線受光部において受光することで視線方向を検出する視線検出部を装着装置10に別途設けることとしてもよい。 In the first embodiment, the case where a predetermined position of the line-of-sight image is regarded as the center position of the line-of-sight has been described, but the present invention is not limited to this. For example, it has an infrared irradiation unit and an infrared light receiving unit, and the infrared irradiation unit irradiates the eyeball with infrared rays, and the infrared rays reflected by the eyeball are received by the infrared light receiving unit to detect the line-of-sight direction. The detection unit may be separately provided in the mounting device 10.

なお、サーバ40は、複数の店舗における客の満足度や不満足度などを集計して、1つのWebサイトにおいて各店舗のユーザ評価として公表することとしてもよい。この場合、例えば、各店舗の評価を星の数や満足度の点数などで公表することができる。 The server 40 may aggregate the satisfaction and dissatisfaction of customers in a plurality of stores and publish it as a user evaluation of each store on one website. In this case, for example, the evaluation of each store can be announced by the number of stars, the score of satisfaction, and the like.

《第2の実施形態》
次に、第2の実施形態に係る電子機器システム100’について、図10~図14に基づいて、詳細に説明する。
<< Second Embodiment >>
Next, the electronic device system 100'according to the second embodiment will be described in detail with reference to FIGS. 10 to 14.

図10には、電子機器システム100’の構成がブロック図にて示されている。図10では、電子機器システム100’のうち、第1の実施形態の電子機器システム100と異なる構成を太線枠にて示している。 FIG. 10 shows the configuration of the electronic device system 100'in a block diagram. In FIG. 10, among the electronic device systems 100', a configuration different from that of the electronic device system 100 of the first embodiment is shown by a thick line frame.

図10に示すように、電子機器システム100’においては、装着装置10’がスピーカ18を備え、カゴ装置20’が重量センサ27を備え、物品装置30’が発光部34を備えている。なお、サーバ40’の構成は、第1の実施形態のサーバ40と同様である。 As shown in FIG. 10, in the electronic device system 100', the mounting device 10'is provided with a speaker 18, the basket device 20'is provided with a weight sensor 27, and the article device 30'is provided with a light emitting unit 34. The configuration of the server 40'is the same as that of the server 40 of the first embodiment.

スピーカ18は、装着装置10’を装着するユーザに音声情報を提供するために用いられる。スピーカ18としては、イヤホンやヘッドホンのほか、指向性があり、装着装置10’を装着するユーザにのみ音声情報を提供することが可能なスピーカなどを採用することができる。なお、装着装置10’の記憶部15には、後述する物品装置30’の発光部34の発光パターンに対応する物品情報を格納しているものとする。 The speaker 18 is used to provide voice information to the user who wears the wearing device 10'. As the speaker 18, in addition to earphones and headphones, a speaker having directivity and capable of providing voice information only to a user who wears the wearing device 10'can be adopted. It is assumed that the storage unit 15 of the mounting device 10'stores the article information corresponding to the light emitting pattern of the light emitting unit 34 of the article device 30'described later.

重量センサ27は、カゴ装置20’の一部に設けられ、カゴ120の内容量の変化を検出するためのセンサである。 The weight sensor 27 is provided in a part of the basket device 20'and is a sensor for detecting a change in the internal capacity of the basket 120.

発光部34は、LED(Light Emitting Diode)等の発光素子を含み、物品ごとに予め定められた発光パターンで、発光を行う。なお、発光部34の発光は、制御部33により制御される。装着装置10’の制御部17は、撮像部11による動画撮影において、画角の所定範囲内で発光パターンを撮像した場合に、ユーザがその発光パターンに対応する物品を見たと推定する。なお、発光部34による発光のオン・オフ切り替えタイミング(発光パターンの点滅間隔)は、撮像部11のフレームレートに合わせて設定されているものとする。なお、発光部34として可視光LEDを用いても赤外線LEDを用いてもよく、赤外線LEDを用いる場合には、撮像部11に赤外線撮像素子を用いればよい。 The light emitting unit 34 includes a light emitting element such as an LED (Light Emitting Diode), and emits light in a light emitting pattern predetermined for each article. The light emission of the light emitting unit 34 is controlled by the control unit 33. It is presumed that the control unit 17 of the mounting device 10'sees an article corresponding to the light emission pattern when the light emission pattern is imaged within a predetermined range of the angle of view in the moving image shooting by the image pickup unit 11. It is assumed that the on / off switching timing (blinking interval of the light emission pattern) of the light emission by the light emitting unit 34 is set according to the frame rate of the image pickup unit 11. A visible light LED or an infrared LED may be used as the light emitting unit 34, and when an infrared LED is used, an infrared image pickup element may be used for the image pickup unit 11.

次に、本第2の実施形態における電子機器システム100’の処理について、図11~図13のフローチャートに沿って、その他図面を適宜参照しつつ詳細に説明する。なお、本第2の実施形態においても、電子機器システム100’が、スーパーマーケットで利用される場合について説明する。 Next, the processing of the electronic device system 100'in the second embodiment will be described in detail with reference to other drawings according to the flowcharts of FIGS. 11 to 13. In addition, also in this 2nd Embodiment, the case where the electronic device system 100'is used in a supermarket will be described.

(装着装置10’の処理)
図11(a)には、装着装置10’の処理がフローチャートにて示されている。なお、図11(a)においては、第1の実施形態の装着装置10の処理(図4(a))と異なるステップを太線枠にて示している。
(Processing of mounting device 10')
FIG. 11A shows a flowchart of the process of the mounting device 10'. In FIG. 11A, a step different from the processing of the mounting device 10 of the first embodiment (FIG. 4A) is shown by a thick line frame.

図11(a)の処理では、装着装置10’の制御部17は、ステップS10において、カゴ装置20’との人体通信が成立するまで待機する。カゴ装置20’との人体通信が成立すると、制御部17は、ステップS110に移行する。 In the process of FIG. 11A, the control unit 17 of the mounting device 10'stands by in step S10 until human body communication with the basket device 20'is established. When the human body communication with the basket device 20'is established, the control unit 17 proceeds to step S110.

ステップS110に移行すると、制御部17は、撮像部11に指示を出し、ユーザ側からの撮像(動画)を実行する。 When the process proceeds to step S110, the control unit 17 issues an instruction to the image pickup unit 11 and executes imaging (moving image) from the user side.

次いで、ステップS112では、制御部17は、画角の所定範囲内において発光部34の発光を撮像したか否かを判断する。すなわち、ユーザが物品装置30’が設けられている物品を見たか否かを判断する。このステップS112における判断が否定された場合には、ステップS116に移行するが、ステップS112の判断が肯定された場合には、ステップS114に移行する。 Next, in step S112, the control unit 17 determines whether or not the light emitted from the light emitting unit 34 has been imaged within a predetermined range of the angle of view. That is, it is determined whether or not the user has seen the article provided with the article device 30'. If the determination in step S112 is denied, the process proceeds to step S116, but if the determination in step S112 is affirmed, the process proceeds to step S114.

ステップS114に移行すると、制御部17は、ユーザが見た物品情報をカゴ装置20’に送信する。具体的には、制御部17は、撮像部11の画角の所定範囲内において検出された発光パターンに対応する物品情報を記憶部15から取得し、通信部16を介してカゴ装置20’の第1通信部24に対して送信する。 When the process proceeds to step S114, the control unit 17 transmits the article information seen by the user to the basket device 20'. Specifically, the control unit 17 acquires article information corresponding to the light emission pattern detected within a predetermined range of the angle of view of the image pickup unit 11 from the storage unit 15, and the basket device 20'via the communication unit 16. It transmits to the first communication unit 24.

ステップS112の判断が否定された後、あるいはステップS114の処理が行われた後、ステップS116に移行すると、制御部17は、カゴ装置20’から情報を受信したか否かを判断する。なお、カゴ装置20’から受信する情報とは、サーバ40’から送信されてくる物品や店舗のサービスに関する情報である。ここでの判断が否定された場合には、ステップS16に移行するが、肯定された場合には、ステップS118に移行する。 When the process proceeds to step S116 after the determination in step S112 is denied or the process in step S114 is performed, the control unit 17 determines whether or not information has been received from the basket device 20'. The information received from the basket device 20'is information related to goods and store services transmitted from the server 40'. If the determination here is denied, the process proceeds to step S16, but if the determination is affirmed, the process proceeds to step S118.

ステップS118に移行すると、制御部17は、カゴ装置20’から受信した情報を出力する。なお、本ステップS118の処理の詳細については、後述する。 When the process proceeds to step S118, the control unit 17 outputs the information received from the basket device 20'. The details of the process of this step S118 will be described later.

ステップS116の判断が否定された後、あるいはステップS118の処理が行われた後、ステップS16に移行すると、制御部17は、レジ端末から入力のあったカゴ装置20’との人体通信が成立したか否かを判断する。ここで、レジ端末からの入力とは、ユーザが買い物を終了し、レジにカゴ120を持っていった場合に、カゴ装置20’とレジ端末との間の通信により、レジ端末からカゴ装置20’に対して送信される、買い物終了情報の入力を意味する。すなわち、レジ端末からの入力があったカゴ装置20’と装着装置10’との人体通信が成立した場合、ユーザの買い物が終了したことを意味する。したがって、買い物が終了しておらず、ステップS16の判断が否定された場合には、ステップS112に戻り、ステップS112~S16の処理・判断を繰り返す。一方、ユーザの買い物が終了し、ステップS16の判断が肯定された場合には、図11(a)の全処理が終了する。 When the process proceeds to step S16 after the determination in step S116 is denied or the process in step S118 is performed, the control unit 17 establishes human body communication with the basket device 20'input from the cash register terminal. Judge whether or not. Here, the input from the cash register terminal means that when the user finishes shopping and brings the basket 120 to the cash register, the basket device 20'is communicated between the basket device 20'and the cash register terminal. 'It means to enter the shopping end information sent to. That is, when the human body communication between the basket device 20'and the wearing device 10'that has been input from the cash register terminal is established, it means that the user's shopping is completed. Therefore, if the shopping is not completed and the determination in step S16 is denied, the process returns to step S112 and the processing / determination in steps S112 to S16 is repeated. On the other hand, when the user's shopping is completed and the determination in step S16 is affirmed, the entire process of FIG. 11A is completed.

(物品装置30’の処理)
図11(b)には、物品装置30’の処理がフローチャートにて示されている。なお、図11(b)においては、第1の実施形態の物品装置30の処理(図4(b))と異なるステップを太線枠にて示している。
(Processing of article device 30')
FIG. 11B shows a flowchart of the processing of the article device 30'. In addition, in FIG. 11B, a step different from the processing of the article apparatus 30 of the first embodiment (FIG. 4B) is shown by a thick line frame.

図11(b)に示すように、物品装置30’では、ステップS120において、制御部33が、発光部34を用いた発光を行う。この場合、制御部33は、物品装置30’が設けられる物品に対応する発光パターンで、発光部34を発光させる。その他の処理は、図4(b)と同様である。 As shown in FIG. 11B, in the article device 30', in step S120, the control unit 33 emits light using the light emitting unit 34. In this case, the control unit 33 causes the light emitting unit 34 to emit light in a light emitting pattern corresponding to the article provided with the article device 30'. Other processing is the same as in FIG. 4 (b).

(カゴ装置20’の処理)
図12には、カゴ装置20’の処理がフローチャートにて示されている。図12の処理では、ステップS130において、制御部26は、装着装置10’との人体通信が成立するまで待機する。装着装置10’との人体通信が成立して、ステップS132に移行すると、制御部26は、装着装置10’から物品情報を受信したか否かを判断する。
(Processing of basket device 20')
In FIG. 12, the processing of the basket device 20'is shown in a flowchart. In the process of FIG. 12, in step S130, the control unit 26 waits until the human body communication with the wearing device 10'is established. When the human body communication with the mounting device 10'is established and the process proceeds to step S132, the control unit 26 determines whether or not the article information has been received from the mounting device 10'.

ステップS132の判断が肯定された場合には、ステップS134に移行し、制御部26は、装着装置10’から受信した物品情報を、見た物品の物品情報としてサーバ40’に送信し、ステップS136に移行する。一方、ステップS132の判断が否定された場合には、ステップS134を経ずにステップS136に移行する。 If the determination in step S132 is affirmed, the process proceeds to step S134, and the control unit 26 transmits the article information received from the mounting device 10'to the server 40'as the article information of the seen article, and steps S136. Move to. On the other hand, if the determination in step S132 is denied, the process proceeds to step S136 without going through step S134.

ステップS136に移行すると、制御部26は、物品装置30’から物品情報を受信したか否かを判断する。ステップS136の判断が肯定された場合には、ステップS138に移行し、制御部26は、物品装置30’から受信した物品情報を、触れた物品の物品情報としてサーバ40’に送信し、ステップS140に移行する。一方、ステップS136の判断が否定された場合には、ステップS138を経ずにステップS140に移行する。 When the process proceeds to step S136, the control unit 26 determines whether or not the article information has been received from the article device 30'. If the determination in step S136 is affirmed, the process proceeds to step S138, and the control unit 26 transmits the article information received from the article device 30'to the server 40'as the article information of the touched article, and steps S140. Move to. On the other hand, if the determination in step S136 is denied, the process proceeds to step S140 without going through step S138.

ステップS140に移行すると、制御部26は、重量センサ27の検出値が変化したか否かを判断する。ここで、重量センサ27の検出値が変化した場合とは、物品がカゴ120内に新たに入れられたことを意味する。なお、カゴ120内の物品が取り出された場合も重量センサ27の検出値は変化するが、ここでは、説明の便宜上、カゴ120内から物品は取り出されないものとして説明する。ステップS140の判断が肯定された場合には、ステップS142に移行し、制御部26は、直前に触れていた物品の物品情報を、カゴに入れた物品の物品情報、すなわちユーザが購入予定の商品の情報としてサーバ40’に送信する。一方、ステップS140の判断が否定された場合には、ステップS142を経ずにステップS144に移行する。 When the process proceeds to step S140, the control unit 26 determines whether or not the detected value of the weight sensor 27 has changed. Here, when the detected value of the weight sensor 27 changes, it means that the article is newly put in the basket 120. Although the detected value of the weight sensor 27 changes even when the article in the basket 120 is taken out, here, for convenience of explanation, it is assumed that the article is not taken out from the basket 120. If the determination in step S140 is affirmed, the process proceeds to step S142, and the control unit 26 converts the article information of the article touched immediately before into the article information of the article in the basket, that is, the article to be purchased by the user. It is transmitted to the server 40'as the information of. On the other hand, if the determination in step S140 is denied, the process proceeds to step S144 without going through step S142.

ステップS144に移行すると、制御部26は、サーバ40’から情報を受信したか否かを判断する。なお、サーバ40’から受信する情報とは、物品や店舗のサービスに関する情報である。このステップS144の判断が肯定された場合には、ステップS146に移行し、制御部26は、サーバ40’から受信した情報を装着装置10’に送信し、ステップS148に移行する。一方、ステップS144の判断が否定された場合には、ステップS146を経ずに、ステップS148に移行する。 When the process proceeds to step S144, the control unit 26 determines whether or not information has been received from the server 40'. The information received from the server 40'is information related to goods and store services. If the determination in step S144 is affirmed, the process proceeds to step S146, and the control unit 26 transmits the information received from the server 40'to the mounting device 10'and proceeds to step S148. On the other hand, if the determination in step S144 is denied, the process proceeds to step S148 without going through step S146.

ステップS148に移行すると、制御部26は、レジ端末から入力があったか否かを判断する。ここで、レジ端末からの入力とは、前述したように、買い物終了情報の入力を意味する。 When the process proceeds to step S148, the control unit 26 determines whether or not there has been an input from the cash register terminal. Here, the input from the cash register terminal means the input of the shopping end information as described above.

ステップS148の判断が否定された場合には、ステップS132に移行し、ステップS132~S148の処理・判断を繰り返すが、ステップS148の判断が肯定された場合には、制御部26は、図12の全処理を終了する。 If the determination in step S148 is denied, the process proceeds to step S132 and the processing / determination in steps S132 to S148 is repeated. If the determination in step S148 is affirmed, the control unit 26 is shown in FIG. End all processing.

(サーバ40’の処理)
図13には、サーバ40’の処理がフローチャートにて示されている。
(Processing of server 40')
FIG. 13 shows the process of the server 40'in a flowchart.

図13の処理では、ステップS150において、制御部46は、カゴ装置20’から物品情報を受信するまで待機する。すなわち、ユーザが見た物品の物品情報、ユーザが触れた物品の物品情報、カゴ120に入れた物品の物品情報のいずれかが入力された段階で、制御部46は、ステップS152に移行する。 In the process of FIG. 13, in step S150, the control unit 46 waits until the article information is received from the basket device 20'. That is, when any one of the article information of the article seen by the user, the article information of the article touched by the user, and the article information of the article put in the basket 120 is input, the control unit 46 shifts to step S152.

ステップS152に移行すると、制御部46は、記憶部41に格納されている買い物DBを更新する。ここで、買い物DBは、図14(a)に示すようなデータ構造を有している。図14(a)に示すように、物品名、見た、手に触れた、カゴに入れた、の各欄を有する。制御部46は、ユーザが見た物品の物品情報を受信した場合、当該物品の見たの欄に○を格納し、ユーザが触れた物品の物品情報を受信した場合、当該物品の触れたの欄に○を格納し、ユーザがカゴに入れた物品の物品情報を受信した場合、当該物品のカゴに入れたの欄に○を格納する。 When the process proceeds to step S152, the control unit 46 updates the shopping DB stored in the storage unit 41. Here, the shopping DB has a data structure as shown in FIG. 14A. As shown in FIG. 14 (a), it has columns for the name of the article, seen, touched, and put in a basket. When the control unit 46 receives the article information of the article seen by the user, it stores a circle in the column of the article seen by the user, and when it receives the article information of the article touched by the user, the control unit 46 touches the article. ○ is stored in the column, and when the user receives the article information of the article put in the basket, ○ is stored in the column of the article put in the basket of the article.

次いで、ステップS154では、制御部46は、買い物DBを分析する。例えば、制御部46は、図14(a)の買い物DBを参照して、牛肉Aを手に持ってから所定時間経過したような場合(新たな物品情報を所定時間受信しないような場合)には、牛肉Aと比較対照となり得る物品(例えば、牛肉B)の情報をユーザが必要としている可能性があると分析することができる。また、制御部46は、例えば、カゴに入れた物品から、ユーザがカレーを作ることを推定できるため、カレーを作る際に必要な牛肉の量(4皿分ならXg、8皿分ならYgなど)の情報をユーザが必要としている可能性があると分析することができる。また、制御部46は、カレーの付け合せ(福神漬けやロースカツ、デザートなど)のお買い得情報や、店舗のキャンペーン情報(あとZ円買えば、クジが引けるなど)の情報をユーザが必要としている可能性があると分析することができる。 Next, in step S154, the control unit 46 analyzes the shopping DB. For example, when the control unit 46 refers to the shopping DB of FIG. 14A and a predetermined time has passed since the beef A was held in the hand (when new article information is not received for a predetermined time). Can analyze that the user may need information on an article (eg, beef B) that can be compared with beef A. Further, since the control unit 46 can estimate that the user will make curry from the articles put in the basket, for example, the amount of beef required for making curry (Xg for 4 dishes, Yg for 8 dishes, etc.) ) Information may be needed by the user. In addition, the control unit 46 may require information on bargain information on curry garnish (Fukujinzuke, roast cutlet, dessert, etc.) and store campaign information (such as if you buy another Z yen, you can draw a lottery). It can be analyzed that there is.

次いで、ステップS156では、制御部46は、ステップS154の分析の結果、ユーザに通知する情報が存在するか否かを判断する。ここでの判断が否定された場合には、ステップS150に戻るが、肯定された場合には、ステップS158に移行する。なお、同一の物品にユーザが複数回触れた場合や、以前触れた物品と類似する物品にユーザが触れた場合などにおいては、過去に通知した情報と同一の情報が、ユーザに通知する情報と判断される場合もある。したがって、制御部46は、過去に通知した情報と同一の情報については、ユーザに通知すべき情報ではないとして、通知を制限してもよい。すなわち、制御部46は、同一の物品に複数回触れた場合又は複数回見た場合、あるいは以前触れた又は見た物品と類似する物品に触れた又は見た場合に、通知される情報を制限することとしてもよい。このようにすることで、同一のユーザに同一の情報が繰り返し通知されるのを防止することができる。 Next, in step S156, the control unit 46 determines whether or not there is information to be notified to the user as a result of the analysis in step S154. If the determination here is denied, the process returns to step S150, but if the determination is affirmed, the process proceeds to step S158. When the user touches the same article multiple times, or when the user touches an article similar to the previously touched article, the same information as the information previously notified is the information notified to the user. It may be judged. Therefore, the control unit 46 may limit the notification of the same information as the information previously notified, assuming that the information should not be notified to the user. That is, the control unit 46 limits the information to be notified when the same article is touched or viewed multiple times, or when an article similar to the previously touched or viewed article is touched or viewed. You may do it. By doing so, it is possible to prevent the same user from being repeatedly notified of the same information.

なお、制御部46は、同じ物品に触れた回数や同じ物品を見た回数に応じて、通知すべき情報を変更することとしてもよい。例えば、制御部46は、1回目には物品そのものの情報、2回目にはその物品の比較対照となる物品の情報、3回目には物品に関連するお得情報、を通知すべき情報とすることとしてもよい。このようにすることで、物品の購入に迷っている客が当該物品を購入する可能性を向上することが可能となる。これに代えて、ユーザが同一の物品に触れた時間に応じて、2回目以降はユーザに通知していない情報からユーザに通知するようにしてもよい。 The control unit 46 may change the information to be notified according to the number of times the same article is touched or the number of times the same article is seen. For example, the control unit 46 makes the information to be notified the first time the information of the article itself, the second time the information of the article to be compared and controlled by the article, and the third time the information related to the article. It may be that. By doing so, it is possible to improve the possibility that a customer who is uncertain about purchasing an article will purchase the article. Instead of this, depending on the time when the user touches the same article, the user may be notified from the information which has not been notified to the user from the second time onward.

ステップS156の判断が肯定された場合、制御部46は、ステップS158に移行し、ユーザに通知する情報をカゴ装置20’に送信する。なお、ステップS158の処理が行われた場合、図12の処理では、ステップS144の判断が肯定され、ステップS146の処理(サーバから受信した情報を装着装置10’に送信する処理)が実行される。また、図12においてステップS146の処理が実行された場合、図11(a)のステップS116の判断が肯定され、ステップS118の処理(受信した情報を出力する処理)が実行される。ステップS118では、制御部17は、表示部12を用いて、ユーザに通知する情報を表示したり、スピーカ18を用いて、ユーザに通知する情報を出力したりする。なお、ステップS158の後は、ステップS150に戻り、ステップS150~S158の処理を繰り返す。 If the determination in step S156 is affirmed, the control unit 46 proceeds to step S158 and transmits the information to be notified to the user to the basket device 20'. When the process of step S158 is performed, the determination of step S144 is affirmed in the process of FIG. 12, and the process of step S146 (the process of transmitting the information received from the server to the mounting device 10') is executed. .. Further, when the process of step S146 is executed in FIG. 12, the determination of step S116 of FIG. 11A is affirmed, and the process of step S118 (process of outputting the received information) is executed. In step S118, the control unit 17 uses the display unit 12 to display the information to be notified to the user, and the speaker 18 to output the information to be notified to the user. After step S158, the process returns to step S150 and the processes of steps S150 to S158 are repeated.

なお、制御部46は、買い物が終了したユーザの買い物DB(例えば、図14(b))に基づいて、各種分析を行うこととしてもよい。この場合、制御部46は、例えば、図14(b)に基づいて、カレールーAとカレールーB、及び牛肉Aと牛肉Bが比較され、カレールーB、牛肉Bが購入されたことを分析することができる。また、制御部46は、店内を歩く順番、購入の順番などを分析することもできる。また、制御部46は、商品を見ただけで購入しなかった物品、手に取ったけど購入しなかった物品を特定し、分析することができる。制御部46は、分析結果を商品の製造元、販売元等に提供することとしてもよい。 The control unit 46 may perform various analyzes based on the shopping DB (for example, FIG. 14B) of the user who has finished shopping. In this case, the control unit 46 may compare curry-A and curry-B, and beef A and beef B, and analyze that curry-B and beef B have been purchased, for example, based on FIG. 14 (b). can. The control unit 46 can also analyze the order of walking in the store, the order of purchase, and the like. In addition, the control unit 46 can identify and analyze an item that was not purchased just by looking at the item and an item that was picked up but not purchased. The control unit 46 may provide the analysis result to the manufacturer, seller, or the like of the product.

以上、詳細に説明したように、本第2の実施形態によると、制御部46は、物品をユーザが手にしたこと、及び物品がユーザの視野内の所定範囲に入ったことの少なくとも一方に応じて、物品の物品情報を入力し(S150:肯定)、入力した物品情報に関する通知を行う(S158)。したがって、本第2の実施形態では、ユーザが手に触れた物品やユーザが見た物品に関連した有用な情報を、ユーザに対して報知することができる。これにより、ユーザの使い勝手を向上することができる。 As described in detail above, according to the second embodiment, the control unit 46 determines that the user has obtained the article and that the article is within a predetermined range in the user's field of view. Accordingly, the article information of the article is input (S150: affirmative), and the notification regarding the input article information is given (S158). Therefore, in the second embodiment, it is possible to notify the user of useful information related to the article touched by the user or the article seen by the user. As a result, the usability of the user can be improved.

また、本第2の実施形態では、制御部46は、物品情報としてカゴ120内に入れられたユーザが購入予定の商品の情報を入力し、入力した商品に応じた通知を行う。これにより、ユーザが購入予定の商品に関連した有用な情報を、ユーザに対して報知することができる。また、制御部46は、買い物時に使用されるカゴ装置20’から購入予定の商品の情報を入力するので、購入予定の商品の情報として正確な情報を入力することができる。 Further, in the second embodiment, the control unit 46 inputs the information of the product to be purchased by the user put in the basket 120 as the product information, and gives a notification according to the input product. As a result, useful information related to the product that the user plans to purchase can be notified to the user. Further, since the control unit 46 inputs the information of the product to be purchased from the basket device 20'used at the time of shopping, accurate information can be input as the information of the product to be purchased.

また、本第2の実施形態では、ユーザへの情報の通知を装着装置10’の表示部12や指向性のあるスピーカ18から行うので、他のユーザに知られることなく、ユーザごとにユーザの購買行動に応じた通知を行うことができる。 Further, in the second embodiment, since the information is notified to the user from the display unit 12 of the mounting device 10'or the directional speaker 18, the user's information is not known to other users. Notifications can be made according to purchasing behavior.

なお、上記第2の実施形態では、制御部46は、ユーザがある物品を手に持ちながら、別の物品を見ている場合に、両商品を比較検討していると判断してもよい。 In the second embodiment, the control unit 46 may determine that the two products are being compared and examined when the user is holding an article and looking at another article.

なお、上記第2の実施形態では、スーパーマーケットにおいて電子機器システム100’を利用する例について説明したが、これに限らず、衣料品店等において電子機器システム100’を利用することとしてもよい。例えば、制御部46は、ユーザが服を手に取ったときに、色違い、サイズ違いなどの在庫の有無の情報、類似商品でセール中の商品があるか否かの情報、あと1着買うと値引き、あと2000円以上買うと値引きなどの値引き情報等を表示部12やスピーカ18を用いて報知することにより、他のユーザに知られることなく、特定のユーザ(店舗の会員などのお得意様)だけに通知することができる。また、サーバ40’は、店舗の会員のユーザが誕生日に来店した際に、装着装置10’に値引き情報、プレゼント情報、お祝いのメッセージを送信するようにしてもよい。 In the second embodiment, the example of using the electronic device system 100'in a supermarket has been described, but the present invention is not limited to this, and the electronic device system 100'may be used in a clothing store or the like. For example, when the user picks up clothes, the control unit 46 provides information on the presence or absence of inventory such as different colors and sizes, information on whether or not there are similar products on sale, and buys one more item. By using the display unit 12 and the speaker 18 to notify the discount information such as the discount when the purchase is 2000 yen or more, the specific user (specialty of store members, etc.) without being known to other users. Can only be notified. Further, the server 40'may send discount information, present information, and a congratulatory message to the wearing device 10'when the user of the store member visits the store on his / her birthday.

なお、上記第2の実施形態では、制御部17は、装着装置10’において取得された物品情報をカゴ装置20’を経由してサーバ40’に送信する場合について説明したが、これに限られるものではない。例えば、装着装置10’が無線通信可能な通信部を有している場合には、無線通信により、装着装置10’からサーバ40’に情報を送信するようにしてもよい。 In the second embodiment, the control unit 17 has described the case where the article information acquired by the mounting device 10'is transmitted to the server 40' via the basket device 20', but the present invention is limited to this. It's not a thing. For example, when the mounting device 10'has a communication unit capable of wireless communication, information may be transmitted from the mounting device 10'to the server 40'by wireless communication.

なお、上記第2の実施形態では、物品装置30’が発光部34を有する場合について説明したが、これに限らず、物品装置30’は発光部34を有していなくてもよい。この場合、制御部17は、撮像部11が撮像した画像を解析することで、ユーザが見た物品を特定するようにすればよい。例えば、制御部17は、表示に含まれる文字(例えば商品タグやPOP広告の文字)を認識して、ユーザが見た物品を特定することとしてもよい。 In the second embodiment, the case where the article device 30'has a light emitting unit 34 has been described, but the present invention is not limited to this, and the article device 30'may not have the light emitting unit 34. In this case, the control unit 17 may identify the article seen by the user by analyzing the image captured by the image pickup unit 11. For example, the control unit 17 may recognize characters included in the display (for example, characters of a product tag or a POP advertisement) to identify an article viewed by the user.

なお、上記第1、第2の実施形態においては、制御部46は、情報を分析する際に、ユーザの種別を考慮することとしてもよい。ユーザの種別は店舗の会員であれば、登録されている情報(名前、生年月日、住所、買物履歴)から把握できる。この場合、ユーザの性別や年代ごとに、ユーザの購買行動を分析することとしてもよい。 In the first and second embodiments, the control unit 46 may consider the type of user when analyzing the information. If the user is a member of the store, the type of user can be grasped from the registered information (name, date of birth, address, shopping history). In this case, the user's purchasing behavior may be analyzed for each user's gender and age.

上述した各実施形態は本発明の好適な実施の例であり、適宜組み合わせることができる。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。 Each of the above-described embodiments is an example of a preferred embodiment of the present invention, and can be appropriately combined. However, the present invention is not limited to this, and various modifications can be made without departing from the gist of the present invention.

10 装着装置
11 撮像部
12 表示部
16 通信部
17 制御部
18 スピーカ
20 カゴ装置
42 通信部
46 制御部
110 フレーム
120 カゴ
10 Mounting device 11 Imaging unit 12 Display unit 16 Communication unit 17 Control unit 18 Speaker 20 Basket device 42 Communication unit 46 Control unit 110 Frame 120 Basket

Claims (15)

店舗に設置され、前記店舗へのユーザの入店を検出する入店検出部と、
前記店舗で撮像された画像情報に基づいて、前記ユーザの手にした物品を認識する認識部と、
前記認識部により認識された前記物品に関する情報を取得する取得部と、
前記取得部が取得した前記物品に関する情報を、前記店舗の装置に送信する送信部と、を備えた電子機器システム。
An entry detection unit installed in a store that detects the user's entry into the store,
A recognition unit that recognizes an article held by the user based on image information captured at the store.
An acquisition unit that acquires information about the article recognized by the recognition unit, and
An electronic device system including a transmission unit that transmits information about the article acquired by the acquisition unit to the device of the store.
前記画像情報は、前記物品に備えられた通信部からの近接通信に基づいて撮像されるものである、ことを特徴とする請求項1に記載の電子機器システム。 The electronic device system according to claim 1, wherein the image information is imaged based on proximity communication from a communication unit provided in the article. 前記入店検出部は、前記店舗内に設置される装置であり、前記ユーザの所持装置と通信することにより前記ユーザの入店を検出する、ことを特徴とする請求項1又は2に記載の電子機器システム。 The first or second aspect of claim 1 or 2, wherein the store entry detection unit is a device installed in the store and detects the user's entry by communicating with the user's possession device. Electronic device system. 前記送信部は、前記店舗の装置および前記店舗の店員が所持する端末に対して、前記情報を送信する、ことを特徴とする請求項1~3のいずれか一項に記載の電子機器システム。 The electronic device system according to any one of claims 1 to 3, wherein the transmission unit transmits the information to the device of the store and the terminal possessed by the clerk of the store. 前記送信部は、前記ユーザが前記物品を複数回手にしたとき、又は前記ユーザの視野内の所定範囲に前記物品が複数回入ったときに、前記情報の送信を制限する、ことを特徴とする請求項1~4のいずれか一項に記載の電子機器システム。 The transmitting unit is characterized in that when the user picks up the article a plurality of times, or when the article enters a predetermined range within a predetermined range of the user a plurality of times, the transmission of the information is restricted. The electronic device system according to any one of claims 1 to 4. 前記送信部は、前記ユーザが前記物品を手にした回数、又は前記物品が前記ユーザの視野内の所定範囲に入った回数に応じて、前記情報の内容を異ならせることを特徴とする請求項5に記載の電子機器システム。 The claim is characterized in that the transmitting unit makes the content of the information different depending on the number of times the user picks up the article or the number of times the article enters a predetermined range in the user's field of view. The electronic device system according to 5. 前記送信部は、前記物品と類似する類似物品を前記ユーザが手にしたとき、又は前記ユーザの視野内の所定範囲に前記類似物品が入ったときに、前記情報の送信を制限する、ことを特徴とする請求項1~6のいずれか一項に記載の電子機器システム。 The transmitting unit limits the transmission of the information when the user picks up a similar article similar to the article or when the similar article falls within a predetermined range in the user's field of view. The electronic device system according to any one of claims 1 to 6, wherein the electronic device system is characterized. 前記取得部は、前記物品の情報として前記ユーザが購入予定の商品の情報を取得し、
前記送信部は、前記購入予定の商品に応じた情報を送信することを特徴とする請求項1~7のいずれか一項に記載の電子機器システム。
The acquisition unit acquires information on the product that the user plans to purchase as information on the article.
The electronic device system according to any one of claims 1 to 7, wherein the transmission unit transmits information according to the product to be purchased.
前記取得部は、外部機器から前記購入予定の商品の情報を取得することを特徴とする請求項8に記載の電子機器システム。 The electronic device system according to claim 8, wherein the acquisition unit acquires information on the product to be purchased from an external device. 前記取得部は、前記購入予定の商品を収納する収納装置を介して、前記外部機器から前記購入予定の商品に応じた情報を取得することを特徴とする請求項9に記載の電子機器システム。 The electronic device system according to claim 9, wherein the acquisition unit acquires information according to the product to be purchased from the external device via a storage device for storing the product to be purchased. 前記認識部は、前記店舗に備えられた重量センサと、前記店舗で撮像された画像情報と、を用いて、前記物品を認識する請求項1~10のいずれか一項に記載の電子機器システム。 The electronic device system according to any one of claims 1 to 10, wherein the recognition unit recognizes the article by using the weight sensor provided in the store and the image information captured in the store. .. 前記認識部は、前記ユーザが前記物品を手にするまでの店内を歩く順番、及び/又は、購入の順番を認識する請求項1~11のいずれか一項に記載の電子機器システム。 The electronic device system according to any one of claims 1 to 11, wherein the recognition unit recognizes the order of walking in the store until the user picks up the article and / or the order of purchase. 前記認識部は、前記ユーザが前記物品を購入したか否かを認識する請求項1~12のいずれか一項に記載の電子機器システム。 The electronic device system according to any one of claims 1 to 12, wherein the recognition unit recognizes whether or not the user has purchased the article. 前記認識部は、前記ユーザが購入しなかった前記物品を認識する請求項1~13のいずれか一項に記載の電子機器システム。 The electronic device system according to any one of claims 1 to 13, wherein the recognition unit recognizes the article that the user did not purchase. 店舗内へのユーザの入店を検出し、
前記店舗で撮像された画像情報に基づいて、前記ユーザの手にした物品を認識し、
前記物品に関する情報を取得し、
前記物品に関する情報を、前記店舗の装置に送信する、処理をコンピュータが実行することを特徴とする送信方法。
Detects the user's entry into the store and detects
Based on the image information captured at the store, it recognizes the article held by the user and recognizes it.
Get information about the article
A transmission method comprising a computer performing a process of transmitting information about the article to the device of the store.
JP2022068596A 2020-09-11 2022-04-19 Electronic apparatus system and transmission method Pending JP2022097524A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022068596A JP2022097524A (en) 2020-09-11 2022-04-19 Electronic apparatus system and transmission method
JP2023188606A JP2024009011A (en) 2020-09-11 2023-11-02 Electronic device system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020152613A JP7063360B2 (en) 2020-09-11 2020-09-11 Electronic device system and transmission method
JP2022068596A JP2022097524A (en) 2020-09-11 2022-04-19 Electronic apparatus system and transmission method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020152613A Division JP7063360B2 (en) 2020-09-11 2020-09-11 Electronic device system and transmission method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023188606A Division JP2024009011A (en) 2020-09-11 2023-11-02 Electronic device system

Publications (1)

Publication Number Publication Date
JP2022097524A true JP2022097524A (en) 2022-06-30

Family

ID=73837481

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020152613A Active JP7063360B2 (en) 2020-09-11 2020-09-11 Electronic device system and transmission method
JP2022068596A Pending JP2022097524A (en) 2020-09-11 2022-04-19 Electronic apparatus system and transmission method
JP2023188606A Pending JP2024009011A (en) 2020-09-11 2023-11-02 Electronic device system

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020152613A Active JP7063360B2 (en) 2020-09-11 2020-09-11 Electronic device system and transmission method

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023188606A Pending JP2024009011A (en) 2020-09-11 2023-11-02 Electronic device system

Country Status (1)

Country Link
JP (3) JP7063360B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023112519A1 (en) * 2021-12-17 2023-06-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Wearable device, information processing method, information processing program, and information providing system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001344661A (en) * 2000-05-30 2001-12-14 Sharp Corp Information providing device
JP2004258928A (en) * 2003-02-25 2004-09-16 Toppan Printing Co Ltd Article information providing device, shopping cart, server, and article information providing system, method and program
JP2005531080A (en) * 2002-06-27 2005-10-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Content rating measurement via visual and speech recognition
US20070182555A1 (en) * 2005-10-11 2007-08-09 Nanonation Incorporated Method and apparatus for rfid initiated interactive retail merchandising
JP2009048430A (en) * 2007-08-20 2009-03-05 Kozo Keikaku Engineering Inc Customer behavior analysis device, customer behavior determination system, and customer buying behavior analysis system
US20100188221A1 (en) * 2006-03-31 2010-07-29 Checkpoint Systems, Inc. System and method for securing and displaying items for merchandising
JP2012008746A (en) * 2010-06-23 2012-01-12 Softbank Mobile Corp User terminal device and shopping system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001344661A (en) * 2000-05-30 2001-12-14 Sharp Corp Information providing device
JP2005531080A (en) * 2002-06-27 2005-10-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Content rating measurement via visual and speech recognition
JP2004258928A (en) * 2003-02-25 2004-09-16 Toppan Printing Co Ltd Article information providing device, shopping cart, server, and article information providing system, method and program
US20070182555A1 (en) * 2005-10-11 2007-08-09 Nanonation Incorporated Method and apparatus for rfid initiated interactive retail merchandising
US20100188221A1 (en) * 2006-03-31 2010-07-29 Checkpoint Systems, Inc. System and method for securing and displaying items for merchandising
JP2009048430A (en) * 2007-08-20 2009-03-05 Kozo Keikaku Engineering Inc Customer behavior analysis device, customer behavior determination system, and customer buying behavior analysis system
JP2012008746A (en) * 2010-06-23 2012-01-12 Softbank Mobile Corp User terminal device and shopping system

Also Published As

Publication number Publication date
JP2024009011A (en) 2024-01-19
JP2020205098A (en) 2020-12-24
JP7063360B2 (en) 2022-05-09

Similar Documents

Publication Publication Date Title
US20220005095A1 (en) Augmented reality devices, systems and methods for purchasing
US11074610B2 (en) Sales promotion system, sales promotion method, non-transitory computer readable medium, and shelf system
JP6468497B2 (en) Information provision method
US20110161136A1 (en) Customer mapping using mobile device with an accelerometer
JP7081081B2 (en) Information processing equipment, terminal equipment, information processing method, information output method, customer service support method and program
JP6412577B2 (en) Presentation device (ICS connection)
JP2018005691A (en) Information processing system, information processing device and information processing method
CN104254861A (en) Method for assisting in locating an item in a storage location
JP6076304B2 (en) Article information providing apparatus, article information providing system, article information providing method, and article information providing program
JP2024009011A (en) Electronic device system
JP2015111358A (en) Electronic apparatus
JP6574641B2 (en) Gaze information processing system and gaze information processing method
JP6504279B2 (en) Electronic equipment system
JP6508367B2 (en) Electronic device system and notification method
WO2015083495A1 (en) Electronic device
JP2015111357A (en) Electronic apparatus
WO2021240904A1 (en) Information processing device, information processing method, and program
JP2019114293A (en) Electronic apparatus
JP2019003266A (en) Information presentation system
WO2023112519A1 (en) Wearable device, information processing method, information processing program, and information providing system
US11663637B2 (en) System and method for accessing data via smart articles including purchasing data
US20230058828A1 (en) Information-providing system
KR20180081680A (en) Advertisement system and method for prividing advertising image
CN115309270A (en) Commodity information processing method, commodity information processing device, commodity information processing equipment and commodity information processing medium
KR20180022291A (en) Advertisement system and method for prividing advertising image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230816

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230905