JP2024009011A - Electronic device system - Google Patents

Electronic device system Download PDF

Info

Publication number
JP2024009011A
JP2024009011A JP2023188606A JP2023188606A JP2024009011A JP 2024009011 A JP2024009011 A JP 2024009011A JP 2023188606 A JP2023188606 A JP 2023188606A JP 2023188606 A JP2023188606 A JP 2023188606A JP 2024009011 A JP2024009011 A JP 2024009011A
Authority
JP
Japan
Prior art keywords
user
information
control unit
article
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023188606A
Other languages
Japanese (ja)
Inventor
雄飛 降矢
Taketo Furuya
啓 志賀
Hiromu Shiga
一皇 伊三木
Kazukimi Imiki
由桂 有馬
Yuka Arima
政一 関口
Masaichi Sekiguchi
直樹 關口
Naoki Sekiguchi
雄 村越
Yu MURAKOSHI
洋治 内山
Yoji Uchiyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2023188606A priority Critical patent/JP2024009011A/en
Publication of JP2024009011A publication Critical patent/JP2024009011A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an electronic device system that is easy to use.
SOLUTION: An electronic device system comprises: a detection unit for detecting the entry of a user into a store based on information from a device owned by the user; an image recognition unit for recognizing an item in the store by inputting information captured within the store; an acquisition unit for acquiring information related to the item recognized by the image recognition unit; and a transmission unit for transmitting information to be displayed on the device owned by the user, the information related to the item acquired by the acquisition unit.
SELECTED DRAWING: Figure 10
COPYRIGHT: (C)2024,JPO&INPIT

Description

本発明は、電子機器システムに関する。 The present invention relates to an electronic device system.

従来より、来店者の商品の購買に関する行動情報を取得し、その情報を販売促進に結びつける販売促進システムが提案されている(例えば、特許文献1参照)。 2. Description of the Related Art Conventionally, a sales promotion system has been proposed that acquires behavioral information regarding store visitors' purchases of products and links the information to sales promotions (for example, see Patent Document 1).

特開2010-277256号公報Japanese Patent Application Publication No. 2010-277256

しかしながら、従来の販売促進システムでは、必要な情報が十分に取得できているとはいえず、使い勝手がよいとはいえなかった。 However, conventional sales promotion systems cannot be said to be able to obtain sufficient information and are not easy to use.

本発明は上記の課題に鑑みてなされたものであり、使い勝手のよい電子機器システムを提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an easy-to-use electronic device system.

本発明の電子機器は、物品をユーザが手にしたこと、及び物品がユーザの視野内の所定範囲に入ったことの少なくとも一方に応じて、前記物品の情報を入力する入力部(46,42)と、前記入力部が入力した前記物品の情報に関する報知を行う報知部(46)と、を備えている。 The electronic device of the present invention has an input unit (46, 42 ), and a notification section (46) that provides notification regarding the information on the article input by the input section.

この場合において、前記ユーザが前記物品を複数回手にしたとき、又は前記ユーザの視野内の所定範囲に前記物品が複数回入ったときに、前記報知部が報知する情報を制限する第1制御部(46)を備えていてもよい。この場合、前記第1制御部は、前記物品を手にした回数、又は前記物品が前記ユーザの視野内の所定範囲内に入った回数に応じて、前記報知部が報知する情報を異ならせることとしてもよい。また、前記物品と類似する類似物品を前記ユーザが手にしたとき、又は前記ユーザの視野内の所定範囲に前記類似物品が入ったときに、前記報知部が報知する情報を制限する第2制御部(46)を備えていてもよい。 In this case, a first control that limits the information that the notification unit reports when the user picks up the item multiple times or when the item enters a predetermined range within the user's visual field multiple times. (46). In this case, the first control unit may vary the information reported by the notification unit depending on the number of times the item is held in hand or the number of times the item enters a predetermined range within the visual field of the user. You can also use it as Further, a second control that limits information to be notified by the notification unit when the user picks up a similar item similar to the item, or when the similar item enters a predetermined range within the user's visual field. (46).

本発明の電子機器においては、前記入力部は、前記物品の情報として前記ユーザが購入予定の商品の情報を入力し、前記報知部は、前記購入予定の商品に応じた情報を報知することとしてもよい。この場合、前記入力部は、外部機器(20’)から前記購入予定の商品の情報を入力することとしてもよい。また、前記入力部は、前記購入予定の商品を収納する収納装置(120)を介して、前記外部機器から前記購入予定の商品に応じた情報を入力することとしてもよい。 In the electronic device of the present invention, the input unit inputs information on a product that the user plans to purchase as information on the product, and the notification unit reports information corresponding to the product that the user plans to purchase. Good too. In this case, the input unit may input information about the product to be purchased from an external device (20'). Further, the input unit may input information corresponding to the product to be purchased from the external device via a storage device (120) that stores the product to be purchased.

また、本発明の電子機器において、前記報知部は、表示を行う表示部(12)と、音声を出力する音声出力部(18)との少なくとも一方を備えていてもよい。この場合、前記音声出力部は、指向性のある音声出力部であることとしてもよい。また、本発明の電子機器においては、前記ユーザの顔付近に装着可能な装着部(110)を備えていてもよい。 Furthermore, in the electronic device of the present invention, the notification section may include at least one of a display section (12) that performs display and an audio output section (18) that outputs sound. In this case, the audio output section may be a directional audio output section. Furthermore, the electronic device of the present invention may include a mounting section (110) that can be mounted near the user's face.

なお、本発明をわかりやすく説明するために、上記においては一実施形態を表す図面の符号に対応つけて説明したが、本発明は、これに限定されるものではなく、後述の実施形態の構成を適宜改良しても良く、また、少なくとも一部を他の構成物に代替させても良い。更に、その配置について特に限定のない構成要件は、実施形態で開示した配置に限らず、その機能を達成できる位置に配置することができる。 In order to explain the present invention in an easy-to-understand manner, the above explanation has been made in correspondence with the reference numerals in the drawings representing one embodiment, but the present invention is not limited to this, and the structure of the embodiment described later is not limited to this. may be modified as appropriate, or at least a portion thereof may be replaced with other components. Further, the configuration elements whose arrangement is not particularly limited are not limited to the arrangement disclosed in the embodiments, but can be arranged at a position where the function can be achieved.

本発明は、使い勝手のよい電子機器システムを提供することができるという効果を奏する。 The present invention has the advantage of being able to provide an easy-to-use electronic equipment system.

第1の実施形態に係る電子機器システムの構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of an electronic device system according to a first embodiment. 装着装置、カゴ装置、物品装置の利用状況を示す図である。It is a figure showing the usage situation of a mounting device, a basket device, and an article device. 装着装置の斜視図である。It is a perspective view of a mounting device. 図4(a)は、第1の実施形態にかかる装着装置の処理を示すフローチャートであり、図4(b)は、第1の実施形態にかかる物品装置の処理を示すフローチャートである。FIG. 4(a) is a flowchart showing the processing of the mounting device according to the first embodiment, and FIG. 4(b) is a flowchart showing the processing of the article device according to the first embodiment. 第1の実施形態にかかるカゴ装置の処理を示すフローチャートである。It is a flowchart which shows the processing of the cage device concerning a 1st embodiment. 第1の実施形態にかかるサーバの処理を示すフローチャートである。3 is a flowchart showing processing by the server according to the first embodiment. 図7(a)、図7(b)は、視線画像の例を示す図(その1)である。FIGS. 7A and 7B are diagrams (part 1) showing examples of line-of-sight images. 視線画像の例を示す図(その2)である。FIG. 2 is a diagram (part 2) showing an example of a line-of-sight image. あるユーザが入店してからレジを通るまでの間に、手に取った物品の順を示す図である。FIG. 3 is a diagram showing the order of items picked up by a certain user from when he/she enters the store until he/she passes through the cash register. 第2の実施形態に係る電子機器システムの構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of an electronic device system according to a second embodiment. 図11(a)は、第2の実施形態にかかる装着装置の処理を示すフローチャートであり、図11(b)は、第2の実施形態にかかる物品装置の処理を示すフローチャートである。FIG. 11(a) is a flowchart showing the processing of the mounting device according to the second embodiment, and FIG. 11(b) is a flowchart showing the processing of the article device according to the second embodiment. 第2の実施形態にかかるカゴ装置の処理を示すフローチャートである。It is a flowchart which shows the processing of the cage device concerning a 2nd embodiment. 第2の実施形態にかかるサーバの処理を示すフローチャートである。7 is a flowchart showing processing by a server according to a second embodiment. 図14(a)、図14(b)は、買い物DBの一例を示す図である。FIGS. 14(a) and 14(b) are diagrams showing an example of a shopping DB.

《第1の実施形態》
以下、第1の実施形態に係る電子機器システムについて、図1~図9に基づいて、詳細に説明する。図1には、第1の実施形態に係る電子機器システム100の構成がブロック図にて示されている。
《First embodiment》
Hereinafter, the electronic device system according to the first embodiment will be described in detail based on FIGS. 1 to 9. FIG. 1 shows a block diagram of the configuration of an electronic device system 100 according to the first embodiment.

電子機器システム100は、図1に示すように、装着装置10と、カゴ装置20と、物品装置30と、サーバ40と、を備える。図2に示すように、装着装置10は、店舗に来店したユーザ(買い物客)が顔に装着する眼鏡型の端末である。カゴ装置20は、店舗に設置されたカゴ120に設けられる装置である。物品装置30は、店舗内に陳列された物品(商品)130に設けられる装置である。サーバ40は、店舗内やデータセンタなどに設けられる情報処理装置である。なお、装着装置10とカゴ装置20との間、及び物品装置30とカゴ装置20との間は、人体を介した通信(人体通信)が可能とされ、カゴ装置20とサーバ40との間は、無線通信が可能とされている。 As shown in FIG. 1, the electronic device system 100 includes a mounting device 10, a basket device 20, an article device 30, and a server 40. As shown in FIG. 2, the wearing device 10 is a glasses-shaped terminal that is worn on the face of a user (shopper) visiting a store. The basket device 20 is a device provided in a basket 120 installed in a store. The article device 30 is a device provided for articles (commodities) 130 displayed in a store. The server 40 is an information processing device installed in a store, a data center, or the like. Note that communication via the human body (human body communication) is possible between the mounting device 10 and the basket device 20 and between the article device 30 and the basket device 20, and between the basket device 20 and the server 40. , wireless communication is possible.

(装着装置10)
装着装置10は、図1に示すように、撮像部11、表示部12、操作部13、マイク14、記憶部15、通信部16および制御部17を備える。なお、図3には、装着装置10が斜視図にて示されている。図3に示すように、装着装置10は、眼鏡型のフレーム110を備えている。なお、図1において図示され、図3において図示されていない装着装置10の構成は、フレーム110の内部や、フレーム110の一部に設けられているものとする。
(Mounting device 10)
As shown in FIG. 1, the mounting device 10 includes an imaging section 11, a display section 12, an operation section 13, a microphone 14, a storage section 15, a communication section 16, and a control section 17. Note that FIG. 3 shows the mounting device 10 in a perspective view. As shown in FIG. 3, the mounting device 10 includes an eyeglass-shaped frame 110. Note that the configuration of the mounting device 10 shown in FIG. 1 and not shown in FIG. 3 is provided inside the frame 110 or in a part of the frame 110.

撮像部11は、レンズ、撮像素子、画像処理部などを備え、静止画や動画を撮像するものである。撮像部11は、図3に示すようにフレーム110の端部近傍(ユーザの右目近傍)に設けられている。このため、ユーザが装着装置10を装着した状態(図2の状態)では、ユーザが向いている(見ている)方向の画像を撮像することができる。また、撮像された画像の所定部分(例えば、中心からやや左側にずれた部分)は、ユーザが視線を向けている部分(注視している部分)とみなすことができる。 The imaging unit 11 includes a lens, an image sensor, an image processing unit, and the like, and captures still images and moving images. The imaging unit 11 is provided near the end of the frame 110 (near the user's right eye) as shown in FIG. 3 . Therefore, when the user is wearing the mounting device 10 (the state shown in FIG. 2), an image in the direction in which the user is facing (viewing) can be captured. Further, a predetermined portion of the captured image (for example, a portion slightly shifted to the left from the center) can be regarded as a portion toward which the user is directing his/her line of sight (a portion at which the user is gazing).

表示部12は、フレーム110内部又はフレーム110近傍に設けられたプロジェクタと、プロジェクタからの投影像をユーザの目に導くためのプリズムとを有している。表示部12は、制御部17の指示の下、各種情報を表示する。 The display unit 12 includes a projector provided inside the frame 110 or near the frame 110, and a prism for guiding the projected image from the projector to the user's eyes. The display unit 12 displays various information under instructions from the control unit 17.

操作部13は、フレーム110に設けられたタッチパッドであり、ユーザの指の動きを検知して、ユーザからの操作を受け付け、受け付けた操作情報を制御部17に送信する。 The operation unit 13 is a touch pad provided on the frame 110 and detects the movement of a user's finger, receives an operation from the user, and transmits the received operation information to the control unit 17.

なお、撮像部11、表示部12、操作部13については、例えば、米国公開特許2013/0044042号にもその詳細が開示されている。 Note that the details of the imaging unit 11, display unit 12, and operation unit 13 are also disclosed in, for example, US Published Patent Application No. 2013/0044042.

マイク14は、フレーム110に設けられ、ユーザが発した音声やユーザの周辺の音声を収集する。マイク14が収集した音声は、不図示の音声認識部により音声認識され、音声認識結果は、制御部17に送信される。制御部17は、音声認識結果に基づく処理(例えば、コマンドの実行処理など)を実行する。なお、制御部17が音声認識を実行してもよい。また、制御部17は、収集した音声データを記憶部15に格納する。 The microphone 14 is provided in the frame 110 and collects the voice emitted by the user and the voices around the user. The voice collected by the microphone 14 is recognized by a voice recognition unit (not shown), and the voice recognition result is transmitted to the control unit 17 . The control unit 17 executes processing (for example, command execution processing) based on the voice recognition result. Note that the control unit 17 may perform voice recognition. Further, the control unit 17 stores the collected audio data in the storage unit 15.

記憶部15は、例えば、フラッシュメモリ等の不揮発性の半導体メモリであり、撮像部11が撮像した画像データや、マイク14が集音した音声データ、表示部12に表示する表示データなどを記憶する。 The storage unit 15 is, for example, a non-volatile semiconductor memory such as a flash memory, and stores image data captured by the imaging unit 11, audio data collected by the microphone 14, display data displayed on the display unit 12, etc. .

通信部16は、他の機器と人体通信を行うものである。通信部16は、フレーム110に設けられユーザと接触可能な電極部16aと、電極部16aを用いて人体通信を行う人体通信部16bと、を有する。なお、人体通信には、人体に微弱な電流を流して、その電流を変調して情報を伝達する電流方式や、人体の表面に誘起する電界を変調して情報を伝達する電界方式などがある。本実施形態では、電流方式及び電界方式のいずれのタイプを用いることも可能である。なお、ユーザが装着装置10の電極部16aに直接接触する場合はもちろん、電極部16aとユーザとが直接接触していない場合でも、人体通信は可能である。本実施形態において、通信部16は、撮像部11が撮像した画像データやマイク14が収集した音声データをカゴ装置20に送信するものである。なお、通信部16は、他の機器と例えばBluetooth(登録商標)、RFID(Radio Frequency Identification)、TransferJet(登録商標)などの近接通信を行ってもよい。 The communication unit 16 performs human body communication with other devices. The communication section 16 includes an electrode section 16a that is provided on the frame 110 and can be contacted by a user, and a human body communication section 16b that performs human body communication using the electrode section 16a. Human body communication includes current methods, in which a weak current is passed through the human body and modulated to transmit information, and electric field methods, in which information is transmitted by modulating the electric field induced on the surface of the human body. . In this embodiment, it is possible to use either the current method or the electric field method. Note that human body communication is possible not only when the user directly contacts the electrode section 16a of the mounting device 10, but also when the electrode section 16a and the user are not in direct contact. In this embodiment, the communication unit 16 transmits image data captured by the imaging unit 11 and audio data collected by the microphone 14 to the car device 20. Note that the communication unit 16 may perform close proximity communication with other devices using, for example, Bluetooth (registered trademark), RFID (Radio Frequency Identification), TransferJet (registered trademark), or the like.

なお、通信部16に代えて、もしくは通信部16と併用して無線通信部を装着装置10に持たせてもよい。この場合、画像データや音声データを無線通信によりサーバ40に直接送信するようにしてもよいし、画像データや音声データを無線通信によりカゴ装置20に送信してもよい。 Note that the mounting device 10 may include a wireless communication section in place of the communication section 16 or in combination with the communication section 16. In this case, the image data and audio data may be directly transmitted to the server 40 by wireless communication, or the image data and audio data may be transmitted to the car device 20 by wireless communication.

制御部17は、装着装置10全体を統括的に制御する。制御部17は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備える。本実施形態では、制御部17は、撮像部11の撮像に関する制御や、表示部12の表示に関する制御などを行う。 The control unit 17 controls the entire mounting device 10 in an integrated manner. The control unit 17 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like. In this embodiment, the control unit 17 performs control related to imaging by the imaging unit 11, control related to displaying by the display unit 12, and the like.

なお、装着装置10は、眼鏡型の端末ではなくてもよい。例えば、体の任意の位置に装着可能な装着型端末であってもよく、その機能の一部が分離していてもよい。一例を挙げると、表示部を備えたコンタクトレンズ型の端末として、他の機能を腕時計型の端末に持たせるようにしてもよい。 Note that the mounting device 10 does not need to be a glasses-type terminal. For example, it may be a wearable terminal that can be worn at any position on the body, and some of its functions may be separate. For example, a wristwatch-type terminal may be provided with other functions as a contact lens-type terminal equipped with a display section.

(カゴ装置20)
カゴ装置20は、図1に示すように、生体センサ21、カレンダ部22、記憶部23、第1通信部24、第2通信部25、及び制御部26等を備える。
(Cage device 20)
As shown in FIG. 1, the basket device 20 includes a biosensor 21, a calendar section 22, a storage section 23, a first communication section 24, a second communication section 25, a control section 26, and the like.

生体センサ21は、カゴ120のうち、ユーザがカゴ120を持つ際に手が触れる部分(持ち手部分)に設けられる。生体センサ21は、心拍数、血圧、発汗量などの体の生体情報の変化を検出するものであって、例えば、LED(light emitting diode)及びフォトセンサ、並びに、発汗センサを含む。例えば、LED及びフォトセンサを用いることで、LEDの照射する光を指に当てたときに反射する光をフォトセンサで受光することにより心拍数を検出することができる。また、発汗センサは、複数の電極により手のインピーダンスを測定することにより、発汗量を検出することができる。本実施形態においては、生体センサ21からの出力は、制御部26に送られる。そして、制御部26では、生体センサ21の出力に基づいてユーザの感情(喜怒哀楽)の変化を推定する。 The biosensor 21 is provided in a portion of the basket 120 that the user touches when holding the basket 120 (handle portion). The biosensor 21 detects changes in biometric information of the body, such as heart rate, blood pressure, and amount of perspiration, and includes, for example, an LED (light emitting diode), a photo sensor, and a perspiration sensor. For example, by using an LED and a photosensor, the heart rate can be detected by receiving the light that is reflected when a finger is exposed to light emitted by the LED. Further, the sweat sensor can detect the amount of sweat by measuring the impedance of the hand using a plurality of electrodes. In this embodiment, the output from the biosensor 21 is sent to the control unit 26. Then, the control unit 26 estimates changes in the user's emotions (emotions, anger, sorrow, and happiness) based on the output of the biosensor 21.

カレンダ部22は、年、月、日、時刻といった時間情報を取得して、制御部26に対して出力する。また、カレンダ部22は計時を行う。 The calendar section 22 acquires time information such as year, month, day, and time, and outputs it to the control section 26 . Further, the calendar section 22 measures time.

記憶部23は、例えば、フラッシュメモリ等の不揮発性の半導体メモリであり、後述するようにユーザが手にした物品に関する情報を記憶するものである。また、記憶部23は、カゴ装置20を一意に識別するためのID番号(カゴID)を記憶する。 The storage unit 23 is, for example, a non-volatile semiconductor memory such as a flash memory, and stores information regarding the item held by the user, as will be described later. Furthermore, the storage unit 23 stores an ID number (cart ID) for uniquely identifying the car device 20.

第1通信部24は、他の機器と人体通信を行うものである。なお、第1通信部24は、他の機器と近接通信を行うこととしてもよい。本実施形態においては、第1通信部24は、人体通信を用いて装着装置10の通信部16及び物品装置30の通信部32と通信を行う。 The first communication unit 24 performs human body communication with other devices. Note that the first communication unit 24 may perform close proximity communication with other devices. In this embodiment, the first communication unit 24 communicates with the communication unit 16 of the mounting device 10 and the communication unit 32 of the article device 30 using human body communication.

第1通信部24は、カゴ120の持ち手部分に設けられた、ユーザの手や腕と接触可能な電極部24aと、電極部24aを介して人体通信を行う人体通信部24bと、を有する。 The first communication section 24 includes an electrode section 24a that is provided on the handle portion of the basket 120 and can be contacted with the user's hand or arm, and a human body communication section 24b that performs human body communication via the electrode section 24a. .

第2通信部25は、他の装置との間で無線通信を行うものである。本実施形態においてはサーバ40との間で無線通信を行い、ユーザが手に触れた物品の物品情報や、撮像部11が撮像した画像データ、マイク14が収集した音声データ、生体センサ21の検出結果をサーバ40に送信するものである。なお、本実施形態のカゴ装置20は、物品装置30とサーバ40との間における物品情報の通信、及び装着装置10とサーバ40との間における画像データや音声データの通信を中継する通信中継装置としての機能を有している。 The second communication unit 25 performs wireless communication with other devices. In this embodiment, wireless communication is performed with the server 40, and information on items touched by the user, image data captured by the imaging unit 11, audio data collected by the microphone 14, and detection of the biosensor 21 The results are sent to the server 40. The basket device 20 of this embodiment is a communication relay device that relays communication of article information between the article device 30 and the server 40 and communication of image data and audio data between the mounting device 10 and the server 40. It has the function of

制御部26は、カゴ装置20全体を制御するものであり、CPU、RAM、ROM等を備える。本実施形態では、制御部26は、物品装置30、装着装置10及びサーバ40との間における情報通信の制御を行う。 The control unit 26 controls the entire car device 20, and includes a CPU, RAM, ROM, and the like. In this embodiment, the control unit 26 controls information communication between the article device 30, the mounting device 10, and the server 40.

なお、カゴ装置20は、店舗で利用されるカートに設けることとしてもよい。この場合、生体センサ21や第1通信部24の電極部24aは、カートのグリップ部分に設けることが好ましい。 Note that the basket device 20 may be provided in a cart used in a store. In this case, it is preferable that the biosensor 21 and the electrode part 24a of the first communication part 24 be provided in the grip part of the cart.

(物品装置30)
物品装置30は、店舗等で販売される物品(商品)であって、食料品、衣服、靴、時計、アクセサリー、ゴルフクラブ、バッグ等、来店者(ユーザ)の身体に接触する物品に設けられる。本実施形態では、説明の便宜上、物品装置30は、スーパーマーケットに陳列された商品(食料品等)に設けられているものとして説明する。
(Article device 30)
The article device 30 is an article (product) sold at a store or the like, and is installed on an article that comes into contact with the body of a store visitor (user), such as food, clothing, shoes, watches, accessories, golf clubs, bags, etc. . In the present embodiment, for convenience of explanation, the article device 30 will be described as being provided in products (food products, etc.) displayed in a supermarket.

物品装置30は、図1に示すように、記憶部31と、通信部32と、制御部33と、を備える。 The article device 30 includes a storage section 31, a communication section 32, and a control section 33, as shown in FIG.

記憶部31は、例えば、フラッシュメモリ等の不揮発性の半導体メモリであり、物品装置30が取り付けられた物品(商品)に関する情報を記憶する。具体的には、記憶部31は、物品装置30が取り付けられた物品の物品情報(商品情報)を記憶する。例えば、物品装置30が加工食品(例えば缶詰)に取り付けられている場合には、記憶部31は、物品情報として、製造者(販売者)、商品名、原材料名、賞味期限、内容量、原産国等を記憶する。 The storage unit 31 is, for example, a nonvolatile semiconductor memory such as a flash memory, and stores information regarding the article (commodity) to which the article device 30 is attached. Specifically, the storage unit 31 stores article information (product information) of the article to which the article device 30 is attached. For example, when the article device 30 is attached to processed food (for example, canned food), the storage unit 31 stores article information such as manufacturer (seller), product name, raw material name, expiration date, content amount, and origin. Memorize countries etc.

制御部33は、物品装置30全体を制御するものであり、CPU、RAM、ROM等を備える。本実施形態では、制御部33は、記憶部31に記憶されている物品情報のカゴ装置20への送信を制御している。なお、制御部33及び記憶部31は物品のいずれの位置に設けられても構わない。 The control unit 33 controls the entire article device 30, and includes a CPU, RAM, ROM, and the like. In this embodiment, the control unit 33 controls the transmission of article information stored in the storage unit 31 to the basket device 20. Note that the control section 33 and the storage section 31 may be provided at any position of the article.

通信部32は、他の機器と人体通信を行うものである。なお、通信部32は、他の機器と近接通信を行うこととしてもよい。本実施形態において、通信部32は、ユーザ(例えば手)と接触する位置に設けられる電極部32aと、電極部32aを用いて人体通信を行う人体通信部32bと、を備える。本実施形態では、図2に示すように、カゴ120を持ったユーザが物品130を手にした状態で、カゴ装置20の第1通信部24と物品装置30の通信部32との間の人体通信が成立する。これにより、記憶部31に記憶された物品情報がカゴ装置20に送信される。なお、ユーザが物品装置30の電極部32aに直接接触する場合はもちろん、電極部32aとユーザとが直接接触していない場合(手袋をしている場合など)でも、人体通信は可能である。 The communication unit 32 performs human body communication with other devices. Note that the communication unit 32 may perform close proximity communication with other devices. In this embodiment, the communication section 32 includes an electrode section 32a provided at a position where it comes into contact with a user (for example, a hand), and a human body communication section 32b that performs human body communication using the electrode section 32a. In the present embodiment, as shown in FIG. Communication is established. Thereby, the article information stored in the storage section 31 is transmitted to the basket device 20. Note that human body communication is possible not only when the user directly contacts the electrode section 32a of the article device 30, but also when the electrode section 32a and the user are not in direct contact (such as when wearing gloves).

(サーバ40)
サーバ40は、図1に示すように、記憶部41と、通信部42と、OCR(Optical Character Reader)部43と、画像認識部44と、制御部46と、を備える。
(Server 40)
As shown in FIG. 1, the server 40 includes a storage section 41, a communication section 42, an OCR (Optical Character Reader) section 43, an image recognition section 44, and a control section 46.

記憶部41は、例えば、フラッシュメモリ等の不揮発性の半導体メモリや、ハードディスクドライブ等であり、カゴ装置20から取得した情報、すなわち、装着装置10の撮像部11が撮像した画像データやマイク14を用いて収集した音声データ、物品装置30から送信されてきた物品情報を記憶する。また、記憶部41は、店舗の従業員(店員)の顔画像データや商品画像データ、及びユーザの購入行動を分析する際に用いる各種データを記憶している。本実施形態においては、制御部46は、後述するように、画像認識部44と協働して装着装置10の撮像部11が撮像した画像データに従業員の顔や商品が含まれているかどうかを検出する。 The storage unit 41 is, for example, a non-volatile semiconductor memory such as a flash memory, a hard disk drive, etc., and stores information acquired from the basket device 20, that is, image data captured by the imaging unit 11 of the mounting device 10 and the microphone 14. The voice data collected using the device 30 and the article information transmitted from the article device 30 are stored. Furthermore, the storage unit 41 stores face image data and product image data of store employees (clerks), and various data used when analyzing user purchasing behavior. In the present embodiment, as will be described later, the control unit 46 cooperates with the image recognition unit 44 to determine whether the image data captured by the imaging unit 11 of the mounting device 10 includes the employee's face or the product. Detect.

通信部42は、他の機器と無線通信を行うものである。本実施形態では、通信部42は、無線通信によりカゴ装置20の第2通信部25と無線通信を行う。 The communication unit 42 performs wireless communication with other devices. In this embodiment, the communication unit 42 performs wireless communication with the second communication unit 25 of the car device 20 by wireless communication.

OCR部43は、装着装置10の撮像部11が撮像した画像データに含まれる文字を認識して、テキストデータに変換する。例えば、撮像部11が、図7(b)の画像データを撮像した場合、OCR部43は、文字認識をして、テキストデータ「申し訳ございません。現在入荷待ちです。次回入荷時期は未定です。」を取得する。 The OCR unit 43 recognizes characters included in the image data captured by the imaging unit 11 of the mounting device 10 and converts the characters into text data. For example, when the image capturing unit 11 captures the image data shown in FIG. 7(b), the OCR unit 43 performs character recognition and prints the text "Sorry. We are currently backordered. The next arrival date is undecided. ”.

画像認識部44は、装着装置10の撮像部11が撮像した画像データの特徴点を、例えばSURF(Speeded Up Robust Features)やSHIFT(Scale Invariant Feature Transform)といった特徴量検出アルゴリズムにより抽出し、記憶部41に記憶されている複数の認識対象の標準パターンと比較することにより画像認識を行う。本実施形態においては、画像認識部44は、記憶部41に記憶されている従業員の顔画像データや商品画像データとの比較を行って、撮像部11が撮像した画像に従業員や商品が含まれているかどうかを検出する。 The image recognition unit 44 extracts feature points of the image data captured by the imaging unit 11 of the mounting device 10 using a feature detection algorithm such as SURF (Speeded Up Robust Features) or SHIFT (Scale Invariant Feature Transform), and stores the extracted feature points in the storage unit. Image recognition is performed by comparing with a plurality of standard patterns of recognition targets stored in 41. In the present embodiment, the image recognition unit 44 compares the employee's face image data and the product image data stored in the storage unit 41 to identify whether the employee or the product is in the image captured by the imaging unit 11. Detect whether it is included.

制御部46は、サーバ40全体を制御するものであり、CPU、RAM、ROM等を備える。 The control unit 46 controls the entire server 40, and includes a CPU, RAM, ROM, and the like.

次に、図4~図9を用いて、電子機器システム100の処理について、詳細に説明する。なお、本実施形態では、装着装置10を装着しているユーザ(買い物客)が店舗(例えば、スーパーマーケット)に来店した際に、カゴ120を保持して、買い物を行うものとする。また、ユーザは、店舗内で物品装置30が設けられた物品(商品)130を手に取ったり、カゴ120に入れたりすることで、購入する物品を決定し、レジで購入処理を行うものとする。 Next, the processing of the electronic device system 100 will be described in detail using FIGS. 4 to 9. In this embodiment, it is assumed that when a user (shopper) wearing the wearing device 10 comes to a store (for example, a supermarket), he or she holds the basket 120 and goes shopping. In addition, the user decides the item to purchase by picking up the item (product) 130 provided with the item device 30 in the store or placing it in the basket 120, and processes the purchase at the cash register. do.

(装着装置10の処理)
図4(a)には、装着装置10の処理がフローチャートにて示されている。
(Processing of mounting device 10)
FIG. 4A shows a flowchart of the processing of the mounting device 10.

図4(a)の処理では、装着装置10の制御部17は、ステップS10において、カゴ装置20との人体通信が成立するまで待機する。この場合、装着装置10を装着したユーザが店舗に入り、カゴ120を保持することでカゴ装置20にユーザの手が触れた段階で、装着装置10の通信部16とカゴ装置20の第1通信部24との間の通信が成立する。カゴ装置20との人体通信が成立すると、制御部17は、ステップS12に移行する。なお、ステップS10に代えて、ユーザが店舗に入店した後に装着装置10の電源をオンした段階でステップS12以降の処理を実行するようにしてもよい。この場合、装着装置10に、GPS(Global Positioning System)モジュールや、店舗内に設置された無線LAN(Local Area Network)基地局との通信状況に応じた位置検出が可能な位置検出装置を設け、位置検出装置の検出結果に基づいて、ユーザが店舗に入店したか否かを制御部17が判断することとしてもよい。また、これとは逆に、装着装置10は通信部16に常に電源を供給しておき、カゴ装置20との人体通信の成立により装着装置10が起動するようにしてもよい。 In the process of FIG. 4A, the control unit 17 of the mounting device 10 waits until human body communication with the basket device 20 is established in step S10. In this case, when the user wearing the mounting device 10 enters the store and touches the basket device 20 by holding the basket 120, the first communication between the communication unit 16 of the mounting device 10 and the basket device 20 begins. Communication with the unit 24 is established. When human body communication with the car device 20 is established, the control unit 17 moves to step S12. Note that instead of step S10, the processes from step S12 onward may be executed when the user turns on the power of the mounting device 10 after entering the store. In this case, the mounting device 10 is provided with a position detection device that can detect the position according to the communication status with a GPS (Global Positioning System) module or a wireless LAN (Local Area Network) base station installed in the store, The control unit 17 may determine whether the user has entered the store based on the detection result of the position detection device. Moreover, on the contrary, the mounting device 10 may always supply power to the communication unit 16, and the mounting device 10 may be activated upon establishment of human body communication with the basket device 20.

ステップS12に移行すると、制御部17は、撮像部11に指示を出し、ユーザ側からの撮像を実行する。この場合、撮像部11は、静止画及び動画のいずれを撮像してもよい。なお、本実施形態では、撮像部11は、静止画を撮像するものとして説明する。制御部17は、撮像部11によって撮像された画像(以下、視線画像と呼ぶ)を記憶部15に記憶する。なお、ステップS12では、撮像部11による視線画像の撮像に加えて、制御部17は、マイク14を用いて、ユーザの声や周辺の音を含む音声を収集し、音声データとして記憶部15に記憶してもよい。 In step S12, the control unit 17 issues an instruction to the imaging unit 11 to perform imaging from the user side. In this case, the imaging unit 11 may capture either a still image or a moving image. Note that in this embodiment, the imaging unit 11 will be described as one that captures still images. The control unit 17 stores an image captured by the imaging unit 11 (hereinafter referred to as a line-of-sight image) in the storage unit 15. Note that in step S12, in addition to capturing the line-of-sight image by the imaging unit 11, the control unit 17 uses the microphone 14 to collect audio including the user's voice and surrounding sounds, and stores it in the storage unit 15 as audio data. You may memorize it.

次いで、ステップS14では、制御部17は、通信部16を介して、視線画像をカゴ装置20へ送信する。なお、制御部17は、例えば装着装置10に加速度計や角速度計を設けてユーザの移動速度を計測し、ユーザの移動速度が所定の移動速度(例えば時速1Km以下)になったときに、カゴ装置20へ視線画像を送信するようにしてもよい。なお、ユーザは、買い物途中にカゴ装置20から手を離す場合もある。したがって、制御部17は、人体通信が可能である場合には、人体通信により視線画像をカゴ装置20へ送信し、人体通信が不可能な場合には、近接通信や無線通信などにより視線画像をカゴ装置20へ送信するようにしてもよい。なお、無線通信を行う場合には、装着装置10が無線通信部を備えておく必要がある。 Next, in step S14, the control unit 17 transmits the line-of-sight image to the car device 20 via the communication unit 16. Note that the control unit 17 measures the user's movement speed by, for example, providing the mounting device 10 with an accelerometer or an angular velocity meter, and when the user's movement speed reaches a predetermined movement speed (for example, 1 km per hour or less), the control unit 17 measures the movement speed of the user. The line-of-sight image may also be transmitted to the device 20. Note that the user may take his hand off the basket device 20 during shopping. Therefore, if human body communication is possible, the control unit 17 transmits the line of sight image to the car device 20 by human body communication, and if human body communication is not possible, the control unit 17 transmits the line of sight image by proximity communication, wireless communication, etc. It may also be transmitted to the basket device 20. In addition, when performing wireless communication, the mounting device 10 needs to be equipped with a wireless communication section.

次いで、ステップS16では、制御部17は、レジ端末から入力のあったカゴ装置20との人体通信が成立したか否かを判断する。ここで、レジ端末からの入力とは、ユーザがレジにカゴ120を持っていった場合に、カゴ装置20とレジ端末との間の通信により、レジ端末からカゴ装置20に対して送信される、買い物終了情報の入力を意味する。すなわち、レジ端末からの入力があったカゴ装置20と装着装置10との人体通信が成立した場合、ユーザの買い物が終了したことを意味する。したがって、買い物が終了しておらず、ステップS16の判断が否定された場合には、ステップS12に戻り、ステップS12、S14、S16の処理・判断を繰り返す。すなわち、撮像部11による視線画像の撮像と、カゴ装置20への送信が繰り返される。一方、ユーザの買い物が終了し、ステップS16の判断が肯定された場合には、図4(a)の全処理が終了する。 Next, in step S16, the control unit 17 determines whether or not human body communication has been established with the basket device 20 that received the input from the cash register terminal. Here, input from the cash register terminal is transmitted from the cash register terminal to the cart device 20 through communication between the cart device 20 and the cash register terminal when the user takes the cart 120 to the cash register. , means input of shopping completion information. That is, when human body communication is established between the basket device 20 and the mounting device 10 that received input from the cash register terminal, it means that the user's shopping has ended. Therefore, if the shopping has not been completed and the determination at step S16 is negative, the process returns to step S12 and the processing and determination at steps S12, S14, and S16 are repeated. That is, the imaging of the line-of-sight image by the imaging unit 11 and the transmission to the car device 20 are repeated. On the other hand, if the user has finished shopping and the determination in step S16 is affirmative, the entire process in FIG. 4(a) ends.

なお、ステップS16に代えて、制御部17は、ユーザ(装着装置10)が店舗から出たか否かを判断してもよい。この場合、前述のように、装着装置10には、GPS等の位置検出装置を設けておく必要がある。 Note that instead of step S16, the control unit 17 may determine whether the user (wearing device 10) has left the store. In this case, as described above, the mounting device 10 needs to be provided with a position detection device such as a GPS.

(物品装置30の処理)
図4(b)には、物品装置30の処理がフローチャートにて示されている。
(Processing of article device 30)
FIG. 4(b) shows the processing of the article device 30 in a flowchart.

図4(b)の処理では、物品装置30の制御部33は、ステップS20において、カゴ装置20との人体通信が新たに成立するまで待機する。この場合、図2に示すように、カゴ120を保持するユーザが物品130を商品棚等から取り上げたタイミングで、カゴ装置20との人体通信が新たに成立し、ステップS22に移行する。 In the process of FIG. 4B, the control unit 33 of the article device 30 waits until human body communication with the basket device 20 is newly established in step S20. In this case, as shown in FIG. 2, human body communication with the basket device 20 is newly established at the timing when the user holding the basket 120 picks up the article 130 from the product shelf, etc., and the process moves to step S22.

ステップS22に移行すると、制御部33は、通信部32に指示を出し、記憶部31に記憶されている物品情報をカゴ装置20へ送信する。 In step S22, the control section 33 issues an instruction to the communication section 32 to transmit the article information stored in the storage section 31 to the basket device 20.

その後は、ステップS20に戻り、制御部33は、ステップS20、S22の処理・判断を繰り返す。 After that, the process returns to step S20, and the control unit 33 repeats the processing and determination in steps S20 and S22.

図4(b)の処理が実行されることで、カゴ120を保持するユーザが、買い物途中に手にした物品130の情報をカゴ装置20に逐一送信することが可能となる。 By executing the process shown in FIG. 4B, the user holding the basket 120 can transmit information about the articles 130 that he or she has picked up while shopping to the basket device 20 one by one.

(カゴ装置20の処理)
図5には、カゴ装置20の処理がフローチャートにて示されている。
(Processing of the basket device 20)
FIG. 5 shows the processing of the car device 20 in a flowchart.

図5の処理では、ステップS30において、カゴ装置20の制御部26が、装着装置10との人体通信が成立するまで待機する。装着装置10との人体通信が成立すると、制御部26は、ステップS32に移行する。なお、ステップS32に移行するタイミングは、前述した図4(a)のステップS12に移行するタイミングと同一である。 In the process of FIG. 5, in step S30, the control unit 26 of the basket device 20 waits until human body communication with the mounting device 10 is established. When the human body communication with the mounting device 10 is established, the control unit 26 moves to step S32. Note that the timing of moving to step S32 is the same as the timing of moving to step S12 in FIG. 4(a) described above.

ステップS32に移行すると、制御部26は、装着装置10から送信されてくる視線画像を取得し、記憶部23に記憶する。なお、例えばカゴ装置20に加速度計や角速度計を設けてユーザの移動速度を計測し、ユーザの移動速度が所定の移動速度(例えば時速1Km以下)になったときに、装着装置10から視線画像が送信されてきた画像を取得し、記憶部23に記憶することとしてもよい。 In step S<b>32 , the control unit 26 acquires the line-of-sight image transmitted from the mounting device 10 and stores it in the storage unit 23 . Note that, for example, the car device 20 is provided with an accelerometer or an angular velocity meter to measure the user's movement speed, and when the user's movement speed reaches a predetermined movement speed (for example, 1 km per hour or less), the line-of-sight image is transmitted from the mounting device 10. The transmitted image may be acquired and stored in the storage unit 23.

次いで、ステップS34では、制御部26が、新たな物品情報を受信したか否かを判断する。ステップS34の判断が否定された場合、すなわち、新たな物品情報を受信していない場合には、ステップS38に移行する。一方、ステップS34の判断が肯定された場合、すなわち、新たな物品情報を受信した場合には、ステップS36に移行する。 Next, in step S34, the control unit 26 determines whether new article information has been received. If the determination in step S34 is negative, that is, if new article information has not been received, the process moves to step S38. On the other hand, if the determination in step S34 is affirmative, that is, if new article information is received, the process moves to step S36.

ステップS36に移行すると、制御部26は、物品情報を取得し、記憶部23に記憶する。その後は、ステップS38に移行する。 When proceeding to step S36, the control unit 26 acquires article information and stores it in the storage unit 23. After that, the process moves to step S38.

ステップS38に移行すると、制御部26は、生体センサ21を用いた検出を実行する。なお、ステップS32、S34及びS36、S38の処理の順番は適宜入れ替えてもよく、各ステップの処理を同時並行的に実行することとしてもよい。 When proceeding to step S38, the control unit 26 executes detection using the biosensor 21. Note that the order of the processing in steps S32, S34, S36, and S38 may be changed as appropriate, and the processing in each step may be executed simultaneously.

次いで、ステップS40では、制御部26が、生体センサ21の検出結果に基づいて、ユーザに感情の変化があったか否かを判断する。この場合、例えば、生体センサ21の検出結果から、心拍数が急激に上昇した場合や、血圧が急激に上昇した場合、発汗量が急激に増加した場合などにおいて、ユーザに感情の変化があったと判断する。なお、ユーザの感情が変化する例としては、タイムサービスが始まり商品を安く購入できるチャンスに遭遇したり、購入を予定していた商品が売り切れであったり、レジが混雑しているような場合である。ステップS40の判断が否定された場合には、ステップS44に移行するが、ステップS40の判断が肯定された場合には、ステップS42に移行する。 Next, in step S40, the control unit 26 determines whether or not the user's emotions have changed based on the detection result of the biosensor 21. In this case, for example, the detection result of the biosensor 21 indicates that the user has experienced a change in emotion, such as when the heart rate suddenly increases, when the blood pressure suddenly increases, or when the amount of sweat increases suddenly. to decide. Examples of how a user's emotions may change include when a time service starts and they encounter an opportunity to purchase a product at a lower price, when the product they were planning to purchase is sold out, or when the cash register is crowded. be. If the determination in step S40 is negative, the process moves to step S44, but if the determination in step S40 is affirmative, the process moves to step S42.

ステップS42に移行すると、制御部26は、第2通信部25に指示を出し、記憶部23に記憶されている、感情変化直前に取得された視線画像及び物品情報(以下、第1情報と呼ぶ)をサーバ40に送信する。なお、感情変化直前とは、例えば、感情変化が生じる数秒前を意味する。なお、感情変化直前に物品情報が取得されない場合もある。感情変化が物品130を保持したことに起因しない場合である。この場合には、制御部26は、視線画像を第1情報としてサーバ40に送信すればよい。 In step S42, the control unit 26 issues an instruction to the second communication unit 25, and the line-of-sight image and article information (hereinafter referred to as first information) stored in the storage unit 23 and acquired immediately before the emotional change. ) is sent to the server 40. Note that "immediately before the emotional change" means, for example, several seconds before the emotional change occurs. Note that article information may not be acquired immediately before an emotion change. This is a case where the emotional change is not caused by holding the article 130. In this case, the control unit 26 may transmit the line-of-sight image to the server 40 as the first information.

ここで、感情変化直前に取得された視線画像としては、図7(a)、図7(b)、図8に示すような視線画像が想定される。図7(a)の視線画像は、ユーザがタイムサービスに遭遇したことを示す画像であり、具体的には、商品に貼付されたタイムサービスのシールをユーザが見たことを示す画像である。また、図7(b)の視線画像は、ユーザが購入しようとしていた商品が売り切れている場合の画像であり、具体的には、入荷待ちの掲示をユーザが見たことを示す画像である。また、図8の視線画像は、レジが混雑している状態をユーザが見たことを示す画像である。 Here, as the line-of-sight image acquired immediately before the emotional change, line-of-sight images as shown in FIGS. 7(a), 7(b), and 8 are assumed. The line-of-sight image in FIG. 7A is an image indicating that the user has encountered a time service, and specifically, is an image indicating that the user has seen a time service sticker attached to a product. Further, the line-of-sight image in FIG. 7B is an image when the product that the user was trying to purchase is sold out, and specifically, it is an image showing that the user has seen a notice indicating that the product is backordered. Furthermore, the line-of-sight image in FIG. 8 is an image showing that the user sees the cash register being crowded.

なお、第1情報は、カゴIDが付加された状態でサーバ40に送信される。すなわち、サーバ40では、第1情報をカゴIDを用いて管理する。 Note that the first information is transmitted to the server 40 with the basket ID added thereto. That is, the server 40 manages the first information using the basket ID.

ステップS40が否定された後、あるいはステップS42の処理が実行された後、制御部26は、ステップS44において、レジ端末から入力があったか否かを判断する。この場合のレジ端末の入力とは、前述したように、ユーザが買い物を終了し、レジにカゴ120を持っていった場合に、カゴ装置20とレジ端末との間の通信により、レジ端末からカゴ装置20に対して送信される、買い物終了情報の入力を意味する。このステップS44の判断が否定された場合、すなわち、ユーザの買い物が終了していない場合には、ステップS32に戻り、ステップS32~S44の処理・判断を繰り返す。一方、ステップS44の判断が肯定された場合には、ステップS46に移行する。 After step S40 is negative or after the process of step S42 is executed, the control unit 26 determines in step S44 whether or not there is an input from the cashier terminal. Input from the cash register terminal in this case means, as described above, when the user finishes shopping and takes the cart 120 to the cash register, input from the cash register terminal is performed by communication between the cart device 20 and the cash register terminal. This means the input of shopping completion information transmitted to the cart device 20. If the determination in step S44 is negative, that is, if the user has not finished shopping, the process returns to step S32 and the processes and determinations in steps S32 to S44 are repeated. On the other hand, if the determination in step S44 is affirmative, the process moves to step S46.

ステップS46に移行すると、制御部26は、第2通信部25に指示を出し、ステップS30以降取得された全ての視線画像、物品情報、生体情報(以下、第2情報と呼ぶ)をサーバ40に送信する。すなわち、制御部26は、第2通信部25を介して、ユーザが買い物をしている間に得られた視線画像、ユーザが手にした物品の物品情報、及びユーザが買い物をしている間に得られた感情の変化情報をサーバ40に送信する。なお、制御部26は、ユーザが買い物をしている間に装着装置10のマイク14を用いて取得された音声データをサーバ40に送信することとしてもよい。なお、制御部26から送信される各情報には、情報の取得時刻(カレンダ部22から得られる)がタイムスタンプとして付与されるものとする。また、第2情報は、カゴIDが付加された状態でサーバ40に送信される。すなわち、サーバ40では、第2情報をカゴIDを用いて管理する。その後は、制御部26は、図5の全処理を終了する。 When proceeding to step S46, the control unit 26 issues an instruction to the second communication unit 25, and sends all line-of-sight images, article information, and biological information (hereinafter referred to as second information) acquired after step S30 to the server 40. Send. That is, the control unit 26 transmits, via the second communication unit 25, the line-of-sight image obtained while the user is shopping, the article information of the article the user has in hand, and the information while the user is shopping. The emotion change information obtained is transmitted to the server 40. Note that the control unit 26 may transmit audio data acquired using the microphone 14 of the wearing device 10 to the server 40 while the user is shopping. Note that each piece of information transmitted from the control unit 26 is given the acquisition time of the information (obtained from the calendar unit 22) as a timestamp. Further, the second information is transmitted to the server 40 with the basket ID added thereto. That is, the server 40 manages the second information using the basket ID. After that, the control unit 26 ends all the processing in FIG.

以上のように、制御部26が図5の処理を実行することで、ユーザが買い物をしている間に感情の変化があったタイミングで、カゴ装置20からサーバ40に対して第1情報が送信され、ユーザが買い物を終了したタイミングで、カゴ装置20からサーバ40に対して第2情報が送信されるようになっている。 As described above, when the control unit 26 executes the process shown in FIG. 5, the first information is sent from the cart device 20 to the server 40 at the timing when the user's emotions change while shopping. The second information is transmitted from the cart device 20 to the server 40 at the timing when the user finishes shopping.

(サーバ40の処理)
図6には、サーバ40の処理がフローチャートにて示されている。
(Processing of server 40)
FIG. 6 shows a flowchart of the processing of the server 40.

図6の処理では、サーバ40の制御部46は、ステップS50において、カゴ装置20からの入力があるまで待機する。すなわち、制御部46は、カゴ装置20において図5のステップS42又はS46が実行されることにより、第1情報又は第2情報が送信されてきた段階で、ステップS52に移行する。 In the process of FIG. 6, the control unit 46 of the server 40 waits until there is an input from the basket device 20 in step S50. That is, the control unit 46 moves to step S52 when the first information or the second information is transmitted by executing step S42 or S46 of FIG. 5 in the car device 20.

ステップS52に移行すると、制御部46は、入力された情報が第1情報であるか否かを判断する。すなわち、制御部46は、ユーザに感情の変化があった直前にカゴ装置20で取得された視線情報や物品情報が入力されたか否かを判断する。ここでの判断が肯定された場合には、ステップS54に移行する。 When proceeding to step S52, the control unit 46 determines whether the input information is the first information. That is, the control unit 46 determines whether the line of sight information or article information acquired by the basket device 20 was input immediately before the user's emotion changed. If the determination here is affirmative, the process moves to step S54.

ステップS54に移行すると、制御部46は、第1情報に基づく感情分析を実行する。具体的には、制御部46は、感情が変化した直前に取得された視線画像をOCR部43や画像認識部44を用いて分析した結果や、感情が変化した直前に取得された物品情報を分析した結果に基づいて、ユーザの感情分析(満足か、不満かの分析)を行う。 When proceeding to step S54, the control unit 46 executes emotional analysis based on the first information. Specifically, the control unit 46 uses the OCR unit 43 and the image recognition unit 44 to analyze the line-of-sight image acquired immediately before the emotion changed, or the article information acquired immediately before the emotion changed. Based on the analyzed results, the user's sentiment analysis (analysis of whether they are satisfied or dissatisfied) is performed.

例えば、制御部46は、視線画像が図7(a)の画像であった場合には、OCR部43を用いることで「朝市 タイムサービス 表示価格より20%引き」という文字を検出することができる。この場合、タイムサービス、20%引きといった、買い物客にとってポジティブな単語が含まれているため、制御部46は、ユーザが喜んで満足な状態(ポジティブな状態)であると分析する。なお、買い物客にとってポジティブな単語は、記憶部41に記憶されているものとする。 For example, if the line-of-sight image is the image shown in FIG. 7(a), the control unit 46 can use the OCR unit 43 to detect the text “Morning market time service 20% off the displayed price.” . In this case, since words such as time service and 20% discount are included that are positive for shoppers, the control unit 46 analyzes that the user is happy and satisfied (positive state). Note that it is assumed that words that are positive for shoppers are stored in the storage unit 41.

また、制御部46は、視線画像が図7(b)の画像であった場合には、OCR部43を用いることで、「申し訳ございません。現在入荷待ちです。次回入荷時期は未定です。」という文字を検出することができる。この場合、申し訳ございません、入荷待ち、未定といった、買い物客にとってネガティブな単語が含まれているため、制御部46は、ユーザが哀しんで不満足な状態(ネガティブな状態)であると分析する。なお、買い物客にとってネガティブな単語は、記憶部41に記憶されているものとする。 In addition, when the line-of-sight image is the image shown in FIG. 7(b), the control unit 46 uses the OCR unit 43 to display a message saying, ``We are sorry. We are currently on backorder.The next arrival date is undecided.'' can be detected. In this case, since words that are negative for shoppers, such as sorry, backordered, and undecided, are included, the control unit 46 analyzes that the user is sad and unsatisfied (negative state). It is assumed that words that are negative for shoppers are stored in the storage unit 41.

また、制御部46は、視線画像が図8の画像であった場合には、画像認識部44を用いることで、レジが混雑していることや、レジ待ちしている人が不満顔である(笑顔でない)ということを検出することができる。この場合、制御部46は、ユーザが哀しんで不満足な状態(ネガティブな状態)であると判断する。 In addition, when the line-of-sight image is the image shown in FIG. 8, the control unit 46 uses the image recognition unit 44 to detect that the cash register is crowded or that the person waiting at the cash register has a dissatisfied face. (not smiling) can be detected. In this case, the control unit 46 determines that the user is sad and unsatisfied (negative state).

また、制御部46は、視線画像に従業員の顔の画像が含まれる場合には、従業員に起因してユーザの感情が変化したと判断する。この場合、制御部46は、画像認識部44を用いることで、従業員の顔が笑顔か否かを認識する。なお、画像認識部44は、視線画像に含まれる顔の画像が従業員の顔の画像であるか否か、笑顔であるか否かを、記憶部41に記憶されている従業員の顔画像データを用いて判断する。そして、制御部46は、従業員が笑顔でない場合には、ユーザが哀しんでいる又は怒っている不満足な状態(ネガティブな状態)であると判断し、従業員が笑顔の場合には、満足な状態(ポジティブな状態)であると判断する。 Further, if the line-of-sight image includes an image of the employee's face, the control unit 46 determines that the user's emotion has changed due to the employee. In this case, the control unit 46 uses the image recognition unit 44 to recognize whether or not the employee's face is smiling. Note that the image recognition unit 44 determines whether the face image included in the line-of-sight image is an image of an employee's face or not, and whether or not it is a smiling face image, based on the employee's face image stored in the storage unit 41. Use data to make decisions. When the employee is not smiling, the control unit 46 determines that the user is sad or angry, which is an unsatisfactory state (negative state), and when the employee is smiling, the control unit 46 determines that the user is in an unsatisfied state (negative state). state (positive state).

更に、制御部46は、視線画像において物品を手に持っている状態が撮像されていた場合には、物品を見たこと、触れたことによって感情に変化が生じたと判断する。なお、制御部46は、例えば、カゴ装置20が取得した物品情報を併用することで、ユーザが喜んでいるのか哀しんでいるのかを判断することができる場合もある。例えば、物品情報に、数量限定などの情報が含まれている場合には、ユーザが喜んでいると判断することができる。また、物品情報から、賞味期限切れであることが判明した場合には、ユーザが哀しんでいると判断することができる。 Further, if the line-of-sight image captures the state in which the object is being held in the hand, the control unit 46 determines that a change in emotion has occurred due to seeing or touching the object. Note that the control unit 46 may be able to determine whether the user is happy or sad, for example, by also using the article information acquired by the basket device 20. For example, if the product information includes information such as limited quantity, it can be determined that the user is happy with the product. Furthermore, if it is determined from the product information that the product has expired, it can be determined that the user is sad.

図6に戻り、次のステップS56では、制御部46が、感情分析結果に基づいて、対応が必要か否かを判断する。具体的には、制御部46は、ユーザが哀しんでいたり怒っているなど不満足な状態の場合(ネガティブな状態にある場合)に、対応が必要であると判断する。ステップS56の判断が否定された場合には、ステップS50に戻る。一方、ステップS56の判断が肯定された場合には、ステップS58に移行する。 Returning to FIG. 6, in the next step S56, the control unit 46 determines whether or not a response is necessary based on the emotion analysis result. Specifically, the control unit 46 determines that a response is necessary when the user is in an unsatisfactory state (in a negative state), such as when the user is sad or angry. If the determination at step S56 is negative, the process returns to step S50. On the other hand, if the determination in step S56 is affirmative, the process moves to step S58.

ステップS58に移行すると、制御部46は、感情分析結果に基づく対応処理を実行する。例えば、制御部46は、視線画像が図4(b)の場合には、記憶部41に記憶されているお詫びのメッセージや次回入荷予定などの各種メッセージを、通信部42を介して、カゴ装置20に送信する。そして、カゴ装置20の制御部26は、第1通信部24を介して、各種メッセージを装着装置10に送信する。この場合、装着装置10では、制御部17は、表示部12を用いて、各種メッセージを表示(投影)する。 When proceeding to step S58, the control unit 46 executes response processing based on the emotion analysis result. For example, when the line-of-sight image is as shown in FIG. Send to 20. Then, the control unit 26 of the basket device 20 transmits various messages to the mounting device 10 via the first communication unit 24. In this case, in the mounting device 10, the control unit 17 uses the display unit 12 to display (project) various messages.

また、例えば、視線画像が図8の場合には、制御部46は、レジが混雑していることに対するお詫びのメッセージを、カゴ装置20を介して装着装置10の制御部17に送信する。この場合、制御部17は、表示部12にお詫びのメッセージを表示(投影)する。なお、制御部46は、店内放送を利用して、レジの混雑に対するお詫びのメッセージを出力してもよい。また、制御部46は、店内放送を利用して、レジ打ちを行う従業員を補充すべき旨のメッセージ(レジ応援のメッセージ)を出力するようにしてもよい。あるいは、制御部46は、従業員が保持する端末に対して、レジ応援のメッセージを出力するようにしてもよい。また、制御部46は、レジが混雑している状況を見たユーザに対して、レジの進み具合(客1人当たりの処理時間)やレジを担当する店員の熟練度(見習いか、ベテランか)を報知することとしてもよい。 Further, for example, when the line-of-sight image is shown in FIG. 8, the control unit 46 transmits a message of apology for the crowded cash register to the control unit 17 of the mounting device 10 via the basket device 20. In this case, the control unit 17 displays (projects) an apology message on the display unit 12. Note that the control unit 46 may output a message apologizing for the congestion at the cash register using in-store broadcasting. Further, the control unit 46 may output a message (message for supporting the cash register) to the effect that the number of employees who work at the cash register should be supplemented using in-store broadcasting. Alternatively, the control unit 46 may output a cashier support message to a terminal held by an employee. The control unit 46 also informs the user of the situation where the cash register is crowded, such as the progress of the cash register (processing time per customer) and the proficiency level of the clerk in charge of the cash register (whether he is an apprentice or a veteran). It may also be possible to notify.

また、例えば、視線画像から、従業員の対応に問題があると判断された場合には、制御部46は、他の従業員や店長などが保持する端末に対して、客と従業員とのトラブルが発生した旨のメッセージを出力する。なお、カゴ装置20に無線LAN基地局との通信感度に応じて位置を検出することが可能な位置検出装置を設けておけば、制御部46は、位置検出装置の検出結果に基づいて、トラブル発生位置を他の従業員や店長などに知らせることができる。 For example, if it is determined from the line of sight image that there is a problem with the employee's response, the control unit 46 sends a terminal held by another employee or store manager to communicate between the customer and the employee. Outputs a message that a problem has occurred. Note that if the cage device 20 is provided with a position detection device that can detect the position according to the communication sensitivity with the wireless LAN base station, the control unit 46 can troubleshoot based on the detection result of the position detection device. The location of the occurrence can be notified to other employees, store managers, etc.

更に、例えば、視線画像から、客が物品に対して哀しんでいる又は怒っていると判断された場合には、制御部46は、店内放送や従業員が保持する端末を利用して、従業員が直接対応すべき旨のメッセージを出力してもよい。この場合にも、制御部46は、従業員に客の位置を知らせるようにしてもよい。 Further, for example, if it is determined from the line of sight image that the customer is sad or angry about the item, the control unit 46 uses in-store broadcasts or a terminal held by the employee to notify the employee. You may also output a message to the effect that the person should respond directly. In this case as well, the control unit 46 may notify the employee of the customer's location.

なお、第1情報には、感情変化の直前にマイク14が収集した音声データが含まれていてもよい。制御部46は、音声データの分析により、音声データにユーザの怒声やため息、従業員の謝罪の言葉が含まれていた場合には、ユーザが怒っていたり、不満足な状態にある(ネガティブな状態にある)と判断することができる。 Note that the first information may include audio data collected by the microphone 14 immediately before the emotional change. When the voice data is analyzed and the voice data includes the user's angry voice or sigh, or the employee's words of apology, the control unit 46 determines that the user is angry or in an unsatisfied state (a negative state). ).

なお、上述した対応処理のパターンは、予め定められているものとし、当該パターンは、記憶部41に記憶されているものとする。 Note that it is assumed that the pattern of the above-mentioned corresponding processing is determined in advance, and that the pattern is stored in the storage unit 41.

上記のようにしてステップS58の処理が終了した後は、ステップS50に戻る。 After the process of step S58 is completed as described above, the process returns to step S50.

一方、ステップS52の判断が否定された場合、すなわち、カゴ装置20から入力された情報が第2情報であった場合には、ステップS60に移行する。 On the other hand, if the determination in step S52 is negative, that is, if the information input from the car device 20 is the second information, the process moves to step S60.

ステップS60に移行すると、制御部46は、第2情報に基づく、購入行動分析を実行する。この場合、制御部46は、ユーザが買い物の途中で、何を見て、何を手にとり、何を購入したかということを分析する。換言すれば、ユーザがどの商品を見なかったり、手に取らなかったかということを分析しているともいえる。 When proceeding to step S60, the control unit 46 executes purchase behavior analysis based on the second information. In this case, the control unit 46 analyzes what the user looks at, what he picks up, and what he purchases while shopping. In other words, it can be said that it analyzes which products users do not view or pick up.

図9には、あるユーザが入店してからレジを通るまでの間に、手に取った物品の順が示されている。また、図9では、ユーザが購入した物品に下線を付している。なお、制御部46は、ユーザが購入した物品の情報として、レジ端末から取得した購入情報を利用することができる。 FIG. 9 shows the order of items picked up by a certain user from when he/she enters the store until he/she passes through the cash register. Furthermore, in FIG. 9, the items purchased by the user are underlined. Note that the control unit 46 can use purchase information obtained from the cash register terminal as information on the items purchased by the user.

図9において、ユーザは、カレールーAとカレールーBとを手に取っているものの、最終的にはカレールーAを購入している。この場合、制御部46は、カレールーAを手に取った際の視線画像と、カレールーBを手に取った際の視線画像とを参照することで、何を判断基準として、カレールーAを購入したかを分析する。例えばユーザが注視している領域(視線画像の所定位置(ほぼ中心))に値段の情報が長時間含まれていた場合には、値段に基づいてカレールーAを購入したと判断する。また、ユーザが注視している領域に、辛さの表示や、パッケージの写真、成分表示や、賞味期限が長時間含まれていた場合には、それらの情報に基づいて、カレールーAを購入したと判断する。なお、制御部46は、ユーザが注視している領域に、値段や辛さの表示、成分や賞味期限などが含まれているか否かを、OCR部43を用いて抽出するものとする。 In FIG. 9, the user picks up curry roux A and curry roux B, but ultimately purchases curry roux A. In this case, the control unit 46 refers to the line-of-sight image when picking up curry roux A and the line-of-sight image when picking up curry roux B. Analyze. For example, if price information is included for a long time in the area that the user is gazing at (a predetermined position (approximately the center) of the line-of-sight image), it is determined that Curry Roux A has been purchased based on the price. In addition, if the area the user was looking at included the spiciness display, package photo, ingredient display, and expiration date for a long time, it was possible to purchase Curry Roux A based on that information. I judge that. It is assumed that the control unit 46 uses the OCR unit 43 to extract whether or not the area that the user is looking at includes information such as price, spiciness, ingredients, expiration date, etc.

なお、牛肉A,Bについても同様に、購入の際の判断基準を判断するようにすればよい。例えば、制御部46は、ユーザが注視している領域に、内容量の表示や、部位の表示、100g当たりの値段などが長時間含まれていた場合には、それらの情報に基づいて、牛肉Bを購入したと判断する。 Note that the criteria for purchasing beef A and B may be determined in the same manner. For example, if the area that the user is looking at includes a display of content amount, a display of parts, a price per 100g, etc. for a long time, the control unit 46 may display beef based on such information. It is determined that B has been purchased.

また、制御部46は、複数のユーザにおいて取得されたデータを参照することで、ある商品を購入したユーザが比較検討をした別の商品が何であるかを集計したり、比較検討した結果購入した商品の決め手が何であったかを集計したりすることができる。なお、購入の際の判断基準の分析結果は、各商品の製造元や生産者に提供することとしてもよい。製造元や生産者は、この分析結果を今後の商品開発や商品の改善に役立てることが可能である。 In addition, by referring to data acquired by multiple users, the control unit 46 can aggregate information about other products that a user who purchased a certain product has compared and considered, and whether the user who purchased a certain product has purchased the product as a result of the comparison. It is possible to tally up what was the deciding factor for the product. Note that the analysis results of the judgment criteria at the time of purchase may be provided to the manufacturer or producer of each product. Manufacturers and producers can use the results of this analysis for future product development and product improvement.

また、制御部46は、図9のデータを参照することで、客が物品を手に取った順番を集計することができる。この場合、制御部46は、集計結果を利用することで、客の店舗内における動きの傾向を分析することができる。これにより、制御部46は、客の動きに基づく、物品や棚の適切な配置を求めることができる。 Furthermore, by referring to the data in FIG. 9, the control unit 46 can tally the order in which the customers picked up the items. In this case, the control unit 46 can analyze trends in customer movement within the store by using the tally results. Thereby, the control unit 46 can determine appropriate placement of articles and shelves based on the movement of customers.

更に、制御部46は、入店から退店までの間にユーザがポジティブな状態になった回数や位置、ネガティブな状態になった回数や位置を集計することで、客の満足度や不満度を位置ごと(売り場ごと)に分析することができる。 Furthermore, the control unit 46 calculates customer satisfaction and dissatisfaction levels by totaling the number of times and positions where the user is in a positive state and the number and positions where the user is in a negative state from entering the store to leaving the store. can be analyzed by location (by sales area).

また、制御部46は、客がネガティブな状態からポジティブな状態に変化した場合の視線画像を分析することとしてもよい。制御部46は、視線画像を分析した結果、ネガティブな状態からポジティブな状態に変化する間の視線画像に従業員の顔が含まれていた場合には、当該従業員の対応によりトラブルが解消したと分析することができる。また、ネガティブな状態からポジティブな状態に変化する間に装着装置10や店内放送を用いた対応処理を行っていた場合には、対応処理が適切であったと分析することができる。 Further, the control unit 46 may analyze a gaze image when the customer changes from a negative state to a positive state. As a result of analyzing the line-of-sight image, the control unit 46 determines that if the employee's face is included in the line-of-sight image during the change from a negative state to a positive state, the problem is resolved by the employee's response. It can be analyzed as follows. Furthermore, if a response process using the mounting device 10 or in-store broadcasting was performed during the change from a negative state to a positive state, it can be analyzed that the response process was appropriate.

以上、詳細に説明したように、本第1の実施形態によると、サーバ40の制御部46及び通信部42は、ユーザの購買に関する動作情報として視線画像や物品情報を入力し、ユーザの購買に関する感情情報として生体センサ21の検出結果を入力する。これにより、制御部46は、視線画像や物品情報、生体センサ21の検出結果に基づいた購買に関する分析を行い、購買に関する有用な情報を取得・提供することが可能となる。したがって、ユーザによる使い勝手を向上することができる。この場合、ユーザの側から撮像した視線画像を用いることで、店舗の棚側から撮像した画像を用いる場合と比較して、ユーザが実際に見ている状況、すなわち、視線の先にある物品や表示、状況等を考慮した分析が可能となる。 As described above in detail, according to the first embodiment, the control unit 46 and the communication unit 42 of the server 40 input line-of-sight images and article information as operation information related to the user's purchase, and The detection results of the biosensor 21 are input as emotional information. This makes it possible for the control unit 46 to perform purchase-related analysis based on the line-of-sight image, article information, and detection results of the biosensor 21, and to acquire and provide useful information regarding the purchase. Therefore, usability for the user can be improved. In this case, by using a line-of-sight image taken from the user's side, it is possible to see the situation that the user is actually looking at, i.e., the items in front of the user's line of sight. Analysis that takes into account display, situation, etc. becomes possible.

ここで、従来は、装着装置10のような撮像部11が搭載された装置を装着したユーザが店舗内に入店してきた場合、店舗内の様子や商品が勝手に撮像されてしまうため、店舗側にとってメリットがあるとはいえなかった。これに対し、本第1の実施形態では、ユーザが装着装置10を装着して店舗に入るのを許容する代わりに、店舗側は、撮像部11が撮像した画像データをカゴ装置20を介してもらうこととしている。これにより、店舗は、画像データを分析することで、ユーザの商品購入までの行動や感情を分析することが可能である。 Here, conventionally, when a user wearing a device equipped with an imaging unit 11 such as the wearing device 10 enters a store, images of the inside of the store and products are taken without permission. It could not be said that there was any benefit to either side. In contrast, in the first embodiment, instead of allowing the user to wear the mounting device 10 and enter the store, the store sends the image data captured by the imaging unit 11 via the basket device 20. I am planning to receive it. This allows the store to analyze the user's behavior and emotions leading up to the purchase of the product by analyzing the image data.

また、従来は、ショッピングの満足度などをユーザに対するアンケートにより収集することとしていたが、ユーザにとっては店舗のWebサイトにアクセスして、質問に回答したり、紙に回答を筆記したりする必要があり煩わしいものであった。これに対し、本第1の実施形態では、装着装置10で取得された画像データとユーザの生体情報とを紐付けて店舗側に提供することにより、ユーザが無意識のうちに、ユーザの満足度や不満度を店舗側に伝達することが可能である。 In addition, conventionally, shopping satisfaction was collected through surveys of users, but users now have to access the store's website, answer questions, and write down their answers on paper. It was quite annoying. In contrast, in the first embodiment, by linking the image data acquired by the wearing device 10 with the user's biometric information and providing it to the store, the user can unconsciously assess the user's satisfaction level. It is possible to communicate the level of dissatisfaction and dissatisfaction to the store side.

また、本第1の実施形態では、視線画像や物品情報、生体センサ21の検出結果に基づいて、ユーザへのメッセージや従業員へのメッセージを出力する。これにより、不満足に感じたユーザに対して即時対応を行うことが可能となる。 Further, in the first embodiment, a message to the user or a message to the employee is output based on the line-of-sight image, article information, and the detection result of the biosensor 21. This makes it possible to immediately respond to users who feel unsatisfied.

また、本第1の実施形態では、制御部46は、視線画像や物品情報からユーザが物品を保持したことを判断する。これにより、制御部46は、ユーザが物品を保持したという情報や保持した順番等を分析することで、購買に関する有用な情報を取得・提供することが可能となる。 Further, in the first embodiment, the control unit 46 determines whether the user has held the article from the line-of-sight image and article information. This makes it possible for the control unit 46 to acquire and provide useful information regarding purchasing by analyzing the information that the user has held the item, the order in which the item was held, and the like.

また、本第1の実施形態では、制御部46は、生体センサ21の検出結果を利用するため、ユーザに感情の変化が生じたか否かを簡易に判断することが可能である。また、生体センサ21の検出結果とあわせてユーザの視線画像を分析することで、ユーザの感情がポジティブになったのか、ネガティブになったのかを精度よく判断することができる。 Further, in the first embodiment, since the control unit 46 uses the detection results of the biosensor 21, it is possible to easily determine whether or not the user's emotions have changed. Furthermore, by analyzing the user's gaze image together with the detection results of the biosensor 21, it is possible to accurately determine whether the user's emotions have become positive or negative.

また、本第1の実施形態では、装着装置10が、視線画像を撮像し、撮像した視線画像を人体通信を介してユーザに接触しているカゴ装置20に対して送信する。これにより、カゴ装置20は、カゴ120を保持しているユーザの視線画像のみを取得することが可能である。すなわち、店舗に入店したユーザの装着装置10から視線画像を確実に取得し、店舗に入店していない人(例えば店舗付近を通りがかった人)の装着装置10から視線画像を取得してしまうのを確実に防止することができる。 Furthermore, in the first embodiment, the mounting device 10 captures a line-of-sight image and transmits the captured line-of-sight image to the basket device 20 that is in contact with the user via human body communication. Thereby, the basket device 20 can acquire only the line-of-sight image of the user holding the basket 120. That is, the line-of-sight image is reliably acquired from the wearing device 10 of a user who has entered the store, and the line-of-sight image is acquired from the wearing device 10 of a person who has not entered the store (for example, a person passing near the store). It is possible to reliably prevent it from being put away.

また、本第1の実施形態では、生体センサ21の検出結果に変化があったとき、すなわち、ユーザの感情の変化があったときに、サーバ40に対して第1情報が送信される(S42)。これにより、分析が必要な情報を適切なタイミングでサーバ40に送信することができる。 Further, in the first embodiment, when there is a change in the detection result of the biosensor 21, that is, when there is a change in the user's emotion, the first information is transmitted to the server 40 (S42 ). Thereby, information that requires analysis can be transmitted to the server 40 at an appropriate timing.

なお、上記第1の実施形態では、生体センサ21をカゴ装置20が備える場合について説明したが、これに限らず、生体センサを装着装置10が備えていてもよい。この場合、装着装置10のフレームの一部やフレーム近傍に顔の一部と接触する生体センサを設けることとすればよい。また、装着装置10に耳たぶに装着可能な生体センサを接続するようにしてもよい。 In addition, although the case where the cage|basket apparatus 20 was equipped with the biosensor 21 was demonstrated in the said 1st Embodiment, it is not limited to this, and the mounting apparatus 10 may be equipped with a biosensor. In this case, a biosensor that comes into contact with a part of the face may be provided in a part of the frame of the mounting device 10 or in the vicinity of the frame. Further, a biosensor that can be worn on an earlobe may be connected to the mounting device 10.

また、上記第1の実施形態では、物品装置30を物品130に設ける場合について説明した。しかしながら、これに限られるものではなく、ステップS54の感情分析やステップS60の購入行動分析において物品情報が不要な場合には、物品装置30は必ずしも物品130に設けなくてもよい。例えば、視線画像において、物品を手に持っている状態が撮像されていた場合に、画像認識を行うことで、手に持っている物品を特定できる場合などである。 Further, in the first embodiment, the case where the article device 30 is provided on the article 130 has been described. However, the present invention is not limited to this, and the article device 30 does not necessarily need to be provided on the article 130 if the article information is not required in the sentiment analysis in step S54 or the purchase behavior analysis in step S60. For example, if a line-of-sight image captures an object being held in the hand, the object held in the hand can be identified by performing image recognition.

なお、上記第1の実施形態では、物品装置30がカゴ装置20との間で人体通信を行う場合について説明したが、これに限らず、物品装置30は、装着装置10との間で人体通信を行うこととしてもよい。この場合、装着装置10とカゴ装置20との間で人体通信が成立した状態で、装着装置10が取得した物品情報を装着装置10からカゴ装置20に対して送信するようにすればよい。 Note that in the first embodiment, a case has been described in which the article device 30 performs human body communication with the basket device 20; however, the article device 30 is not limited to this, and the article device 30 performs human body communication with the mounting device 10. You may also do this. In this case, article information acquired by the mounting device 10 may be transmitted from the mounting device 10 to the basket device 20 while human body communication is established between the mounting device 10 and the basket device 20.

なお、上記第1の実施形態では、生体センサ21の検出結果を利用する場合について説明したが、これに限られるものではなく、生体センサ21の検出結果を利用しないこととしてもよい。この場合、制御部46は、例えば、視線画像に基づいて、ユーザが所定時間の間、図7(a)のマークを凝視していると判断した場合に、ユーザがポジティブな状態にあると推定することとしてもよい。また、制御部46は、例えば、視線画像に基づいて、ユーザが図7(b)の張り紙や図7(c)のレジ待ち状態を所定時間凝視していると判断した場合に、ユーザがネガティブな状態にあると推定することとしてもよい。この場合、制御部46は、ユーザが見ることでポジティブ又はネガティブな状態になると予測されるマークや張り紙、状況の画像パターンを予め記憶しておき、該画像パターンと視線画像との比較を行うこととすればよい。 In the first embodiment, a case has been described in which the detection results of the biosensor 21 are used, but the present invention is not limited to this, and the detection results of the biosensor 21 may not be used. In this case, the control unit 46 estimates that the user is in a positive state, for example, when it determines that the user is staring at the mark in FIG. 7(a) for a predetermined period of time based on the gaze image. You can also do it. For example, if the control unit 46 determines that the user is staring at the notice board in FIG. 7(b) or the checkout waiting state in FIG. 7(c) based on the line-of-sight image, It may also be assumed that the state is in a certain state. In this case, the control unit 46 stores in advance an image pattern of a mark, a poster, or a situation that is predicted to result in a positive or negative state when viewed by the user, and compares the image pattern with the line-of-sight image. And it is sufficient.

なお、上記第1の実施形態では、視線画像の所定位置を視線の中心位置とみなす場合について説明したが、これに限られるものではない。例えば、赤外線照射部と、赤外線受光部と、を有し、赤外線照射部から眼球に対して赤外線を照射し、眼球にて反射した赤外線を赤外線受光部において受光することで視線方向を検出する視線検出部を装着装置10に別途設けることとしてもよい。 Note that in the first embodiment, a case has been described in which the predetermined position of the line-of-sight image is regarded as the center position of the line-of-sight, but the present invention is not limited to this. For example, the line of sight includes an infrared irradiation section and an infrared reception section, and the line of sight is detected by emitting infrared rays from the infrared irradiation section to the eyeball, and receiving the infrared rays reflected by the eyeball at the infrared reception section. The detection section may be provided separately in the mounting device 10.

なお、サーバ40は、複数の店舗における客の満足度や不満足度などを集計して、1つのWebサイトにおいて各店舗のユーザ評価として公表することとしてもよい。この場合、例えば、各店舗の評価を星の数や満足度の点数などで公表することができる。 Note that the server 40 may aggregate customer satisfaction and dissatisfaction levels at a plurality of stores and publish the results as user evaluations for each store on one website. In this case, for example, the evaluation of each store can be made public using the number of stars, satisfaction score, etc.

《第2の実施形態》
次に、第2の実施形態に係る電子機器システム100’について、図10~図14に基づいて、詳細に説明する。
《Second embodiment》
Next, the electronic device system 100' according to the second embodiment will be described in detail based on FIGS. 10 to 14.

図10には、電子機器システム100’の構成がブロック図にて示されている。図10では、電子機器システム100’のうち、第1の実施形態の電子機器システム100と異なる構成を太線枠にて示している。 FIG. 10 shows a block diagram of the configuration of an electronic device system 100'. In FIG. 10, the configurations of the electronic device system 100' that are different from the electronic device system 100 of the first embodiment are indicated by bold lines.

図10に示すように、電子機器システム100’においては、装着装置10’がスピーカ18を備え、カゴ装置20’が重量センサ27を備え、物品装置30’が発光部34を備えている。なお、サーバ40’の構成は、第1の実施形態のサーバ40と同様である。 As shown in FIG. 10, in the electronic device system 100', the mounting device 10' includes the speaker 18, the basket device 20' includes the weight sensor 27, and the article device 30' includes the light emitting section 34. Note that the configuration of the server 40' is similar to the server 40 of the first embodiment.

スピーカ18は、装着装置10’を装着するユーザに音声情報を提供するために用いられる。スピーカ18としては、イヤホンやヘッドホンのほか、指向性があり、装着装置10’を装着するユーザにのみ音声情報を提供することが可能なスピーカなどを採用することができる。なお、装着装置10’の記憶部15には、後述する物品装置30’の発光部34の発光パターンに対応する物品情報を格納しているものとする。 The speaker 18 is used to provide audio information to the user wearing the wearing device 10'. As the speaker 18, in addition to earphones and headphones, it is possible to employ a speaker that has directivity and can provide audio information only to the user wearing the wearing device 10'. It is assumed that the storage section 15 of the mounting device 10' stores article information corresponding to the light emission pattern of the light emitting section 34 of the article device 30', which will be described later.

重量センサ27は、カゴ装置20’の一部に設けられ、カゴ120の内容量の変化を検出するためのセンサである。 The weight sensor 27 is provided in a part of the car device 20' and is a sensor for detecting a change in the content of the car 120.

発光部34は、LED(Light Emitting Diode)等の発光素子を含み、物品ごとに予め定められた発光パターンで、発光を行う。なお、発光部34の発光は、制御部33により制御される。装着装置10’の制御部17は、撮像部11による動画撮影において、画角の所定範囲内で発光パターンを撮像した場合に、ユーザがその発光パターンに対応する物品を見たと推定する。なお、発光部34による発光のオン・オフ切り替えタイミング(発光パターンの点滅間隔)は、撮像部11のフレームレートに合わせて設定されているものとする。なお、発光部34として可視光LEDを用いても赤外線LEDを用いてもよく、赤外線LEDを用いる場合には、撮像部11に赤外線撮像素子を用いればよい。 The light emitting unit 34 includes a light emitting element such as an LED (Light Emitting Diode), and emits light in a predetermined light emitting pattern for each article. Note that the light emission of the light emitting section 34 is controlled by the control section 33. The control unit 17 of the mounting device 10' estimates that the user has viewed an article corresponding to the light emission pattern when the image capture unit 11 captures an image of the light emission pattern within a predetermined range of the angle of view during video shooting. It is assumed that the timing of switching on/off the light emission by the light emitting unit 34 (flashing interval of the light emission pattern) is set in accordance with the frame rate of the imaging unit 11. Note that a visible light LED or an infrared LED may be used as the light emitting unit 34, and when an infrared LED is used, an infrared imaging element may be used in the imaging unit 11.

次に、本第2の実施形態における電子機器システム100’の処理について、図11~図13のフローチャートに沿って、その他図面を適宜参照しつつ詳細に説明する。なお、本第2の実施形態においても、電子機器システム100’が、スーパーマーケットで利用される場合について説明する。 Next, the processing of the electronic device system 100' in the second embodiment will be described in detail along the flowcharts of FIGS. 11 to 13 and with appropriate reference to other drawings. In the second embodiment as well, a case will be described in which the electronic device system 100' is used in a supermarket.

(装着装置10’の処理)
図11(a)には、装着装置10’の処理がフローチャートにて示されている。なお、図11(a)においては、第1の実施形態の装着装置10の処理(図4(a))と異なるステップを太線枠にて示している。
(Processing of mounting device 10')
FIG. 11A shows a flowchart of the processing of the mounting device 10'. Note that in FIG. 11(a), steps that are different from the processing of the mounting device 10 of the first embodiment (FIG. 4(a)) are indicated by a thick line frame.

図11(a)の処理では、装着装置10’の制御部17は、ステップS10において、カゴ装置20’との人体通信が成立するまで待機する。カゴ装置20’との人体通信が成立すると、制御部17は、ステップS110に移行する。 In the process of FIG. 11A, the control unit 17 of the mounting device 10' waits until human body communication with the basket device 20' is established in step S10. When the human body communication with the car device 20' is established, the control section 17 moves to step S110.

ステップS110に移行すると、制御部17は、撮像部11に指示を出し、ユーザ側からの撮像(動画)を実行する。 In step S110, the control unit 17 issues an instruction to the imaging unit 11 to perform imaging (video) from the user side.

次いで、ステップS112では、制御部17は、画角の所定範囲内において発光部34の発光を撮像したか否かを判断する。すなわち、ユーザが物品装置30’が設けられている物品を見たか否かを判断する。このステップS112における判断が否定された場合には、ステップS116に移行するが、ステップS112の判断が肯定された場合には、ステップS114に移行する。 Next, in step S112, the control unit 17 determines whether the light emission from the light emitting unit 34 has been imaged within a predetermined range of the angle of view. That is, it is determined whether the user has seen the article on which the article device 30' is installed. If the judgment in step S112 is negative, the process moves to step S116, but if the judgment in step S112 is affirmative, the process moves to step S114.

ステップS114に移行すると、制御部17は、ユーザが見た物品情報をカゴ装置20’に送信する。具体的には、制御部17は、撮像部11の画角の所定範囲内において検出された発光パターンに対応する物品情報を記憶部15から取得し、通信部16を介してカゴ装置20’の第1通信部24に対して送信する。 In step S114, the control unit 17 transmits information on the articles viewed by the user to the basket device 20'. Specifically, the control unit 17 acquires article information corresponding to the light emitting pattern detected within a predetermined range of the angle of view of the imaging unit 11 from the storage unit 15, and transmits it to the basket device 20' via the communication unit 16. It is transmitted to the first communication unit 24.

ステップS112の判断が否定された後、あるいはステップS114の処理が行われた後、ステップS116に移行すると、制御部17は、カゴ装置20’から情報を受信したか否かを判断する。なお、カゴ装置20’から受信する情報とは、サーバ40’から送信されてくる物品や店舗のサービスに関する情報である。ここでの判断が否定された場合には、ステップS16に移行するが、肯定された場合には、ステップS118に移行する。 After the determination in step S112 is negative or after the process in step S114 is performed, the process proceeds to step S116, and the control unit 17 determines whether or not information has been received from the car device 20'. Note that the information received from the cart device 20' is information regarding goods and store services transmitted from the server 40'. If the judgment here is negative, the process moves to step S16, but if the judgment is affirmative, the process moves to step S118.

ステップS118に移行すると、制御部17は、カゴ装置20’から受信した情報を出力する。なお、本ステップS118の処理の詳細については、後述する。 In step S118, the control unit 17 outputs the information received from the car device 20'. Note that details of the process in step S118 will be described later.

ステップS116の判断が否定された後、あるいはステップS118の処理が行われた後、ステップS16に移行すると、制御部17は、レジ端末から入力のあったカゴ装置20’との人体通信が成立したか否かを判断する。ここで、レジ端末からの入力とは、ユーザが買い物を終了し、レジにカゴ120を持っていった場合に、カゴ装置20’とレジ端末との間の通信により、レジ端末からカゴ装置20’に対して送信される、買い物終了情報の入力を意味する。すなわち、レジ端末からの入力があったカゴ装置20’と装着装置10’との人体通信が成立した場合、ユーザの買い物が終了したことを意味する。したがって、買い物が終了しておらず、ステップS16の判断が否定された場合には、ステップS112に戻り、ステップS112~S16の処理・判断を繰り返す。一方、ユーザの買い物が終了し、ステップS16の判断が肯定された場合には、図11(a)の全処理が終了する。 After the determination in step S116 is negative or after the process in step S118 is performed, the control unit 17 proceeds to step S16, and the control unit 17 determines that human body communication has been established with the cart device 20' that received the input from the cash register terminal. Determine whether or not. Here, input from the cash register terminal means that when the user finishes shopping and takes the cart 120 to the cash register, the input from the cash register terminal is transmitted to the cart device 20 by communication between the cart device 20' and the cash register terminal. ' indicates the input of shopping completion information. In other words, when human body communication is established between the basket device 20' and the mounting device 10' that received input from the cash register terminal, it means that the user's shopping has ended. Therefore, if the shopping has not been completed and the determination in step S16 is negative, the process returns to step S112 and the processes and determinations in steps S112 to S16 are repeated. On the other hand, if the user has finished shopping and the determination in step S16 is affirmative, the entire process in FIG. 11(a) ends.

(物品装置30’の処理)
図11(b)には、物品装置30’の処理がフローチャートにて示されている。なお、図11(b)においては、第1の実施形態の物品装置30の処理(図4(b))と異なるステップを太線枠にて示している。
(Processing of article device 30')
FIG. 11(b) shows a flowchart of the processing of the article device 30'. Note that in FIG. 11(b), steps that are different from the processing of the article device 30 of the first embodiment (FIG. 4(b)) are indicated by bold lines.

図11(b)に示すように、物品装置30’では、ステップS120において、制御部33が、発光部34を用いた発光を行う。この場合、制御部33は、物品装置30’が設けられる物品に対応する発光パターンで、発光部34を発光させる。その他の処理は、図4(b)と同様である。 As shown in FIG. 11(b), in the article device 30', in step S120, the control section 33 causes the light emitting section 34 to emit light. In this case, the control section 33 causes the light emitting section 34 to emit light in a light emitting pattern corresponding to the article to which the article device 30' is installed. Other processing is the same as in FIG. 4(b).

(カゴ装置20’の処理)
図12には、カゴ装置20’の処理がフローチャートにて示されている。図12の処理では、ステップS130において、制御部26は、装着装置10’との人体通信が成立するまで待機する。装着装置10’との人体通信が成立して、ステップS132に移行すると、制御部26は、装着装置10’から物品情報を受信したか否かを判断する。
(Processing of the cage device 20')
FIG. 12 shows a flowchart of the processing of the car device 20'. In the process of FIG. 12, in step S130, the control unit 26 waits until human body communication with the mounting device 10' is established. When human body communication with the mounting device 10' is established and the process moves to step S132, the control unit 26 determines whether or not article information has been received from the mounting device 10'.

ステップS132の判断が肯定された場合には、ステップS134に移行し、制御部26は、装着装置10’から受信した物品情報を、見た物品の物品情報としてサーバ40’に送信し、ステップS136に移行する。一方、ステップS132の判断が否定された場合には、ステップS134を経ずにステップS136に移行する。 If the determination in step S132 is affirmative, the process moves to step S134, where the control unit 26 transmits the article information received from the mounting device 10' to the server 40' as article information of the viewed article, and in step S136 to move to. On the other hand, if the determination in step S132 is negative, the process proceeds to step S136 without passing through step S134.

ステップS136に移行すると、制御部26は、物品装置30’から物品情報を受信したか否かを判断する。ステップS136の判断が肯定された場合には、ステップS138に移行し、制御部26は、物品装置30’から受信した物品情報を、触れた物品の物品情報としてサーバ40’に送信し、ステップS140に移行する。一方、ステップS136の判断が否定された場合には、ステップS138を経ずにステップS140に移行する。 In step S136, the control unit 26 determines whether article information has been received from the article device 30'. If the determination in step S136 is affirmative, the process moves to step S138, where the control unit 26 transmits the article information received from the article device 30' to the server 40' as article information of the touched article, and in step S140 to move to. On the other hand, if the determination in step S136 is negative, the process proceeds to step S140 without passing through step S138.

ステップS140に移行すると、制御部26は、重量センサ27の検出値が変化したか否かを判断する。ここで、重量センサ27の検出値が変化した場合とは、物品がカゴ120内に新たに入れられたことを意味する。なお、カゴ120内の物品が取り出された場合も重量センサ27の検出値は変化するが、ここでは、説明の便宜上、カゴ120内から物品は取り出されないものとして説明する。ステップS140の判断が肯定された場合には、ステップS142に移行し、制御部26は、直前に触れていた物品の物品情報を、カゴに入れた物品の物品情報、すなわちユーザが購入予定の商品の情報としてサーバ40’に送信する。一方、ステップS140の判断が否定された場合には、ステップS142を経ずにステップS144に移行する。 In step S140, the control unit 26 determines whether the detected value of the weight sensor 27 has changed. Here, a case where the detected value of the weight sensor 27 changes means that an article is newly placed in the basket 120. Although the detection value of the weight sensor 27 also changes when an article in the basket 120 is taken out, for convenience of explanation, the explanation will be given assuming that no article is taken out from the basket 120. If the determination in step S140 is affirmative, the process moves to step S142, and the control unit 26 converts the item information of the item that was touched just before into the item information of the item that was placed in the cart, that is, the item that the user plans to purchase. The information is sent to the server 40'. On the other hand, if the determination in step S140 is negative, the process proceeds to step S144 without passing through step S142.

ステップS144に移行すると、制御部26は、サーバ40’から情報を受信したか否かを判断する。なお、サーバ40’から受信する情報とは、物品や店舗のサービスに関する情報である。このステップS144の判断が肯定された場合には、ステップS146に移行し、制御部26は、サーバ40’から受信した情報を装着装置10’に送信し、ステップS148に移行する。一方、ステップS144の判断が否定された場合には、ステップS146を経ずに、ステップS148に移行する。 Proceeding to step S144, the control unit 26 determines whether information has been received from the server 40'. Note that the information received from the server 40' is information regarding goods and store services. If the determination in step S144 is affirmative, the process proceeds to step S146, where the control unit 26 transmits the information received from the server 40' to the mounting device 10', and the process proceeds to step S148. On the other hand, if the determination in step S144 is negative, the process proceeds to step S148 without passing through step S146.

ステップS148に移行すると、制御部26は、レジ端末から入力があったか否かを判断する。ここで、レジ端末からの入力とは、前述したように、買い物終了情報の入力を意味する。 When proceeding to step S148, the control unit 26 determines whether there is an input from the cashier terminal. Here, input from the cash register terminal means input of shopping completion information, as described above.

ステップS148の判断が否定された場合には、ステップS132に移行し、ステップS132~S148の処理・判断を繰り返すが、ステップS148の判断が肯定された場合には、制御部26は、図12の全処理を終了する。 If the determination in step S148 is negative, the process moves to step S132, and the processes and determinations in steps S132 to S148 are repeated. However, if the determination in step S148 is affirmative, the control unit 26 performs the process shown in FIG. Finish all processing.

(サーバ40’の処理)
図13には、サーバ40’の処理がフローチャートにて示されている。
(Processing of server 40')
FIG. 13 shows a flowchart of the processing of the server 40'.

図13の処理では、ステップS150において、制御部46は、カゴ装置20’から物品情報を受信するまで待機する。すなわち、ユーザが見た物品の物品情報、ユーザが触れた物品の物品情報、カゴ120に入れた物品の物品情報のいずれかが入力された段階で、制御部46は、ステップS152に移行する。 In the process of FIG. 13, in step S150, the control unit 46 waits until it receives article information from the basket device 20'. That is, at the stage where any one of the article information of the article viewed by the user, the article information of the article touched by the user, and the article information of the article placed in the basket 120 is input, the control unit 46 moves to step S152.

ステップS152に移行すると、制御部46は、記憶部41に格納されている買い物DBを更新する。ここで、買い物DBは、図14(a)に示すようなデータ構造を有している。図14(a)に示すように、物品名、見た、手に触れた、カゴに入れた、の各欄を有する。制御部46は、ユーザが見た物品の物品情報を受信した場合、当該物品の見たの欄に○を格納し、ユーザが触れた物品の物品情報を受信した場合、当該物品の触れたの欄に○を格納し、ユーザがカゴに入れた物品の物品情報を受信した場合、当該物品のカゴに入れたの欄に○を格納する。 When proceeding to step S152, the control unit 46 updates the shopping DB stored in the storage unit 41. Here, the shopping DB has a data structure as shown in FIG. 14(a). As shown in FIG. 14(a), it has columns for item name, seen, touched, and put in cart. When the control unit 46 receives article information about an article that the user has viewed, it stores a circle in the "Seen" column of the article, and when it receives article information about an article that the user has touched, it stores information about the item that the user has touched. ○ is stored in the Added to Cart column, and when the item information of the item that the user has put in the cart is received, an ○ is stored in the Added to Cart column for the item.

次いで、ステップS154では、制御部46は、買い物DBを分析する。例えば、制御部46は、図14(a)の買い物DBを参照して、牛肉Aを手に持ってから所定時間経過したような場合(新たな物品情報を所定時間受信しないような場合)には、牛肉Aと比較対照となり得る物品(例えば、牛肉B)の情報をユーザが必要としている可能性があると分析することができる。また、制御部46は、例えば、カゴに入れた物品から、ユーザがカレーを作ることを推定できるため、カレーを作る際に必要な牛肉の量(4皿分ならXg、8皿分ならYgなど)の情報をユーザが必要としている可能性があると分析することができる。また、制御部46は、カレーの付け合せ(福神漬けやロースカツ、デザートなど)のお買い得情報や、店舗のキャンペーン情報(あとZ円買えば、クジが引けるなど)の情報をユーザが必要としている可能性があると分析することができる。 Next, in step S154, the control unit 46 analyzes the shopping DB. For example, the control unit 46 refers to the shopping DB in FIG. 14(a), and if a predetermined time has elapsed since the beef A was held in hand (in a case where new product information is not received for a predetermined time), It can be analyzed that there is a possibility that the user needs information about an item (for example, beef B) that can be compared with beef A. In addition, since the control unit 46 can estimate that the user will make curry based on the items placed in the basket, the control unit 46 can also estimate the amount of beef needed to make curry (such as Xg for 4 dishes, Yg for 8 dishes, etc.). ) information that users may need. In addition, the control unit 46 may indicate that the user needs information about bargains on curry side dishes (Fukujinzuke, loin cutlet, desserts, etc.) and store campaign information (such as if you buy Z yen more, you can win a lottery ticket). It can be analyzed if there is.

次いで、ステップS156では、制御部46は、ステップS154の分析の結果、ユーザに通知する情報が存在するか否かを判断する。ここでの判断が否定された場合には、ステップS150に戻るが、肯定された場合には、ステップS158に移行する。なお、同一の物品にユーザが複数回触れた場合や、以前触れた物品と類似する物品にユーザが触れた場合などにおいては、過去に通知した情報と同一の情報が、ユーザに通知する情報と判断される場合もある。したがって、制御部46は、過去に通知した情報と同一の情報については、ユーザに通知すべき情報ではないとして、通知を制限してもよい。すなわち、制御部46は、同一の物品に複数回触れた場合又は複数回見た場合、あるいは以前触れた又は見た物品と類似する物品に触れた又は見た場合に、通知される情報を制限することとしてもよい。このようにすることで、同一のユーザに同一の情報が繰り返し通知されるのを防止することができる。 Next, in step S156, the control unit 46 determines whether or not there is information to be notified to the user as a result of the analysis in step S154. If the judgment here is negative, the process returns to step S150, but if the judgment is affirmative, the process moves to step S158. In addition, in cases where the user touches the same item multiple times, or when the user touches an item similar to the item previously touched, the same information notified in the past may be used as the information notified to the user. Sometimes it is judged. Therefore, the control unit 46 may limit notification of information that is the same as information notified in the past, considering it not to be information that should be notified to the user. That is, the control unit 46 limits the information to be notified when the same item is touched or seen multiple times, or when an item similar to an item previously touched or seen is touched or seen. You can also do it. By doing so, it is possible to prevent the same user from being repeatedly notified of the same information.

なお、制御部46は、同じ物品に触れた回数や同じ物品を見た回数に応じて、通知すべき情報を変更することとしてもよい。例えば、制御部46は、1回目には物品そのものの情報、2回目にはその物品の比較対照となる物品の情報、3回目には物品に関連するお得情報、を通知すべき情報とすることとしてもよい。このようにすることで、物品の購入に迷っている客が当該物品を購入する可能性を向上することが可能となる。これに代えて、ユーザが同一の物品に触れた時間に応じて、2回目以降はユーザに通知していない情報からユーザに通知するようにしてもよい。 Note that the control unit 46 may change the information to be notified depending on the number of times the same item is touched or the number of times the same item is viewed. For example, the control unit 46 sets, as the information to be notified, the information about the article itself the first time, the information about the article to be compared with the article at the second time, and the advantageous information related to the article at the third time. It may also be a thing. By doing so, it is possible to improve the possibility that a customer who is undecided about purchasing an item will purchase the item. Alternatively, the user may be notified of information that has not been notified to the user since the second time, depending on the time when the user touched the same item.

ステップS156の判断が肯定された場合、制御部46は、ステップS158に移行し、ユーザに通知する情報をカゴ装置20’に送信する。なお、ステップS158の処理が行われた場合、図12の処理では、ステップS144の判断が肯定され、ステップS146の処理(サーバから受信した情報を装着装置10’に送信する処理)が実行される。また、図12においてステップS146の処理が実行された場合、図11(a)のステップS116の判断が肯定され、ステップS118の処理(受信した情報を出力する処理)が実行される。ステップS118では、制御部17は、表示部12を用いて、ユーザに通知する情報を表示したり、スピーカ18を用いて、ユーザに通知する情報を出力したりする。なお、ステップS158の後は、ステップS150に戻り、ステップS150~S158の処理を繰り返す。 If the determination in step S156 is affirmative, the control unit 46 moves to step S158 and transmits information to be notified to the user to the basket device 20'. In addition, when the process of step S158 is performed, in the process of FIG. 12, the determination of step S144 is affirmed, and the process of step S146 (process of transmitting the information received from the server to the mounting device 10') is executed. . Moreover, when the process of step S146 in FIG. 12 is executed, the determination in step S116 of FIG. 11(a) is affirmed, and the process of step S118 (the process of outputting the received information) is executed. In step S118, the control unit 17 uses the display unit 12 to display information to be notified to the user, and uses the speaker 18 to output information to be notified to the user. Note that after step S158, the process returns to step S150, and the processes of steps S150 to S158 are repeated.

なお、制御部46は、買い物が終了したユーザの買い物DB(例えば、図14(b))に基づいて、各種分析を行うこととしてもよい。この場合、制御部46は、例えば、図14(b)に基づいて、カレールーAとカレールーB、及び牛肉Aと牛肉Bが比較され、カレールーB、牛肉Bが購入されたことを分析することができる。また、制御部46は、店内を歩く順番、購入の順番などを分析することもできる。また、制御部46は、商品を見ただけで購入しなかった物品、手に取ったけど購入しなかった物品を特定し、分析することができる。制御部46は、分析結果を商品の製造元、販売元等に提供することとしてもよい。 Note that the control unit 46 may perform various analyzes based on the shopping DB (for example, FIG. 14(b)) of the user who has completed shopping. In this case, the control unit 46 may analyze that curry roux A and curry roux B and beef A and beef B were compared and that curry roux B and beef B were purchased based on, for example, FIG. 14(b). can. The control unit 46 can also analyze the order of walking in the store, the order of purchases, and the like. Further, the control unit 46 can identify and analyze articles that the user merely looked at but did not purchase, and articles that the user picked up but did not purchase. The control unit 46 may provide the analysis results to the manufacturer, seller, etc. of the product.

以上、詳細に説明したように、本第2の実施形態によると、制御部46は、物品をユーザが手にしたこと、及び物品がユーザの視野内の所定範囲に入ったことの少なくとも一方に応じて、物品の物品情報を入力し(S150:肯定)、入力した物品情報に関する通知を行う(S158)。したがって、本第2の実施形態では、ユーザが手に触れた物品やユーザが見た物品に関連した有用な情報を、ユーザに対して報知することができる。これにより、ユーザの使い勝手を向上することができる。 As described above in detail, according to the second embodiment, the control unit 46 receives at least one of the following: when the user picks up the article, and when the article enters a predetermined range within the user's visual field. Accordingly, the article information of the article is input (S150: affirmative), and a notification regarding the input article information is issued (S158). Therefore, in the second embodiment, it is possible to notify the user of useful information related to the article that the user has touched or the article that the user has seen. Thereby, user-friendliness can be improved.

また、本第2の実施形態では、制御部46は、物品情報としてカゴ120内に入れられたユーザが購入予定の商品の情報を入力し、入力した商品に応じた通知を行う。これにより、ユーザが購入予定の商品に関連した有用な情報を、ユーザに対して報知することができる。また、制御部46は、買い物時に使用されるカゴ装置20’から購入予定の商品の情報を入力するので、購入予定の商品の情報として正確な情報を入力することができる。 Furthermore, in the second embodiment, the control unit 46 inputs information on a product that the user plans to purchase, which is placed in the cart 120, as product information, and provides notification in accordance with the input product. Thereby, useful information related to the product that the user plans to purchase can be notified to the user. Furthermore, since the control unit 46 inputs information on the products to be purchased from the cart device 20' used during shopping, accurate information can be input as the information on the products to be purchased.

また、本第2の実施形態では、ユーザへの情報の通知を装着装置10’の表示部12や指向性のあるスピーカ18から行うので、他のユーザに知られることなく、ユーザごとにユーザの購買行動に応じた通知を行うことができる。 In addition, in the second embodiment, since information is notified to the user from the display unit 12 or the directional speaker 18 of the wearing device 10', each user can be notified of the information without other users knowing. Notifications can be made according to purchasing behavior.

なお、上記第2の実施形態では、制御部46は、ユーザがある物品を手に持ちながら、別の物品を見ている場合に、両商品を比較検討していると判断してもよい。 Note that in the second embodiment, the control unit 46 may determine that the user is comparing and considering both products when the user is holding one product in his hand and looking at another product.

なお、上記第2の実施形態では、スーパーマーケットにおいて電子機器システム100’を利用する例について説明したが、これに限らず、衣料品店等において電子機器システム100’を利用することとしてもよい。例えば、制御部46は、ユーザが服を手に取ったときに、色違い、サイズ違いなどの在庫の有無の情報、類似商品でセール中の商品があるか否かの情報、あと1着買うと値引き、あと2000円以上買うと値引きなどの値引き情報等を表示部12やスピーカ18を用いて報知することにより、他のユーザに知られることなく、特定のユーザ(店舗の会員などのお得意様)だけに通知することができる。また、サーバ40’は、店舗の会員のユーザが誕生日に来店した際に、装着装置10’に値引き情報、プレゼント情報、お祝いのメッセージを送信するようにしてもよい。 Although the second embodiment described above describes an example in which the electronic device system 100' is used in a supermarket, the present invention is not limited to this, and the electronic device system 100' may be used in a clothing store or the like. For example, when the user picks up a piece of clothing, the control unit 46 may provide information on whether the item is in stock, such as a different color or size, information on whether there is a similar item on sale, or information on whether or not to buy another item. By using the display unit 12 and speaker 18 to notify discount information such as a discount when purchasing more than 2,000 yen, and a discount when purchasing more than 2,000 yen, it is possible to notify a specific user (such as a member of a store) of discount information without the knowledge of other users. may be notified only to Mr. Further, the server 40' may transmit discount information, present information, and congratulatory messages to the wearing device 10' when a user who is a member of the store comes to the store on his or her birthday.

なお、上記第2の実施形態では、制御部17は、装着装置10’において取得された物品情報をカゴ装置20’を経由してサーバ40’に送信する場合について説明したが、これに限られるものではない。例えば、装着装置10’が無線通信可能な通信部を有している場合には、無線通信により、装着装置10’からサーバ40’に情報を送信するようにしてもよい。 In the second embodiment, the control unit 17 has explained the case where the article information acquired by the mounting device 10' is transmitted to the server 40' via the basket device 20', but the present invention is not limited to this. It's not a thing. For example, if the mounting device 10' has a communication unit capable of wireless communication, information may be transmitted from the mounting device 10' to the server 40' by wireless communication.

なお、上記第2の実施形態では、物品装置30’が発光部34を有する場合について説明したが、これに限らず、物品装置30’は発光部34を有していなくてもよい。この場合、制御部17は、撮像部11が撮像した画像を解析することで、ユーザが見た物品を特定するようにすればよい。例えば、制御部17は、表示に含まれる文字(例えば商品タグやPOP広告の文字)を認識して、ユーザが見た物品を特定することとしてもよい。 Note that, in the second embodiment, a case has been described in which the article device 30' includes the light emitting section 34, but the present invention is not limited to this, and the article device 30' may not include the light emitting section 34. In this case, the control unit 17 may identify the article viewed by the user by analyzing the image captured by the imaging unit 11. For example, the control unit 17 may identify the article viewed by the user by recognizing characters included in the display (for example, characters on a product tag or POP advertisement).

なお、上記第1、第2の実施形態においては、制御部46は、情報を分析する際に、ユーザの種別を考慮することとしてもよい。ユーザの種別は店舗の会員であれば、登録されている情報(名前、生年月日、住所、買物履歴)から把握できる。この場合、ユーザの性別や年代ごとに、ユーザの購買行動を分析することとしてもよい。 Note that in the first and second embodiments described above, the control unit 46 may consider the type of user when analyzing the information. If the user is a member of the store, the type of user can be determined from registered information (name, date of birth, address, shopping history). In this case, the user's purchasing behavior may be analyzed by user's gender or age.

上述した各実施形態は本発明の好適な実施の例であり、適宜組み合わせることができる。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。 The embodiments described above are preferred embodiments of the present invention, and can be combined as appropriate. However, the present invention is not limited to this, and various modifications can be made without departing from the gist of the present invention.

10 装着装置
11 撮像部
12 表示部
16 通信部
17 制御部
18 スピーカ
20 カゴ装置
42 通信部
46 制御部
110 フレーム
120 カゴ
10 Mounting device 11 Imaging section 12 Display section 16 Communication section 17 Control section 18 Speaker 20 Cart device 42 Communication section 46 Control section 110 Frame 120 Cart

Claims (1)

ユーザが所持する所持装置からの情報に基づいて、店舗内への前記ユーザの入店を検出する検出部と、
前記店舗内で撮像された情報が入力され、前記店舗内にある物品を認識する画像認識部と、
前記画像認識部により認識された前記物品に関する情報を取得する取得部と、
前記取得部が取得した前記物品に関する情報を、前記ユーザの前記所持装置に表示させるための情報を送信する送信部と、を備えた電子機器システム。
a detection unit that detects the user's entry into the store based on information from a device owned by the user;
an image recognition unit into which information captured in the store is input and which recognizes articles in the store;
an acquisition unit that acquires information regarding the article recognized by the image recognition unit;
An electronic equipment system comprising: a transmitting unit that transmits information for displaying information regarding the article acquired by the acquiring unit on the device owned by the user.
JP2023188606A 2020-09-11 2023-11-02 Electronic device system Pending JP2024009011A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023188606A JP2024009011A (en) 2020-09-11 2023-11-02 Electronic device system

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020152613A JP7063360B2 (en) 2020-09-11 2020-09-11 Electronic device system and transmission method
JP2022068596A JP2022097524A (en) 2020-09-11 2022-04-19 Electronic apparatus system and transmission method
JP2023188606A JP2024009011A (en) 2020-09-11 2023-11-02 Electronic device system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022068596A Division JP2022097524A (en) 2020-09-11 2022-04-19 Electronic apparatus system and transmission method

Publications (1)

Publication Number Publication Date
JP2024009011A true JP2024009011A (en) 2024-01-19

Family

ID=73837481

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020152613A Active JP7063360B2 (en) 2020-09-11 2020-09-11 Electronic device system and transmission method
JP2022068596A Pending JP2022097524A (en) 2020-09-11 2022-04-19 Electronic apparatus system and transmission method
JP2023188606A Pending JP2024009011A (en) 2020-09-11 2023-11-02 Electronic device system

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2020152613A Active JP7063360B2 (en) 2020-09-11 2020-09-11 Electronic device system and transmission method
JP2022068596A Pending JP2022097524A (en) 2020-09-11 2022-04-19 Electronic apparatus system and transmission method

Country Status (1)

Country Link
JP (3) JP7063360B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023112519A1 (en) * 2021-12-17 2023-06-22 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Wearable device, information processing method, information processing program, and information providing system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001344661A (en) 2000-05-30 2001-12-14 Sharp Corp Information providing device
US20040001616A1 (en) 2002-06-27 2004-01-01 Srinivas Gutta Measurement of content ratings through vision and speech recognition
JP2004258928A (en) 2003-02-25 2004-09-16 Toppan Printing Co Ltd Article information providing device, shopping cart, server, and article information providing system, method and program
US7830259B2 (en) 2005-10-11 2010-11-09 Nanonation Incorporated Method and apparatus for RFID initiated interactive retail merchandising
AU2007233199B2 (en) 2006-03-31 2011-06-09 Checkpoint Systems, Inc. System and method for securing and displaying items for merchandising
JP4972491B2 (en) * 2007-08-20 2012-07-11 株式会社構造計画研究所 Customer movement judgment system
JP5548042B2 (en) * 2010-06-23 2014-07-16 ソフトバンクモバイル株式会社 User terminal device and shopping system

Also Published As

Publication number Publication date
JP2022097524A (en) 2022-06-30
JP7063360B2 (en) 2022-05-09
JP2020205098A (en) 2020-12-24

Similar Documents

Publication Publication Date Title
US20220005095A1 (en) Augmented reality devices, systems and methods for purchasing
JP4824793B2 (en) Wearable terminal device and program
US10467672B2 (en) Displaying an electronic product page responsive to scanning a retail item
US20190005536A1 (en) Sales promotion system, sales promotion method, non-transitory computer readable medium, and shelf system
US20210233103A1 (en) Sales promotion system and sales promotion method
US20160203499A1 (en) Customer behavior analysis system, customer behavior analysis method, non-transitory computer readable medium, and shelf system
US20110161136A1 (en) Customer mapping using mobile device with an accelerometer
JP2012088878A (en) Customer special treatment management system
KR20060053214A (en) Shopping pattern analysis system and method based on rfid
JP2024009011A (en) Electronic device system
JP6412577B2 (en) Presentation device (ICS connection)
JP2011048462A (en) Sales support device and program
JP2018005691A (en) Information processing system, information processing device and information processing method
CN104254861A (en) Method for assisting in locating an item in a storage location
JP2015111358A (en) Electronic apparatus
JP5166365B2 (en) Wearable terminal device and program
WO2015083495A1 (en) Electronic device
JP6504279B2 (en) Electronic equipment system
JP6508367B2 (en) Electronic device system and notification method
WO2018230356A1 (en) Information presentation system
JP2015111357A (en) Electronic apparatus
WO2021240904A1 (en) Information processing device, information processing method, and program
JP2019114293A (en) Electronic apparatus
JP5919114B2 (en) Product purchase support device, virtual try-on device, and product purchase support program
WO2023112519A1 (en) Wearable device, information processing method, information processing program, and information providing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231102