JP2015111357A - Electronic apparatus - Google Patents

Electronic apparatus Download PDF

Info

Publication number
JP2015111357A
JP2015111357A JP2013253402A JP2013253402A JP2015111357A JP 2015111357 A JP2015111357 A JP 2015111357A JP 2013253402 A JP2013253402 A JP 2013253402A JP 2013253402 A JP2013253402 A JP 2013253402A JP 2015111357 A JP2015111357 A JP 2015111357A
Authority
JP
Japan
Prior art keywords
user
unit
information
article
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013253402A
Other languages
Japanese (ja)
Other versions
JP2015111357A5 (en
Inventor
啓 志賀
Hiromu Shiga
啓 志賀
洋治 内山
Yoji Uchiyama
洋治 内山
一皇 伊三木
Kazukimi Imiki
一皇 伊三木
由桂 有馬
Yuka Arima
由桂 有馬
雄飛 降矢
Taketo Furuya
雄飛 降矢
政一 関口
Masaichi Sekiguchi
政一 関口
直樹 關口
Naoki Sekiguchi
直樹 關口
雄 村越
Yu MURAKOSHI
雄 村越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013253402A priority Critical patent/JP2015111357A/en
Priority to PCT/JP2014/079678 priority patent/WO2015083495A1/en
Publication of JP2015111357A publication Critical patent/JP2015111357A/en
Publication of JP2015111357A5 publication Critical patent/JP2015111357A5/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a convenient electronic apparatus.SOLUTION: An electronic apparatus includes first input units (42, 46) that receive the input of operation information on the purchase by a user, and second input units (42, 46) that receive the input of emotion information on the purchase by the user.

Description

本発明は、電子機器に関する。   The present invention relates to an electronic device.

従来より、来店者の商品の購買に関する行動情報を取得し、その情報を販売促進に結びつける販売促進システムが提案されている(例えば、特許文献1参照)。   2. Description of the Related Art Conventionally, a sales promotion system that acquires behavior information related to purchase of merchandise by a store visitor and links the information to sales promotion has been proposed (for example, see Patent Document 1).

特開2010−277256号公報JP 2010-277256 A

しかしながら、従来の販売促進システムでは、必要な情報が十分に取得できているとはいえず、使い勝手がよいとはいえなかった。   However, in the conventional sales promotion system, it cannot be said that necessary information is sufficiently acquired, and it is not easy to use.

本発明は上記の課題に鑑みてなされたものであり、使い勝手のよい電子機器を提供することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to provide an electronic device that is easy to use.

本発明の電子機器は、ユーザの購買に関する動作情報を入力する第1入力部(42、46)と、前記ユーザの購買に関する感情情報を入力する第2入力部(42,46)と、を備えている。   The electronic device of the present invention includes a first input unit (42, 46) for inputting operation information related to user purchase, and a second input unit (42, 46) for inputting emotion information related to the user purchase. ing.

この場合において、前記第1入力部と前記第2入力部とが入力した情報に基づいて、前記ユーザの満足度または不満足度を検出する検出部(46)を備えていてもよい。また、前記第1入力部と前記第2入力部とが入力した情報に基づいて、前記ユーザへの対応を指示する指示部(46)を備えていてもよい。また、前記第1入力部は、前記ユーザの手の動きに関する情報を入力することとしてもよい。また、前記第2入力部は、前記ユーザの生体に関する情報を入力することとしてもよい。   In this case, a detection unit (46) may be provided that detects satisfaction or dissatisfaction of the user based on information input by the first input unit and the second input unit. Moreover, you may provide the instruction | indication part (46) which instruct | indicates the response | compatibility to the said user based on the information which the said 1st input part and the said 2nd input part input. In addition, the first input unit may input information regarding the movement of the user's hand. The second input unit may input information related to the user's living body.

また、本発明の電子機器においては、前記第1入力部及び前記第2入力部の少なくとも一方は、前記ユーザ側からの目に関する情報を入力することとしてもよい。この場合、前記ユーザ側からの目に関する情報を取得する取得装置と通信可能な通信部(42)を備えていてもよい。この場合、前記通信部は、前記取得装置に設けられた通信部(25)と通信することとしてもよい。また、前記通信部は、前記取得装置とは異なる通信中継装置(20)を介して前記取得装置と通信することとしてもよい。この場合、前記通信部は、前記通信中継装置との近接通信または人体通信を介して前記取得装置と通信することとしてもよい。また、前記取得装置は、撮像を行う撮像部(11)を有し、前記撮像部が撮像した撮像データを分析する分析部(46)を備えていてもよい。   In the electronic device of the present invention, at least one of the first input unit and the second input unit may input information about the eyes from the user side. In this case, you may provide the communication part (42) which can communicate with the acquisition apparatus which acquires the information regarding the eye from the said user side. In this case, the communication unit may communicate with a communication unit (25) provided in the acquisition device. Moreover, the said communication part is good also as communicating with the said acquisition apparatus via the communication relay apparatus (20) different from the said acquisition apparatus. In this case, the communication unit may communicate with the acquisition device via proximity communication or human body communication with the communication relay device. The acquisition apparatus may include an imaging unit (11) that performs imaging, and an analysis unit (46) that analyzes imaging data captured by the imaging unit.

また、本発明の電子機器においては、前記第2入力部が入力する前記感情情報の変化に応じて、前記第1入力部が前記動作情報を入力することとしてもよい。   In the electronic device of the present invention, the first input unit may input the operation information in accordance with a change in the emotion information input by the second input unit.

本発明の電子機器は、ユーザ側からの目に関する情報を入力する入力部(42,46)と、前記ユーザ側からの目に関する情報に基づいて前記ユーザの購買に関する感情情報を推定する推定部(46)と、を備えている。   An electronic device according to the present invention includes an input unit (42, 46) for inputting information related to eyes from the user side, and an estimation unit for estimating emotion information related to purchase of the user based on information related to eyes from the user side. 46).

この場合において、前記推定部は、前記ユーザ側からの目に関する情報が予め定められたパターンと一致又は類似するか否かに基づいて、前記ユーザの購買に関する感情情報を推定することとしてもよい。   In this case, the estimation unit may estimate the emotion information related to the user's purchase based on whether or not the information related to the eyes from the user side matches or is similar to a predetermined pattern.

本発明の電子機器は、ユーザの顔付近に装着可能な電子機器(10)であって、前記ユーザ側からの目に関する情報を取得する取得部(17)と、前記取得部が取得した情報を、人体通信を介して前記ユーザに接触している外部機器(20)との間で通信する通信部(16)と、備えている。   The electronic device according to the present invention is an electronic device (10) that can be worn near a user's face, and includes an acquisition unit (17) that acquires information about the eyes from the user side, and information acquired by the acquisition unit. A communication unit (16) that communicates with an external device (20) in contact with the user via human body communication.

なお、本発明をわかりやすく説明するために、上記においては一実施形態を表す図面の符号に対応つけて説明したが、本発明は、これに限定されるものではなく、後述の実施形態の構成を適宜改良しても良く、また、少なくとも一部を他の構成物に代替させても良い。更に、その配置について特に限定のない構成要件は、実施形態で開示した配置に限らず、その機能を達成できる位置に配置することができる。   In addition, in order to explain the present invention in an easy-to-understand manner, the above description has been made in association with the reference numerals of the drawings representing one embodiment. However, the present invention is not limited to this, and the configuration of an embodiment described later May be modified as appropriate, or at least a part thereof may be replaced with another component. Further, the configuration requirements that are not particularly limited with respect to the arrangement are not limited to the arrangement disclosed in the embodiment, and can be arranged at a position where the function can be achieved.

本発明は、使い勝手のよい電子機器を提供することができるという効果を奏する。   The present invention has an effect of providing an electronic device that is easy to use.

第1の実施形態に係る電子機器システムの構成を示すブロック図である。It is a block diagram which shows the structure of the electronic device system which concerns on 1st Embodiment. 装着装置、カゴ装置、物品装置の利用状況を示す図である。It is a figure which shows the utilization condition of a mounting apparatus, a basket apparatus, and an article | item apparatus. 装着装置の斜視図である。It is a perspective view of a mounting apparatus. 図4(a)は、第1の実施形態にかかる装着装置の処理を示すフローチャートであり、図4(b)は、第1の実施形態にかかる物品装置の処理を示すフローチャートである。FIG. 4A is a flowchart showing processing of the mounting device according to the first embodiment, and FIG. 4B is a flowchart showing processing of the article device according to the first embodiment. 第1の実施形態にかかるカゴ装置の処理を示すフローチャートである。It is a flowchart which shows the process of the basket apparatus concerning 1st Embodiment. 第1の実施形態にかかるサーバの処理を示すフローチャートである。It is a flowchart which shows the process of the server concerning 1st Embodiment. 図7(a)、図7(b)は、視線画像の例を示す図(その1)である。FIG. 7A and FIG. 7B are diagrams (part 1) illustrating an example of a line-of-sight image. 視線画像の例を示す図(その2)である。It is a figure (the 2) which shows the example of a look image. あるユーザが入店してからレジを通るまでの間に、手に取った物品の順を示す図である。It is a figure which shows the order of the articles | goods picked up in a hand after a certain user enters a shop until passing a cash register. 第2の実施形態に係る電子機器システムの構成を示すブロック図である。It is a block diagram which shows the structure of the electronic device system which concerns on 2nd Embodiment. 図11(a)は、第2の実施形態にかかる装着装置の処理を示すフローチャートであり、図11(b)は、第2の実施形態にかかる物品装置の処理を示すフローチャートである。FIG. 11A is a flowchart showing processing of the mounting device according to the second embodiment, and FIG. 11B is a flowchart showing processing of the article device according to the second embodiment. 第2の実施形態にかかるカゴ装置の処理を示すフローチャートである。It is a flowchart which shows the process of the basket apparatus concerning 2nd Embodiment. 第2の実施形態にかかるサーバの処理を示すフローチャートである。It is a flowchart which shows the process of the server concerning 2nd Embodiment. 図14(a)、図14(b)は、買い物DBの一例を示す図である。FIG. 14A and FIG. 14B are diagrams illustrating an example of the shopping DB.

《第1の実施形態》
以下、第1の実施形態に係る電子機器システムについて、図1〜図9に基づいて、詳細に説明する。図1には、第1の実施形態に係る電子機器システム100の構成がブロック図にて示されている。
<< First Embodiment >>
Hereinafter, the electronic device system according to the first embodiment will be described in detail with reference to FIGS. FIG. 1 is a block diagram showing the configuration of an electronic device system 100 according to the first embodiment.

電子機器システム100は、図1に示すように、装着装置10と、カゴ装置20と、物品装置30と、サーバ40と、を備える。図2に示すように、装着装置10は、店舗に来店したユーザ(買い物客)が顔に装着する眼鏡型の端末である。カゴ装置20は、店舗に設置されたカゴ120に設けられる装置である。物品装置30は、店舗内に陳列された物品(商品)130に設けられる装置である。サーバ40は、店舗内やデータセンタなどに設けられる情報処理装置である。なお、装着装置10とカゴ装置20との間、及び物品装置30とカゴ装置20との間は、人体を介した通信(人体通信)が可能とされ、カゴ装置20とサーバ40との間は、無線通信が可能とされている。   As shown in FIG. 1, the electronic device system 100 includes a mounting device 10, a basket device 20, an article device 30, and a server 40. As shown in FIG. 2, the wearing device 10 is a glasses-type terminal that is worn on the face by a user (shopper) visiting the store. The basket device 20 is a device provided in the basket 120 installed in the store. The article device 30 is an apparatus provided in an article (product) 130 displayed in the store. The server 40 is an information processing apparatus provided in a store or a data center. Communication between the mounting device 10 and the basket device 20 and between the article device 30 and the basket device 20 is possible via a human body (human body communication), and between the basket device 20 and the server 40. Wireless communication is possible.

(装着装置10)
装着装置10は、図1に示すように、撮像部11、表示部12、操作部13、マイク14、記憶部15、通信部16および制御部17を備える。なお、図3には、装着装置10が斜視図にて示されている。図3に示すように、装着装置10は、眼鏡型のフレーム110を備えている。なお、図1において図示され、図3において図示されていない装着装置10の構成は、フレーム110の内部や、フレーム110の一部に設けられているものとする。
(Mounting device 10)
As shown in FIG. 1, the mounting device 10 includes an imaging unit 11, a display unit 12, an operation unit 13, a microphone 14, a storage unit 15, a communication unit 16, and a control unit 17. In FIG. 3, the mounting device 10 is shown in a perspective view. As shown in FIG. 3, the mounting apparatus 10 includes a glasses-type frame 110. The configuration of the mounting device 10 illustrated in FIG. 1 and not illustrated in FIG. 3 is provided inside the frame 110 or a part of the frame 110.

撮像部11は、レンズ、撮像素子、画像処理部などを備え、静止画や動画を撮像するものである。撮像部11は、図3に示すようにフレーム110の端部近傍(ユーザの右目近傍)に設けられている。このため、ユーザが装着装置10を装着した状態(図2の状態)では、ユーザが向いている(見ている)方向の画像を撮像することができる。また、撮像された画像の所定部分(例えば、中心からやや左側にずれた部分)は、ユーザが視線を向けている部分(注視している部分)とみなすことができる。   The imaging unit 11 includes a lens, an imaging device, an image processing unit, and the like, and captures still images and moving images. As shown in FIG. 3, the imaging unit 11 is provided near the end of the frame 110 (near the user's right eye). For this reason, in a state where the user wears the mounting apparatus 10 (the state shown in FIG. 2), an image in a direction in which the user is facing (viewing) can be taken. In addition, a predetermined portion (for example, a portion slightly deviated to the left from the center) of the captured image can be regarded as a portion where the user is turning his / her line of sight (a portion being watched).

表示部12は、フレーム110内部又はフレーム110近傍に設けられたプロジェクタと、プロジェクタからの投影像をユーザの目に導くためのプリズムとを有している。表示部12は、制御部17の指示の下、各種情報を表示する。   The display unit 12 includes a projector provided in or near the frame 110 and a prism for guiding a projection image from the projector to the eyes of the user. The display unit 12 displays various information under the instruction of the control unit 17.

操作部13は、フレーム110に設けられたタッチパッドであり、ユーザの指の動きを検知して、ユーザからの操作を受け付け、受け付けた操作情報を制御部17に送信する。   The operation unit 13 is a touch pad provided on the frame 110, detects the movement of the user's finger, receives an operation from the user, and transmits the received operation information to the control unit 17.

なお、撮像部11、表示部12、操作部13については、例えば、米国公開特許2013/0044042号にもその詳細が開示されている。   Details of the imaging unit 11, the display unit 12, and the operation unit 13 are also disclosed in, for example, US Published Patent No. 2013/0044042.

マイク14は、フレーム110に設けられ、ユーザが発した音声やユーザの周辺の音声を収集する。マイク14が収集した音声は、不図示の音声認識部により音声認識され、音声認識結果は、制御部17に送信される。制御部17は、音声認識結果に基づく処理(例えば、コマンドの実行処理など)を実行する。なお、制御部17が音声認識を実行してもよい。また、制御部17は、収集した音声データを記憶部15に格納する。   The microphone 14 is provided in the frame 110 and collects voices uttered by the user and voices around the user. The voice collected by the microphone 14 is voice-recognized by a voice recognition unit (not shown), and the voice recognition result is transmitted to the control unit 17. The control unit 17 executes processing based on the voice recognition result (for example, command execution processing). The control unit 17 may perform voice recognition. Further, the control unit 17 stores the collected audio data in the storage unit 15.

記憶部15は、例えば、フラッシュメモリ等の不揮発性の半導体メモリであり、撮像部11が撮像した画像データや、マイク14が集音した音声データ、表示部12に表示する表示データなどを記憶する。   The storage unit 15 is, for example, a non-volatile semiconductor memory such as a flash memory, and stores image data captured by the imaging unit 11, audio data collected by the microphone 14, display data displayed on the display unit 12, and the like. .

通信部16は、他の機器と人体通信を行うものである。通信部16は、フレーム110に設けられユーザと接触可能な電極部16aと、電極部16aを用いて人体通信を行う人体通信部16bと、を有する。なお、人体通信には、人体に微弱な電流を流して、その電流を変調して情報を伝達する電流方式や、人体の表面に誘起する電界を変調して情報を伝達する電界方式などがある。本実施形態では、電流方式及び電界方式のいずれのタイプを用いることも可能である。なお、ユーザが装着装置10の電極部16aに直接接触する場合はもちろん、電極部16aとユーザとが直接接触していない場合でも、人体通信は可能である。本実施形態において、通信部16は、撮像部11が撮像した画像データやマイク14が収集した音声データをカゴ装置20に送信するものである。なお、通信部16は、他の機器と例えばBluetooth(登録商標)、RFID(Radio Frequency Identification)、TransferJet(登録商標)などの近接通信を行ってもよい。   The communication unit 16 performs human body communication with other devices. The communication unit 16 includes an electrode unit 16a that is provided on the frame 110 and can contact a user, and a human body communication unit 16b that performs human body communication using the electrode unit 16a. Human body communication includes a current system in which a weak current is passed through the human body and the current is modulated to transmit information, and an electric field system in which information is transmitted by modulating an electric field induced on the surface of the human body. . In this embodiment, it is possible to use either the current method or the electric field method. Note that human body communication is possible not only when the user directly contacts the electrode portion 16a of the mounting apparatus 10, but also when the user does not directly contact the electrode portion 16a and the user. In the present embodiment, the communication unit 16 transmits image data captured by the imaging unit 11 and audio data collected by the microphone 14 to the basket device 20. Note that the communication unit 16 may perform near field communication with other devices such as Bluetooth (registered trademark), RFID (Radio Frequency Identification), TransferJet (registered trademark), or the like.

なお、通信部16に代えて、もしくは通信部16と併用して無線通信部を装着装置10に持たせてもよい。この場合、画像データや音声データを無線通信によりサーバ40に直接送信するようにしてもよいし、画像データや音声データを無線通信によりカゴ装置20に送信してもよい。   Note that the mounting device 10 may have a wireless communication unit instead of the communication unit 16 or in combination with the communication unit 16. In this case, image data and sound data may be directly transmitted to the server 40 by wireless communication, or image data and sound data may be transmitted to the basket device 20 by wireless communication.

制御部17は、装着装置10全体を統括的に制御する。制御部17は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備える。本実施形態では、制御部17は、撮像部11の撮像に関する制御や、表示部12の表示に関する制御などを行う。   The control unit 17 comprehensively controls the entire mounting apparatus 10. The control unit 17 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like. In the present embodiment, the control unit 17 performs control related to imaging of the imaging unit 11, control related to display of the display unit 12, and the like.

なお、装着装置10は、眼鏡型の端末ではなくてもよい。例えば、体の任意の位置に装着可能な装着型端末であってもよく、その機能の一部が分離していてもよい。一例を挙げると、表示部を備えたコンタクトレンズ型の端末として、他の機能を腕時計型の端末に持たせるようにしてもよい。   Note that the wearing device 10 may not be a glasses-type terminal. For example, it may be a wearable terminal that can be worn at any position on the body, and some of its functions may be separated. As an example, a wristwatch type terminal may have other functions as a contact lens type terminal provided with a display unit.

(カゴ装置20)
カゴ装置20は、図1に示すように、生体センサ21、カレンダ部22、記憶部23、第1通信部24、第2通信部25、及び制御部26等を備える。
(Cage device 20)
As shown in FIG. 1, the basket device 20 includes a biological sensor 21, a calendar unit 22, a storage unit 23, a first communication unit 24, a second communication unit 25, a control unit 26, and the like.

生体センサ21は、カゴ120のうち、ユーザがカゴ120を持つ際に手が触れる部分(持ち手部分)に設けられる。生体センサ21は、心拍数、血圧、発汗量などの体の生体情報の変化を検出するものであって、例えば、LED(light emitting diode)及びフォトセンサ、並びに、発汗センサを含む。例えば、LED及びフォトセンサを用いることで、LEDの照射する光を指に当てたときに反射する光をフォトセンサで受光することにより心拍数を検出することができる。また、発汗センサは、複数の電極により手のインピーダンスを測定することにより、発汗量を検出することができる。本実施形態においては、生体センサ21からの出力は、制御部26に送られる。そして、制御部26では、生体センサ21の出力に基づいてユーザの感情(喜怒哀楽)の変化を推定する。   The biosensor 21 is provided in a portion (a handle portion) that the hand touches when the user holds the cage 120 in the cage 120. The biological sensor 21 detects changes in biological information of the body such as heart rate, blood pressure, and amount of sweat, and includes, for example, an LED (light emitting diode), a photo sensor, and a sweat sensor. For example, by using an LED and a photosensor, a heart rate can be detected by receiving light reflected by the photosensor when light emitted from the LED is applied to a finger. In addition, the sweat sensor can detect the amount of sweat by measuring the impedance of the hand with a plurality of electrodes. In the present embodiment, the output from the biosensor 21 is sent to the control unit 26. Then, the control unit 26 estimates a change in the user's emotion (feeling emotional) based on the output of the biological sensor 21.

カレンダ部22は、年、月、日、時刻といった時間情報を取得して、制御部26に対して出力する。また、カレンダ部22は計時を行う。   The calendar unit 22 acquires time information such as year, month, date, and time and outputs the time information to the control unit 26. The calendar unit 22 measures time.

記憶部23は、例えば、フラッシュメモリ等の不揮発性の半導体メモリであり、後述するようにユーザが手にした物品に関する情報を記憶するものである。また、記憶部23は、カゴ装置20を一意に識別するためのID番号(カゴID)を記憶する。   The storage unit 23 is, for example, a non-volatile semiconductor memory such as a flash memory, and stores information related to an article obtained by the user as will be described later. Further, the storage unit 23 stores an ID number (cage ID) for uniquely identifying the basket device 20.

第1通信部24は、他の機器と人体通信を行うものである。なお、第1通信部24は、他の機器と近接通信を行うこととしてもよい。本実施形態においては、第1通信部24は、人体通信を用いて装着装置10の通信部16及び物体装置30の通信部32と通信を行う。   The first communication unit 24 performs human body communication with other devices. Note that the first communication unit 24 may perform near field communication with other devices. In the present embodiment, the first communication unit 24 communicates with the communication unit 16 of the mounting device 10 and the communication unit 32 of the object device 30 using human body communication.

第1通信部24は、カゴ120の持ち手部分に設けられた、ユーザの手や腕と接触可能な電極部24aと、電極部24aを介して人体通信を行う人体通信部24bと、を有する。   The first communication unit 24 includes an electrode unit 24a that is provided on the handle portion of the cage 120 and that can contact the user's hand or arm, and a human body communication unit 24b that performs human body communication via the electrode unit 24a. .

第2通信部25は、他の装置との間で無線通信を行うものである。本実施形態においてはサーバ40との間で無線通信を行い、ユーザが手に触れた物品の物品情報や、撮像部11が撮像した画像データ、マイク14が収集した音声データ、生体センサ21の検出結果をサーバ40に送信するものである。なお、本実施形態のカゴ装置20は、物品装置30とサーバ40との間における物品情報の通信、及び装着装置10とサーバ40との間における画像データや音声データの通信を中継する通信中継装置としての機能を有している。   The second communication unit 25 performs wireless communication with other devices. In the present embodiment, wireless communication with the server 40 is performed, and article information of an article touched by the user, image data captured by the imaging unit 11, audio data collected by the microphone 14, and detection of the biosensor 21 The result is transmitted to the server 40. Note that the basket device 20 of the present embodiment is a communication relay device that relays communication of article information between the article device 30 and the server 40 and communication of image data and audio data between the mounting device 10 and the server 40. As a function.

制御部26は、カゴ装置20全体を制御するものであり、CPU、RAM、ROM等を備える。本実施形態では、制御部26は、物品装置30、装着装置10及びサーバ40との間における情報通信の制御を行う。   The control unit 26 controls the entire basket device 20 and includes a CPU, a RAM, a ROM, and the like. In the present embodiment, the control unit 26 controls information communication with the article device 30, the mounting device 10, and the server 40.

なお、カゴ装置20は、店舗で利用されるカートに設けることとしてもよい。この場合、生体センサ21や第1通信部24の電極部24aは、カートのグリップ部分に設けることが好ましい。   The basket device 20 may be provided in a cart used in a store. In this case, it is preferable that the biosensor 21 and the electrode portion 24a of the first communication unit 24 are provided in the grip portion of the cart.

(物品装置30)
物品装置30は、店舗等で販売される物品(商品)であって、食料品、衣服、靴、時計、アクセサリー、ゴルフクラブ、バッグ等、来店者(ユーザ)の身体に接触する物品に設けられる。本実施形態では、説明の便宜上、物品装置30は、スーパーマーケットに陳列された商品(食料品等)に設けられているものとして説明する。
(Article device 30)
The article device 30 is an article (product) sold in a store or the like, and is provided on an article that comes into contact with the body of a visitor (user), such as food, clothes, shoes, watches, accessories, golf clubs, and bags. . In the present embodiment, for the sake of convenience of explanation, the article device 30 will be described as being provided on a product (foodstuff or the like) displayed in a supermarket.

物品装置30は、図1に示すように、記憶部31と、通信部32と、制御部33と、を備える。   As illustrated in FIG. 1, the article device 30 includes a storage unit 31, a communication unit 32, and a control unit 33.

記憶部31は、例えば、フラッシュメモリ等の不揮発性の半導体メモリであり、物品装置30が取り付けられた物品(商品)に関する情報を記憶する。具体的には、記憶部31は、物品装置30が取り付けられた物品の物品情報(商品情報)を記憶する。例えば、物品装置30が加工食品(例えば缶詰)に取り付けられている場合には、記憶部31は、物品情報として、製造者(販売者)、商品名、原材料名、賞味期限、内容量、原産国等を記憶する。   The storage unit 31 is, for example, a non-volatile semiconductor memory such as a flash memory, and stores information related to an article (product) to which the article device 30 is attached. Specifically, the storage unit 31 stores article information (product information) of an article to which the article device 30 is attached. For example, when the article device 30 is attached to a processed food (for example, canned food), the storage unit 31 includes, as article information, a manufacturer (seller), a product name, a raw material name, an expiration date, an internal capacity, Remember the country.

制御部33は、物品装置30全体を制御するものであり、CPU、RAM、ROM等を備える。本実施形態では、制御部33は、記憶部31に記憶されている物品情報のカゴ装置20への送信を制御している。なお、制御部33及び記憶部31は物品のいずれの位置に設けられても構わない。   The control unit 33 controls the entire article device 30 and includes a CPU, a RAM, a ROM, and the like. In the present embodiment, the control unit 33 controls transmission of the article information stored in the storage unit 31 to the basket device 20. The control unit 33 and the storage unit 31 may be provided at any position of the article.

通信部32は、他の機器と人体通信を行うものである。なお、通信部32は、他の機器と近接通信を行うこととしてもよい。本実施形態において、通信部32は、ユーザ(例えば手)と接触する位置に設けられる電極部32aと、電極部32aを用いて人体通信を行う人体通信部32bと、を備える。本実施形態では、図2に示すように、カゴ120を持ったユーザが物品130を手にした状態で、カゴ装置20の第1通信部24と物品装置30の通信部32との間の人体通信が成立する。これにより、記憶部31に記憶された物品情報がカゴ装置20に送信される。なお、ユーザが物品装置30の電極部32aに直接接触する場合はもちろん、電極部32aとユーザとが直接接触していない場合(手袋をしている場合など)でも、人体通信は可能である。   The communication unit 32 performs human body communication with other devices. Note that the communication unit 32 may perform near field communication with other devices. In this embodiment, the communication part 32 is provided with the electrode part 32a provided in the position which contacts a user (for example, hand), and the human body communication part 32b which performs human body communication using the electrode part 32a. In the present embodiment, as shown in FIG. 2, the human body between the first communication unit 24 of the basket device 20 and the communication unit 32 of the product device 30 with the user holding the basket 120 in the hand. Communication is established. Thereby, the article information stored in the storage unit 31 is transmitted to the basket device 20. Note that human body communication is possible not only when the user directly contacts the electrode part 32a of the article device 30, but also when the electrode part 32a and the user are not in direct contact (such as when wearing gloves).

(サーバ40)
サーバ40は、図1に示すように、記憶部41と、通信部42と、OCR(Optical Character Reader)部43と、画像認識部44と、制御部46と、を備える。
(Server 40)
As shown in FIG. 1, the server 40 includes a storage unit 41, a communication unit 42, an OCR (Optical Character Reader) unit 43, an image recognition unit 44, and a control unit 46.

記憶部41は、例えば、フラッシュメモリ等の不揮発性の半導体メモリや、ハードディスクドライブ等であり、カゴ装置20から取得した情報、すなわち、装着装置10の撮像部11が撮像した画像データやマイク14を用いて収集した音声データ、物品装置30から送信されてきた物品情報を記憶する。また、記憶部41は、店舗の従業員(店員)の顔画像データや商品画像データ、及びユーザの購入行動を分析する際に用いる各種データを記憶している。本実施形態においては、制御部46は、後述するように、画像認識部44と協働して装着装置10の撮像部11が撮像した画像データに従業員の顔や商品が含まれているかどうかを検出する。   The storage unit 41 is, for example, a nonvolatile semiconductor memory such as a flash memory, a hard disk drive, or the like, and stores information acquired from the basket device 20, that is, image data captured by the imaging unit 11 of the mounting device 10 and the microphone 14. The voice data collected by use and the article information transmitted from the article device 30 are stored. In addition, the storage unit 41 stores face image data and product image data of store employees (store clerk) and various data used when analyzing user purchase behavior. In the present embodiment, as will be described later, the control unit 46 cooperates with the image recognition unit 44 to determine whether the image data captured by the imaging unit 11 of the mounting apparatus 10 includes the employee's face or product. Is detected.

通信部42は、他の機器と無線通信を行うものである。本実施形態では、通信部42は、無線通信によりカゴ装置20の第2通信部25と無線通信を行う。   The communication unit 42 performs wireless communication with other devices. In the present embodiment, the communication unit 42 performs wireless communication with the second communication unit 25 of the basket device 20 by wireless communication.

OCR部43は、装着装置10の撮像部11が撮像した画像データに含まれる文字を認識して、テキストデータに変換する。例えば、撮像部11が、図7(b)の画像データを撮像した場合、OCR部43は、文字認識をして、テキストデータ「申し訳ございません。現在入荷待ちです。次回入荷時期は未定です。」を取得する。   The OCR unit 43 recognizes characters included in the image data captured by the imaging unit 11 of the mounting apparatus 10 and converts them into text data. For example, when the imaging unit 11 captures the image data of FIG. 7B, the OCR unit 43 recognizes the character and the text data “Sorry. Currently waiting for arrival. The next arrival time is undecided. Is obtained.

画像認識部44は、装着装置10の撮像部11が撮像した画像データの特徴点を、例えばSURF(Speeded Up Robust Features)やSHIFT(Scale Invariant Feature Transform)といった特徴量検出アルゴリズムにより抽出し、記憶部41に記憶されている複数の認識対象の標準パターンと比較することにより画像認識を行う。本実施形態においては、画像認識部44は、記憶部41に記憶されている従業員の顔画像データや商品画像データとの比較を行って、撮像部11が撮像した画像に従業員や商品が含まれているかどうかを検出する。   The image recognition unit 44 extracts feature points of the image data captured by the imaging unit 11 of the mounting apparatus 10 by using a feature amount detection algorithm such as SURF (Speeded Up Robust Features) or SHIFT (Scale Invariant Feature Transform), for example. Image recognition is performed by comparing with a plurality of recognition target standard patterns stored in 41. In the present embodiment, the image recognition unit 44 compares the employee's face image data and product image data stored in the storage unit 41, and the employee and the product are included in the image captured by the imaging unit 11. Detect whether it is included.

制御部46は、サーバ40全体を制御するものであり、CPU、RAM、ROM等を備える。   The control unit 46 controls the entire server 40 and includes a CPU, a RAM, a ROM, and the like.

次に、図4〜図9を用いて、電子機器システム100の処理について、詳細に説明する。なお、本実施形態では、装着装置10を装着しているユーザ(買い物客)が店舗(例えば、スーパーマーケット)に来店した際に、カゴ120を保持して、買い物を行うものとする。また、ユーザは、店舗内で物品装置30が設けられた物品(商品)30を手に取ったり、カゴ120に入れたりすることで、購入する物品を決定し、レジで購入処理を行うものとする。   Next, processing of the electronic device system 100 will be described in detail with reference to FIGS. In the present embodiment, when a user (shopper) wearing the mounting apparatus 10 visits a store (for example, a supermarket), the basket 120 is held and shopping is performed. In addition, the user determines an article to be purchased by picking up an article (product) 30 provided with the article device 30 in the store or putting it in the basket 120, and performs purchase processing at a cash register. To do.

(装着装置10の処理)
図4(a)には、装着装置10の処理がフローチャートにて示されている。
(Processing of mounting device 10)
FIG. 4A shows the processing of the mounting apparatus 10 in a flowchart.

図4(a)の処理では、装着装置10の制御部17は、ステップS10において、カゴ装置20との人体通信が成立するまで待機する。この場合、装着装置10を装着したユーザが店舗に入り、カゴ120を保持することでカゴ装置20にユーザの手が触れた段階で、装着装置10の通信部16とカゴ装置20の第1通信部24との間の通信が成立する。カゴ装置20との人体通信が成立すると、制御部17は、ステップS12に移行する。なお、ステップS10に代えて、ユーザが店舗に入店した後に装着装置10の電源をオンした段階でステップS12以降の処理を実行するようにしてもよい。この場合、装着装置10に、GPS(Global Positioning System)モジュールや、店舗内に設置された無線LAN(Local Area Network)基地局との通信状況に応じた位置検出が可能な位置検出装置を設け、位置検出装置の検出結果に基づいて、ユーザが店舗に入店したか否かを制御部17が判断することとしてもよい。また、これとは逆に、装着装置10は通信部16に常に電源を供給しておき、カゴ装置20との人体通信の成立により装着装置10が起動するようにしてもよい。   In the process of FIG. 4A, the control unit 17 of the mounting device 10 stands by until human communication with the basket device 20 is established in step S10. In this case, when the user wearing the mounting device 10 enters the store and holds the basket 120 and the user's hand touches the basket device 20, the communication unit 16 of the mounting device 10 and the first communication of the basket device 20. Communication with the unit 24 is established. When human body communication with the basket device 20 is established, the control unit 17 proceeds to step S12. Instead of step S10, the process from step S12 may be executed when the user turns on the power of the mounting apparatus 10 after entering the store. In this case, the mounting device 10 includes a GPS (Global Positioning System) module or a position detection device capable of detecting a position according to a communication state with a wireless LAN (Local Area Network) base station installed in the store, The control unit 17 may determine whether the user has entered the store based on the detection result of the position detection device. On the contrary, the mounting apparatus 10 may always supply power to the communication unit 16 so that the mounting apparatus 10 is activated when human body communication with the basket apparatus 20 is established.

ステップS12に移行すると、制御部17は、撮像部11に指示を出し、ユーザ側からの撮像を実行する。この場合、撮像部11は、静止画及び動画のいずれを撮像してもよい。なお、本実施形態では、撮像部11は、静止画を撮像するものとして説明する。制御部17は、撮像部11によって撮像された画像(以下、視線画像と呼ぶ)を記憶部15に記憶する。なお、ステップS12では、撮像部11による視線画像の撮像に加えて、制御部17は、マイク14を用いて、ユーザの声や周辺の音を含む音声を収集し、音声データとして記憶部15に記憶してもよい。   If transfering it to step S12, the control part 17 will instruct | indicate the imaging part 11, and will perform the imaging from a user side. In this case, the imaging unit 11 may capture either a still image or a moving image. In the present embodiment, the image capturing unit 11 is described as capturing a still image. The control unit 17 stores an image captured by the imaging unit 11 (hereinafter referred to as a line-of-sight image) in the storage unit 15. In step S12, in addition to capturing the line-of-sight image by the imaging unit 11, the control unit 17 uses the microphone 14 to collect voice including the user's voice and surrounding sounds, and stores the voice data in the storage unit 15 as voice data. You may remember.

次いで、ステップS14では、制御部17は、通信部16を介して、視線画像をカゴ装置20へ送信する。なお、制御部17は、例えば装着装置10に加速度計や角速度計を設けてユーザの移動速度を計測し、ユーザの移動速度が所定の移動速度(例えば時速1Km以下)になったときに、カゴ装置20へ視線画像を送信するようにしてもよい。なお、ユーザは、買い物途中にカゴ装置20から手を離す場合もある。したがって、制御部17は、人体通信が可能である場合には、人体通信により視線画像をカゴ装置20へ送信し、人体通信が不可能な場合には、近接通信や無線通信などにより視線画像をカゴ装置20へ送信するようにしてもよい。なお、無線通信を行う場合には、装着装置10が無線通信部を備えておく必要がある。   Next, in step S <b> 14, the control unit 17 transmits a line-of-sight image to the basket device 20 via the communication unit 16. For example, the control unit 17 includes an accelerometer or an angular velocity meter in the mounting device 10 to measure the moving speed of the user. When the moving speed of the user reaches a predetermined moving speed (for example, 1 km / h or less), the controller 17 A line-of-sight image may be transmitted to the device 20. The user may release his / her hand from the basket device 20 during shopping. Therefore, when the human body communication is possible, the control unit 17 transmits the visual line image to the basket device 20 through the human body communication. When the human body communication is impossible, the control unit 17 transmits the visual line image through the proximity communication or the wireless communication. You may make it transmit to the basket apparatus 20. FIG. In addition, when performing wireless communication, it is necessary for the mounting apparatus 10 to include a wireless communication unit.

次いで、ステップS16では、制御部17は、レジ端末から入力のあったカゴ装置20との人体通信が成立したか否かを判断する。ここで、レジ端末からの入力とは、ユーザがレジにカゴ120を持っていった場合に、カゴ装置20とレジ端末との間の通信により、レジ端末からカゴ装置20に対して送信される、買い物終了情報の入力を意味する。すなわち、レジ端末からの入力があったカゴ装置20と装着装置10との人体通信が成立した場合、ユーザの買い物が終了したことを意味する。したがって、買い物が終了しておらず、ステップS16の判断が否定された場合には、ステップS12に戻り、ステップS12、S14、S16の処理・判断を繰り返す。すなわち、撮像部11による視線画像の撮像と、カゴ装置20への送信が繰り返される。一方、ユーザの買い物が終了し、ステップS16の判断が肯定された場合には、図4(a)の全処理が終了する。   Next, in step S <b> 16, the control unit 17 determines whether or not human body communication with the basket device 20 input from the cashier terminal is established. Here, the input from the cash register terminal is transmitted from the cash register terminal to the car device 20 by communication between the car device 20 and the cash register terminal when the user has the car 120 at the cash register. , Meaning the input of shopping end information. That is, when human body communication is established between the basket device 20 that has received an input from the cash register terminal and the mounting device 10, it means that the user's shopping has ended. Therefore, if the shopping has not ended and the determination in step S16 is negative, the process returns to step S12, and the processing and determination in steps S12, S14, and S16 are repeated. That is, the imaging of the line-of-sight image by the imaging unit 11 and the transmission to the basket device 20 are repeated. On the other hand, when the user's shopping is completed and the determination in step S16 is affirmed, all the processes in FIG.

なお、ステップS16に代えて、制御部17は、ユーザ(装着装置10)が店舗から出たか否かを判断してもよい。この場合、前述のように、装着装置10には、GPS等の位置検出装置を設けておく必要がある。   In addition, it replaces with step S16 and the control part 17 may judge whether the user (mounting apparatus 10) left the store. In this case, as described above, the mounting device 10 needs to be provided with a position detection device such as a GPS.

(物品装置30の処理)
図4(b)には、物品装置30の処理がフローチャートにて示されている。
(Processing of article device 30)
FIG. 4B shows a process of the article device 30 in a flowchart.

図4(b)の処理では、物品装置30の制御部33は、ステップS20において、カゴ装置20との人体通信が新たに成立するまで待機する。この場合、図2に示すように、カゴ120を保持するユーザが物品130を商品棚等から取り上げたタイミングで、カゴ装置20との人体通信が新たに成立し、ステップS22に移行する。   In the process of FIG. 4B, the control unit 33 of the article device 30 stands by until human body communication with the basket device 20 is newly established in step S20. In this case, as shown in FIG. 2, human body communication with the basket device 20 is newly established at the timing when the user holding the basket 120 picks up the article 130 from the commodity shelf or the like, and the process proceeds to step S22.

ステップS22に移行すると、制御部33は、通信部32に指示を出し、記憶部31に記憶されている物品情報をカゴ装置20へ送信する。   When the process proceeds to step S <b> 22, the control unit 33 issues an instruction to the communication unit 32 and transmits the article information stored in the storage unit 31 to the basket device 20.

その後は、ステップS20に戻り、制御部33は、ステップS20、S22の処理・判断を繰り返す。   Thereafter, the process returns to step S20, and the control unit 33 repeats the processes and determinations of steps S20 and S22.

図4(b)の処理が実行されることで、カゴ120を保持するユーザが、買い物途中に手にした物品130の情報をカゴ装置20に逐一送信することが可能となる。   By executing the process of FIG. 4B, the user holding the basket 120 can transmit the information of the article 130 obtained during the shopping to the basket device 20 one by one.

(カゴ装置20の処理)
図5には、カゴ装置20の処理がフロチャートにて示されている。
(Processing of the basket device 20)
FIG. 5 shows a process of the basket device 20 in a flowchart.

図5の処理では、ステップS30において、カゴ装置20の制御部26が、装着装置10との人体通信が成立するまで待機する。装着装置10との人体通信が成立すると、制御部26は、ステップS32に移行する。なお、ステップS32に移行するタイミングは、前述した図4(a)のステップS12に移行するタイミングと同一である。   In the process of FIG. 5, in step S <b> 30, the control unit 26 of the basket device 20 waits until human body communication with the mounting device 10 is established. When the human body communication with the mounting device 10 is established, the control unit 26 proceeds to step S32. In addition, the timing which transfers to step S32 is the same as the timing which transfers to step S12 of Fig.4 (a) mentioned above.

ステップS32に移行すると、制御部26は、装着装置10から送信されてくる視線画像を取得し、記憶部23に記憶する。なお、例えばカゴ装置20に加速度計や角速度計を設けてユーザの移動速度を計測し、ユーザの移動速度が所定の移動速度(例えば時速1Km以下)になったときに、装着装置10から視線画像が送信されてきた画像を取得し、記憶部23に記憶することとしてもよい。   When the process proceeds to step S <b> 32, the control unit 26 acquires the line-of-sight image transmitted from the mounting apparatus 10 and stores it in the storage unit 23. For example, an accelerometer or an angular velocity meter is provided in the basket device 20 to measure the moving speed of the user. When the moving speed of the user reaches a predetermined moving speed (for example, 1 km / h or less), the line-of-sight image is displayed from the mounting device 10. May be acquired and stored in the storage unit 23.

次いで、ステップS34では、制御部26が、新たな物品情報を受信したか否かを判断する。ステップS34の判断が否定された場合、すなわち、新たな物品情報を受信していない場合には、ステップS38に移行する。一方、ステップS34の判断が肯定された場合、すなわち、新たな物品情報を受信した場合には、ステップS36に移行する。   Next, in step S34, the control unit 26 determines whether new article information has been received. If the determination in step S34 is negative, that is, if new article information has not been received, the process proceeds to step S38. On the other hand, if the determination in step S34 is affirmative, that is, if new article information is received, the process proceeds to step S36.

ステップS36に移行すると、制御部26は、物品情報を取得し、記憶部23に記憶する。その後は、ステップS38に移行する。   When the process proceeds to step S <b> 36, the control unit 26 acquires article information and stores it in the storage unit 23. Thereafter, the process proceeds to step S38.

ステップS38に移行すると、制御部26は、生体センサ21を用いた検出を実行する。なお、ステップS32、S34及びS36、S38の処理の順番は適宜入れ替えてもよく、各ステップの処理を同時並行的に実行することとしてもよい。   If transfering it to step S38, the control part 26 will perform the detection using the biosensor 21. FIG. Note that the processing order of steps S32, S34, S36, and S38 may be changed as appropriate, and the processing of each step may be executed concurrently.

次いで、ステップS40では、制御部26が、生体センサ21の検出結果に基づいて、ユーザに感情の変化があったか否かを判断する。この場合、例えば、生体センサ21の検出結果から、心拍数が急激に上昇した場合や、血圧が急激に上昇した場合、発汗量が急激に増加した場合などにおいて、ユーザに感情の変化があったと判断する。なお、ユーザの感情が変化する例としては、タイムサービスが始まり商品を安く購入できるチャンスに遭遇したり、購入を予定していた商品が売り切れであったり、レジが混雑しているような場合である。ステップS40の判断が否定された場合には、ステップS44に移行するが、ステップS40の判断が肯定された場合には、ステップS42に移行する。   Next, in step S <b> 40, the control unit 26 determines whether or not the user has changed in emotion based on the detection result of the biometric sensor 21. In this case, for example, from the detection result of the biosensor 21, when the heart rate suddenly increases, when the blood pressure rapidly increases, or when the amount of sweating increases rapidly, the user has changed emotions. to decide. Examples of changes in the user's emotions are when the time service starts and you encounter a chance to purchase a product cheaply, the product you were planning to purchase is sold out, or the cash register is crowded. is there. If the determination in step S40 is negative, the process proceeds to step S44. If the determination in step S40 is positive, the process proceeds to step S42.

ステップS42に移行すると、制御部26は、第2通信部25に指示を出し、記憶部23に記憶されている、感情変化直前に取得された視線画像及び物品情報(以下、第1情報と呼ぶ)をサーバ40に送信する。なお、感情変化直前とは、例えば、感情変化が生じる数秒前を意味する。なお、感情変化直前に物品情報が取得されない場合もある。感情変化が物品130を保持したことに起因しない場合である。この場合には、制御部26は、視線画像を第1情報としてサーバ40に送信すればよい。   In step S42, the control unit 26 issues an instruction to the second communication unit 25, and the line-of-sight image and article information (hereinafter referred to as first information) acquired immediately before the emotion change stored in the storage unit 23. ) To the server 40. Note that “immediately before emotional change” means, for example, several seconds before the emotional change occurs. In some cases, the article information may not be acquired immediately before the emotion change. This is a case where the emotional change is not caused by holding the article 130. In this case, the control unit 26 may transmit the line-of-sight image to the server 40 as the first information.

ここで、感情変化直前に取得された視線画像としては、図7(a)、図7(b)、図8に示すような視線画像が想定される。図7(a)の視線画像は、ユーザがタイムサービスに遭遇したことを示す画像であり、具体的には、商品に貼付されたタイムサービスのシールをユーザが見たことを示す画像である。また、図7(b)の視線画像は、ユーザが購入しようとしていた商品が売り切れている場合の画像であり、具体的には、入荷待ちの掲示をユーザが見たことを示す画像である。また、図8の視線画像は、レジが混雑している状態をユーザが見たことを示す画像である。   Here, as the line-of-sight image acquired immediately before the emotion change, a line-of-sight image as shown in FIGS. 7A, 7B, and 8 is assumed. The line-of-sight image in FIG. 7A is an image indicating that the user has encountered the time service, and specifically, an image indicating that the user has seen the seal of the time service attached to the product. Further, the line-of-sight image in FIG. 7B is an image in the case where the product that the user is trying to purchase is sold out. Specifically, the line-of-sight image is an image showing that the user has seen a notice of waiting for arrival. Further, the line-of-sight image in FIG. 8 is an image showing that the user has seen the cash register being congested.

なお、第1情報は、カゴIDが付加された状態でサーバ40に送信される。すなわち、サーバ40では、第1情報をカゴIDを用いて管理する。   The first information is transmitted to the server 40 with the cage ID added. That is, the server 40 manages the first information using the basket ID.

ステップS40が否定された後、あるいはステップS42の処理が実行された後、制御部26は、ステップS44において、レジ端末から入力があったか否かを判断する。この場合のレジ端末の入力とは、前述したように、ユーザが買い物を終了し、レジにカゴ120を持っていった場合に、カゴ装置20とレジ端末との間の通信により、レジ端末からカゴ装置20に対して送信される、買い物終了情報の入力を意味する。このステップS44の判断が否定された場合、すなわち、ユーザの買い物が終了していない場合には、ステップS32に戻り、ステップS32〜S44の処理・判断を繰り返す。一方、ステップS44の判断が肯定された場合には、ステップS46に移行する。   After step S40 is denied or after the process of step S42 is executed, the control unit 26 determines whether or not there is an input from the cashier terminal in step S44. In this case, the input of the cashier terminal means that, as described above, when the user finishes shopping and brings the basket 120 to the cashier, the cashier terminal 20 communicates with the cashier terminal by communication between the cashier device 20 and the cashier terminal. It means the input of shopping end information transmitted to the basket device 20. If the determination in step S44 is negative, that is, if the user's shopping has not ended, the process returns to step S32, and the processes and determinations in steps S32 to S44 are repeated. On the other hand, if the determination in step S44 is affirmative, the process proceeds to step S46.

ステップS46に移行すると、制御部26は、第2通信部25に指示を出し、ステップS30以降取得された全ての視線画像、物品情報、生体情報(以下、第2情報と呼ぶ)をサーバ40に送信する。すなわち、制御部26は、第2通信部25を介して、ユーザが買い物をしている間に得られた視線画像、ユーザが手にした物品の物品情報、及びユーザが買い物をしている間に得られた感情の変化情報をサーバ40に送信する。なお、制御部26は、ユーザが買い物をしている間に装着装置10のマイク14を用いて取得された音声データをサーバ40に送信することとしてもよい。なお、制御部26から送信される各情報には、情報の取得時刻(カレンダ部22から得られる)がタイムスタンプとして付与されるものとする。また、第2情報は、カゴIDが付加された状態でサーバ40に送信される。すなわち、サーバ40では、第2情報をカゴIDを用いて管理する。その後は、制御部26は、図5の全処理を終了する。   In step S46, the control unit 26 issues an instruction to the second communication unit 25, and all line-of-sight images, article information, and biological information (hereinafter referred to as second information) acquired after step S30 are transmitted to the server 40. Send. That is, the control unit 26, via the second communication unit 25, the line-of-sight image obtained while the user is shopping, the item information of the article obtained by the user, and the user is shopping The sent emotion change information is transmitted to the server 40. Note that the control unit 26 may transmit the voice data acquired using the microphone 14 of the mounting apparatus 10 to the server 40 while the user is shopping. It is assumed that the information acquisition time (obtained from the calendar unit 22) is given to each piece of information transmitted from the control unit 26 as a time stamp. The second information is transmitted to the server 40 with the cage ID added. That is, the server 40 manages the second information using the basket ID. Thereafter, the control unit 26 ends all the processes in FIG.

以上のように、制御部26が図5の処理を実行することで、ユーザが買い物をしている間に感情の変化があったタイミングで、カゴ装置20からサーバ40に対して第1情報が送信され、ユーザが買い物を終了したタイミングで、カゴ装置20からサーバ40に対して第2情報が送信されるようになっている。   As described above, when the control unit 26 executes the process of FIG. 5, the first information is sent from the basket device 20 to the server 40 at the timing when the emotion is changed while the user is shopping. The second information is transmitted from the basket device 20 to the server 40 at the timing when the user finishes shopping.

(サーバ40の処理)
図6には、サーバ40の処理がフローチャートにて示されている。
(Processing of server 40)
FIG. 6 shows the processing of the server 40 in a flowchart.

図6の処理では、サーバ40の制御部46は、ステップS50において、カゴ装置20からの入力があるまで待機する。すなわち、制御部46は、カゴ装置20において図5のステップS42又はS46が実行されることにより、第1情報又は第2情報が送信されてきた段階で、ステップS52に移行する。   In the process of FIG. 6, the control unit 46 of the server 40 stands by until there is an input from the basket device 20 in step S50. That is, the control unit 46 proceeds to step S52 when the first information or the second information is transmitted by executing step S42 or S46 of FIG.

ステップS52に移行すると、制御部46は、入力された情報が第1情報であるか否かを判断する。すなわち、制御部46は、ユーザに感情の変化があった直前にカゴ装置20で取得された視線情報や物品情報が入力されたか否かを判断する。ここでの判断が肯定された場合には、ステップS54に移行する。   If transfering it to step S52, the control part 46 will judge whether the input information is 1st information. In other words, the control unit 46 determines whether or not the line-of-sight information or the article information acquired by the basket device 20 is input immediately before the user has changed emotions. When judgment here is affirmed, it transfers to step S54.

ステップS54に移行すると、制御部46は、第1情報に基づく感情分析を実行する。具体的には、制御部46は、感情が変化した直前に取得された視線画像をOCR部43や画像認識部44を用いて分析した結果や、感情が変化した直前に取得された物品情報を分析した結果に基づいて、ユーザの感情分析(満足か、不満かの分析)を行う。   If transfering it to step S54, the control part 46 will perform the emotion analysis based on 1st information. Specifically, the control unit 46 analyzes the line-of-sight image acquired immediately before the emotion changes using the OCR unit 43 and the image recognition unit 44, and the article information acquired immediately before the emotion changes. Based on the analysis result, the user's emotion analysis (analysis of satisfaction or dissatisfaction) is performed.

例えば、制御部46は、視線画像が図7(a)の画像であった場合には、OCR部43を用いることで「朝市 タイムサービス 表示価格より20%引き」という文字を検出することができる。この場合、タイムサービス、20%引きといった、買い物客にとってポジティブな単語が含まれているため、制御部46は、ユーザが喜んで満足な状態(ポジティブな状態)であると分析する。なお、買い物客にとってポジティブな単語は、記憶部41に記憶されているものとする。   For example, when the line-of-sight image is the image shown in FIG. 7A, the control unit 46 can detect the character “20% discount from the morning market time service display price” by using the OCR unit 43. . In this case, since a positive word for the shopper such as time service and 20% discount is included, the control unit 46 analyzes that the user is happy and satisfied (positive state). Note that words that are positive for the shopper are stored in the storage unit 41.

また、制御部46は、視線画像が図7(b)の画像であった場合には、OCR部43を用いることで、「申し訳ございません。現在入荷待ちです。次回入荷時期は未定です。」という文字を検出することができる。この場合、申し訳ございません、入荷待ち、未定といった、買い物客にとってネガティブな単語が含まれているため、制御部46は、ユーザが哀しんで不満足な状態(ネガティブな状態)であると分析する。なお、買い物客にとってネガティブな単語は、記憶部41に記憶されているものとする。   Further, when the line-of-sight image is the image of FIG. 7B, the control unit 46 uses the OCR unit 43 to “sorry. Currently waiting for arrival. The next arrival time is undecided.” Can be detected. In this case, since there are negative words for the shopper such as sorry, waiting for arrival and undecided, the control unit 46 analyzes that the user is sad and unsatisfied (negative state). It is assumed that words that are negative for the shopper are stored in the storage unit 41.

また、制御部46は、視線画像が図8の画像であった場合には、画像認識部44を用いることで、レジが混雑していることや、レジ待ちしている人が不満顔である(笑顔でない)ということを検出することができる。この場合、制御部46は、ユーザが哀しんで不満足な状態(ネガティブな状態)であると判断する。   In addition, when the line-of-sight image is the image of FIG. 8, the control unit 46 uses the image recognition unit 44 so that the cash register is crowded or the person waiting for the cash register is unhappy. It is possible to detect (not smiling). In this case, the control unit 46 determines that the user is sad and unsatisfied (a negative state).

また、制御部46は、視線画像に従業員の顔の画像が含まれる場合には、従業員に起因してユーザの感情が変化したと判断する。この場合、制御部46は、画像認識部44を用いることで、従業員の顔が笑顔か否かを認識する。なお、画像認識部44は、視線画像に含まれる顔の画像が従業員の顔の画像であるか否か、笑顔であるか否かを、記憶部41に記憶されている従業員の顔画像データを用いて判断する。そして、制御部46は、従業員が笑顔でない場合には、ユーザが哀しんでいる又は怒っている不満足な状態(ネガティブな状態)であると判断し、従業員が笑顔の場合には、満足な状態(ポジティブな状態)であると判断する。   In addition, when the line-of-sight image includes an image of the employee's face, the control unit 46 determines that the user's emotion has changed due to the employee. In this case, the control unit 46 uses the image recognition unit 44 to recognize whether or not the employee's face is smiling. Note that the image recognition unit 44 determines whether the face image included in the line-of-sight image is an employee face image or a smile, and stores the employee face image stored in the storage unit 41. Judge using data. Then, when the employee is not smiling, the control unit 46 determines that the user is sad or angry and is in an unsatisfied state (negative state). If the employee is smiling, the control unit 46 is satisfied. Judged to be in a state (positive state).

更に、制御部46は、視線画像において物品を手に持っている状態が撮像されていた場合には、物品を見たこと、触れたことによって感情に変化が生じたと判断する。なお、制御部46は、例えば、カゴ装置20が取得した物品情報を併用することで、ユーザが喜んでいるのか哀しんでいるのかを判断することができる場合もある。例えば、物品情報に、数量限定などの情報が含まれている場合には、ユーザが喜んでいると判断することができる。また、物品情報から、賞味期限切れであることが判明した場合には、ユーザが哀しんでいると判断することができる。   Furthermore, when the state where the article is held in the hand is captured in the line-of-sight image, the control unit 46 determines that the emotion has changed due to seeing or touching the article. Note that the control unit 46 may be able to determine whether the user is pleased or sad by using the article information acquired by the basket device 20 together. For example, if the item information includes information such as quantity limitation, it can be determined that the user is delighted. Further, when it is found from the article information that the expiration date has expired, it can be determined that the user is sad.

図6に戻り、次のステップS56では、制御部46が、感情分析結果に基づいて、対応が必要か否かを判断する。具体的には、制御部46は、ユーザが哀しんでいたり怒っているなど不満足な状態の場合(ネガティブな状態にある場合)に、対応が必要であると判断する。ステップS56の判断が否定された場合には、ステップS50に戻る。一方、ステップS56の判断が肯定された場合には、ステップS58に移行する。   Returning to FIG. 6, in the next step S <b> 56, the control unit 46 determines whether or not a response is necessary based on the emotion analysis result. Specifically, the control unit 46 determines that a response is necessary when the user is in an unsatisfactory state (eg, in a negative state) such as sad or angry. If the determination in step S56 is negative, the process returns to step S50. On the other hand, if the determination in step S56 is affirmative, the process proceeds to step S58.

ステップS58に移行すると、制御部46は、感情分析結果に基づく対応処理を実行する。例えば、制御部46は、視線画像が図4(b)の場合には、記憶部41に記憶されているお詫びのメッセージや次回入荷予定などの各種メッセージを、通信部42を介して、カゴ装置20に送信する。そして、カゴ装置20の制御部26は、第1通信部24を介して、各種メッセージを装着装置10に送信する。この場合、装着装置10では、制御部17は、表示部12を用いて、各種メッセージを表示(投影)する。   If transfering it to step S58, the control part 46 will perform the corresponding | compatible process based on an emotion analysis result. For example, when the line-of-sight image is FIG. 4B, the control unit 46 sends various messages such as an apology message and a next arrival schedule stored in the storage unit 41 via the communication unit 42. 20 to send. Then, the control unit 26 of the basket device 20 transmits various messages to the mounting device 10 via the first communication unit 24. In this case, in the mounting apparatus 10, the control unit 17 displays (projects) various messages using the display unit 12.

また、例えば、視線画像が図8の場合には、制御部46は、レジが混雑していることに対するお詫びのメッセージを、カゴ装置20を介して装着装置10の制御部17に送信する。この場合、制御部17は、表示部12にお詫びのメッセージを表示(投影)する。なお、制御部46は、店内放送を利用して、レジの混雑に対するお詫びのメッセージを出力してもよい。また、制御部46は、店内放送を利用して、レジ打ちを行う従業員を補充すべき旨のメッセージ(レジ応援のメッセージ)を出力するようにしてもよい。あるいは、制御部46は、従業員が保持する端末に対して、レジ応援のメッセージを出力するようにしてもよい。また、制御部46は、レジが混雑している状況を見たユーザに対して、レジの進み具合(客1人当たりの処理時間)やレジを担当する店員の熟練度(見習いか、ベテランか)を報知することとしてもよい。   For example, when the line-of-sight image is shown in FIG. 8, the control unit 46 transmits an apology message that the cash register is congested to the control unit 17 of the mounting device 10 via the basket device 20. In this case, the control unit 17 displays (projects) an apology message on the display unit 12. The control unit 46 may output an apology message for the cash register congestion using in-store broadcasting. In addition, the control unit 46 may output a message (a message for cashier support) indicating that the employees who make cashiers should be replenished using in-store broadcasting. Alternatively, the control unit 46 may output a cashier support message to a terminal held by the employee. In addition, the control unit 46, for a user who sees a situation where the cash register is congested, the progress of the cash register (processing time per customer) and the skill level of the clerk in charge of the cash register (apprentice or veteran) May be notified.

また、例えば、視線画像から、従業員の対応に問題があると判断された場合には、制御部46は、他の従業員や店長などが保持する端末に対して、客と従業員とのトラブルが発生した旨のメッセージを出力する。なお、カゴ装置20に無線LAN基地局との通信感度に応じて位置を検出することが可能な位置検出装置を設けておけば、制御部46は、位置検出装置の検出結果に基づいて、トラブル発生位置を他の従業員や店長などに知らせることができる。   Further, for example, when it is determined from the line-of-sight image that there is a problem in the correspondence of the employee, the control unit 46 sends the customer and the employee to the terminal held by another employee or store manager. A message indicating that a problem has occurred is output. If the car apparatus 20 is provided with a position detection device capable of detecting the position according to the communication sensitivity with the wireless LAN base station, the control unit 46 can troubleshoot based on the detection result of the position detection apparatus. You can inform other employees, store managers, etc. of the occurrence location.

更に、例えば、視線画像から、客が物品に対して哀しんでいる又は怒っていると判断された場合には、制御部46は、店内放送や従業員が保持する端末を利用して、従業員が直接対応すべき旨のメッセージを出力してもよい。この場合にも、制御部46は、従業員に客の位置を知らせるようにしてもよい。   Further, for example, when it is determined from the line-of-sight image that the customer is sad or angry with the article, the control unit 46 uses the in-store broadcast or a terminal held by the employee to May output a message to the effect that Also in this case, the control unit 46 may notify the employee of the customer's position.

なお、第1情報には、感情変化の直前にマイク14が収集した音声データが含まれていてもよい。制御部46は、音声データの分析により、音声データにユーザの怒声やため息、従業員の謝罪の言葉が含まれていた場合には、ユーザが怒っていたり、不満足な状態にある(ネガティブな状態にある)と判断することができる。   The first information may include voice data collected by the microphone 14 immediately before the emotion change. When the voice data includes a user's screaming or sighing or an employee's apology by analyzing the voice data, the control unit 46 is angry or unsatisfied (negative state). It can be determined that

なお、上述した対応処理のパターンは、予め定められているものとし、当該パターンは、記憶部41に記憶されているものとする。   It is assumed that the above-described corresponding processing pattern is determined in advance, and the pattern is stored in the storage unit 41.

上記のようにしてステップS58の処理が終了した後は、ステップS50に戻る。   After the process of step S58 is completed as described above, the process returns to step S50.

一方、ステップS52の判断が否定された場合、すなわち、カゴ装置20から入力された情報が第2情報であった場合には、ステップS60に移行する。   On the other hand, if the determination in step S52 is negative, that is, if the information input from the basket device 20 is the second information, the process proceeds to step S60.

ステップS60に移行すると、制御部46は、第2情報に基づく、購入行動分析を実行する。この場合、制御部46は、ユーザが買い物の途中で、何を見て、何を手にとり、何を購入したかということを分析する。換言すれば、ユーザがどの商品を見なかったり、手に取らなかったかということを分析しているともいえる。   If transfering it to step S60, the control part 46 will perform the purchase behavior analysis based on 2nd information. In this case, the control unit 46 analyzes what the user sees during the shopping, what he has picked up, and what he has purchased. In other words, it can be said that it is analyzing which product the user did not see or picked up.

図9には、あるユーザが入店してからレジを通るまでの間に、手に取った物品の順が示されている。また、図9では、ユーザが購入した物品に下線を付している。なお、制御部46は、ユーザが購入した物品の情報として、レジ端末から取得した購入情報を利用することができる。   FIG. 9 shows the order of articles picked up after a user enters the store and passes through the cash register. Moreover, in FIG. 9, the article purchased by the user is underlined. In addition, the control part 46 can utilize the purchase information acquired from the cash register terminal as information of the goods purchased by the user.

図9において、ユーザは、カレールーAとカレールーBとを手に取っているものの、最終的にはカレールーAを購入している。この場合、制御部46は、カレールーAを手に取った際の視線画像と、カレールーBを手に取った際の視線画像とを参照することで、何を判断基準として、カレールーAを購入したかを分析する。例えばユーザが注視している領域(視線画像の所定位置(ほぼ中心))に値段の情報が長時間含まれていた場合には、値段に基づいてカレールーAを購入したと判断する。また、ユーザが注視している領域に、辛さの表示や、パッケージの写真、成分表示や、賞味期限が長時間含まれていた場合には、それらの情報に基づいて、カレールーAを購入したと判断する。なお、制御部46は、ユーザが注視している領域に、値段や辛さの表示、成分や賞味期限などが含まれているか否かを、OCR部43を用いて抽出するものとする。   In FIG. 9, the user has picked up Carreru A and Carreau B, but has finally purchased Carrero A. In this case, the control unit 46 refers to the line-of-sight image when picking up Carreru A and the line-of-sight image when picking up Carreru B, and purchases Carrere A as a criterion. Analyze. For example, if price information is included for a long time in a region (predetermined position (substantially center) of the line-of-sight image) that the user is gazing at, it is determined that Carrero A has been purchased based on the price. In addition, when the area that the user is gazing in includes spiciness indications, package pictures, ingredient indications, and expiration dates for a long period of time, Carrero A was purchased based on such information. Judge. It should be noted that the control unit 46 uses the OCR unit 43 to extract whether or not the price or pain display, the component, the expiration date, or the like is included in the region being watched by the user.

なお、牛肉A,Bについても同様に、購入の際の判断基準を判断するようにすればよい。例えば、制御部46は、ユーザが注視している領域に、内容量の表示や、部位の表示、100g当たりの値段などが長時間含まれていた場合には、それらの情報に基づいて、牛肉Bを購入したと判断する。   It should be noted that for beef A and B as well, the determination criteria at the time of purchase may be determined. For example, if the area being watched by the user includes a display of content, a display of a part, a price per 100 g, etc. for a long time, the control unit 46 determines the beef based on the information. It is determined that B has been purchased.

また、制御部46は、複数のユーザにおいて取得されたデータを参照することで、ある商品を購入したユーザが比較検討をした別の商品が何であるかを集計したり、比較検討した結果購入した商品の決め手が何であったかを集計したりすることができる。なお、購入の際の判断基準の分析結果は、各商品の製造元や生産者に提供することとしてもよい。製造元や生産者は、この分析結果を今後の商品開発や商品の改善に役立てることが可能である。   Further, the control unit 46 refers to data acquired by a plurality of users, so that a user who has purchased a product sums up what another product has been compared and has been purchased as a result of the comparative review. You can count what was the deciding factor of the product. It should be noted that the analysis result of the determination criteria at the time of purchase may be provided to the manufacturer or producer of each product. Manufacturers and producers can use the analysis results for future product development and product improvement.

また、制御部46は、図9のデータを参照することで、客が物品を手に取った順番を集計することができる。この場合、制御部46は、集計結果を利用することで、客の店舗内における動きの傾向を分析することができる。これにより、制御部46は、客の動きに基づく、物品や棚の適切な配置を求めることができる。   Moreover, the control part 46 can total the order that the customer picked up the article by referring to the data of FIG. In this case, the control unit 46 can analyze the tendency of the movement in the customer's store by using the counting result. Thereby, the control part 46 can obtain | require suitable arrangement | positioning of goods and a shelf based on a customer's movement.

更に、制御部46は、入店から退店までの間にユーザがポジティブな状態になった回数や位置、ネガティブな状態になった回数や位置を集計することで、客の満足度や不満度を位置ごと(売り場ごと)に分析することができる。   Further, the control unit 46 counts the number of times and positions where the user has become positive and the number of times and positions where the user has become negative during the period from entering the store to leaving the store. Can be analyzed for each position (for each sales floor).

また、制御部46は、客がネガティブな状態からポジティブな状態に変化した場合の視線画像を分析することとしてもよい。制御部46は、視線画像を分析した結果、ネガティブな状態からポジティブな状態に変化する間の視線画像に従業員の顔が含まれていた場合には、当該従業員の対応によりトラブルが解消したと分析することができる。また、ネガティブな状態からポジティブな状態に変化する間に装着装置10や店内放送を用いた対応処理を行っていた場合には、対応処理が適切であったと分析することができる。   Moreover, the control part 46 is good also as analyzing a visual line image when a customer changes from a negative state to a positive state. As a result of analyzing the line-of-sight image, if the face of the employee is included in the line-of-sight image during the change from the negative state to the positive state, the control unit 46 has solved the trouble by the correspondence of the employee. Can be analyzed. Further, when the corresponding process using the wearing device 10 or the in-store broadcasting is performed during the change from the negative state to the positive state, it can be analyzed that the corresponding process is appropriate.

以上、詳細に説明したように、本第1の実施形態によると、サーバ40の制御部46及び通信部42は、ユーザの購買に関する動作情報として視線画像や物品情報を入力し、ユーザの購買に関する感情情報として生体センサ21の検出結果を入力する。これにより、制御部46は、視線画像や物品情報、生体センサ21の検出結果に基づいた購買に関する分析を行い、購買に関する有用な情報を取得・提供することが可能となる。したがって、ユーザによる使い勝手を向上することができる。この場合、ユーザの側から撮像した視線画像を用いることで、店舗の棚側から撮像した画像を用いる場合と比較して、ユーザが実際に見ている状況、すなわち、視線の先にある物品や表示、状況等を考慮した分析が可能となる。   As described above in detail, according to the first embodiment, the control unit 46 and the communication unit 42 of the server 40 input line-of-sight images and article information as operation information related to user purchase, and The detection result of the biological sensor 21 is input as emotion information. As a result, the control unit 46 can analyze the purchase based on the line-of-sight image, the article information, and the detection result of the biological sensor 21, and can acquire and provide useful information related to the purchase. Therefore, usability for the user can be improved. In this case, by using the line-of-sight image captured from the user's side, compared to the case of using the image captured from the store shelf side, the situation that the user is actually looking at, i.e., the article ahead of the line of sight Analysis in consideration of display, situation, etc. becomes possible.

ここで、従来は、装着装置10のような撮像部11が搭載された装置を装着したユーザが店舗内に入店してきた場合、店舗内の様子や商品が勝手に撮像されてしまうため、店舗側にとってメリットがあるとはいえなかった。これに対し、本第1の実施形態では、ユーザが装着装置10を装着して店舗に入るのを許容する代わりに、店舗側は、撮像部11が撮像した画像データをカゴ装置20を介してもらうこととしている。これにより、店舗は、画像データを分析することで、ユーザの商品購入までの行動や感情を分析することが可能である。   Here, conventionally, when a user wearing a device equipped with the imaging unit 11 such as the wearing device 10 enters the store, the state and products in the store are captured without permission. It could not be said that there was a merit for the side. On the other hand, in the first embodiment, instead of allowing the user to wear the mounting device 10 and enter the store, the store side sends the image data captured by the imaging unit 11 via the basket device 20. I am trying to get it. Thereby, the store can analyze the behavior and emotions until the user purchases the product by analyzing the image data.

また、従来は、ショッピングの満足度などをユーザに対するアンケートにより収集することとしていたが、ユーザにとっては店舗のWebサイトにアクセスして、質問に回答したり、紙に回答を筆記したりする必要があり煩わしいものであった。これに対し、本第1の実施形態では、装着装置10で取得された画像データとユーザの生体情報とを紐付けて店舗側に提供することにより、ユーザが無意識のうちに、ユーザの満足度や不満度を店舗側に伝達することが可能である。   Conventionally, shopping satisfaction and the like have been collected by a questionnaire for the user, but the user needs to access the store website and answer the question or write the answer on paper. It was annoying. On the other hand, in the first embodiment, the image data acquired by the mounting device 10 and the user's biometric information are associated with each other and provided to the store side. It is possible to convey the degree of dissatisfaction to the store side.

また、本第1の実施形態では、視線画像や物品情報、生体センサ21の検出結果に基づいて、ユーザへのメッセージや従業員へのメッセージを出力する。これにより、不満足に感じたユーザに対して即時対応を行うことが可能となる。   In the first embodiment, a message to the user and a message to the employee are output based on the line-of-sight image, the article information, and the detection result of the biological sensor 21. This makes it possible to immediately respond to a user who feels unsatisfied.

また、本第1の実施形態では、制御部46は、視線画像や物品情報からユーザが物品を保持したことを判断する。これにより、制御部46は、ユーザが物品を保持したという情報や保持した順番等を分析することで、購買に関する有用な情報を取得・提供することが可能となる。   In the first embodiment, the control unit 46 determines that the user holds the article from the line-of-sight image and the article information. Thus, the control unit 46 can acquire and provide useful information related to purchase by analyzing information that the user has held the article, the order in which the article was held, and the like.

また、本第1の実施形態では、制御部46は、生体センサ21の検出結果を利用するため、ユーザに感情の変化が生じたか否かを簡易に判断することが可能である。また、生体センサ21の検出結果とあわせてユーザの視線画像を分析することで、ユーザの感情がポジティブになったのか、ネガティブになったのかを精度よく判断することができる。   Further, in the first embodiment, since the control unit 46 uses the detection result of the biosensor 21, it is possible to easily determine whether or not an emotional change has occurred in the user. Further, by analyzing the user's line-of-sight image together with the detection result of the biosensor 21, it is possible to accurately determine whether the user's emotion has become positive or negative.

また、本第1の実施形態では、装着装置10が、視線画像を撮像し、撮像した視線画像を人体通信を介してユーザに接触しているカゴ装置20に対して送信する。これにより、カゴ装置20は、カゴ120を保持しているユーザの視線画像のみを取得することが可能である。すなわち、店舗に入店したユーザの装着装置10から視線画像を確実に取得し、店舗に入店していない人(例えば店舗付近を通りがかった人)の装着装置10から視線画像を取得してしまうのを確実に防止することができる。   In the first embodiment, the mounting device 10 captures a line-of-sight image and transmits the captured line-of-sight image to the basket device 20 that is in contact with the user via human body communication. Thereby, the basket device 20 can acquire only the line-of-sight image of the user holding the basket 120. That is, the line-of-sight image is reliably acquired from the wearing device 10 of the user who has entered the store, and the line-of-sight image is acquired from the mounting device 10 of a person who has not entered the store (for example, a person who has passed near the store). Can be reliably prevented.

また、本第1の実施形態では、生体センサ21の検出結果に変化があったとき、すなわち、ユーザの感情の変化があったときに、サーバ40に対して第1情報が送信される(S42)。これにより、分析が必要な情報を適切なタイミングでサーバ40に送信することができる。   In the first embodiment, the first information is transmitted to the server 40 when the detection result of the biosensor 21 changes, that is, when the user's emotion changes (S42). ). Thereby, the information which needs to be analyzed can be transmitted to the server 40 at an appropriate timing.

なお、上記第1の実施形態では、生体センサ21をカゴ装置20が備える場合について説明したが、これに限らず、生体センサを装着装置10が備えていてもよい。この場合、装着装置10のフレームの一部やフレーム近傍に顔の一部と接触する生体センサを設けることとすればよい。また、装着装置10に耳たぶに装着可能な生体センサを接続するようにしてもよい。   In addition, although the case where the cage apparatus 20 includes the biosensor 21 has been described in the first embodiment, the present invention is not limited thereto, and the mounting apparatus 10 may include a biosensor. In this case, a biological sensor that contacts a part of the face of the mounting apparatus 10 or a part of the face may be provided in the vicinity of the frame. Further, a biosensor that can be mounted on the earlobe may be connected to the mounting apparatus 10.

また、上記第1の実施形態では、物品装置30を物品130に設ける場合について説明した。しかしながら、これに限られるものではなく、ステップS54の感情分析やステップS60の購入行動分析において物品情報が不要な場合には、物品装置30は必ずしも物品130に設けなくてもよい。例えば、視線画像において、物品を手に持っている状態が撮像されていた場合に、画像認識を行うことで、手に持っている物品を特定できる場合などである。   In the first embodiment, the case where the article device 30 is provided on the article 130 has been described. However, the present invention is not limited to this, and the article device 30 may not necessarily be provided in the article 130 when the article information is unnecessary in the emotion analysis in step S54 and the purchase behavior analysis in step S60. For example, in a line-of-sight image, when an image of a state where an article is held in a hand is captured, the article held in the hand can be identified by performing image recognition.

なお、上記第1の実施形態では、物品装置30がカゴ装置20との間で人体通信を行う場合について説明したが、これに限らず、物品装置30は、装着装置10との間で人体通信を行うこととしてもよい。この場合、装着装置10とカゴ装置20との間で人体通信が成立した状態で、装着装置10が取得した物品情報を装着装置10からカゴ装置20に対して送信するようにすればよい。   In the first embodiment, the case where the article device 30 performs human body communication with the basket device 20 has been described. However, the present invention is not limited thereto, and the article device 30 communicates with the mounting device 10 through human body communication. It is good also as performing. In this case, the article information acquired by the mounting apparatus 10 may be transmitted from the mounting apparatus 10 to the basket apparatus 20 in a state in which human body communication is established between the mounting apparatus 10 and the basket apparatus 20.

なお、上記第1の実施形態では、生体センサ21の検出結果を利用する場合について説明したが、これに限られるものではなく、生体センサ21の検出結果を利用しないこととしてもよい。この場合、制御部46は、例えば、視線画像に基づいて、ユーザが所定時間の間、図7(a)のマークを凝視していると判断した場合に、ユーザがポジティブな状態にあると推定することとしてもよい。また、制御部46は、例えば、視線画像に基づいて、ユーザが図7(b)の張り紙や図7(c)のレジ待ち状態を所定時間凝視していると判断した場合に、ユーザがネガティブな状態にあると推定することとしてもよい。この場合、制御部46は、ユーザが見ることでポジティブ又はネガティブな状態になると予測されるマークや張り紙、状況の画像パターンを予め記憶しておき、該画像パターンと視線画像との比較を行うこととすればよい。   In the first embodiment, the case where the detection result of the biosensor 21 is used has been described. However, the present invention is not limited to this, and the detection result of the biosensor 21 may not be used. In this case, for example, when the control unit 46 determines that the user is staring at the mark in FIG. 7A for a predetermined time based on the line-of-sight image, the control unit 46 estimates that the user is in a positive state. It is good to do. Further, for example, when the control unit 46 determines that the user is staring at the sticker in FIG. 7B or the registration waiting state in FIG. It is good also as estimating that it is in a state. In this case, the control unit 46 stores in advance image patterns of marks, stickers, and situations that are predicted to be positive or negative when viewed by the user, and compares the image pattern with the line-of-sight image. And it is sufficient.

なお、上記第1の実施形態では、視線画像の所定位置を視線の中心位置とみなす場合について説明したが、これに限られるものではない。例えば、赤外線照射部と、赤外線受光部と、を有し、赤外線照射部から眼球に対して赤外線を照射し、眼球にて反射した赤外線を赤外線受光部において受光することで視線方向を検出する視線検出部を装着装置10に別途設けることとしてもよい。   In the first embodiment, the case where the predetermined position of the line-of-sight image is regarded as the center position of the line-of-sight has been described, but the present invention is not limited to this. For example, a line of sight that has an infrared irradiation unit and an infrared light receiving unit, irradiates the eyeball with infrared rays from the infrared irradiation unit, and detects the direction of the line of sight by receiving infrared rays reflected by the eyeball at the infrared light receiving unit. It is good also as providing a detection part in the mounting apparatus 10 separately.

なお、サーバ40は、複数の店舗における客の満足度や不満足度などを集計して、1つのWebサイトにおいて各店舗のユーザ評価として公表することとしてもよい。この場合、例えば、各店舗の評価を星の数や満足度の点数などで公表することができる。   Note that the server 40 may aggregate customer satisfaction and dissatisfaction levels at a plurality of stores and publish them as user evaluations for each store on one Web site. In this case, for example, the evaluation of each store can be announced by the number of stars or the score of satisfaction.

《第2の実施形態》
次に、第2の実施形態に係る電子機器システム100’について、図10〜図14に基づいて、詳細に説明する。
<< Second Embodiment >>
Next, an electronic device system 100 ′ according to the second embodiment will be described in detail based on FIGS.

図10には、電子機器システム100’の構成がブロック図にて示されている。図10では、電子機器システム100’のうち、第1の実施形態の電子機器システム100と異なる構成を太線枠にて示している。   FIG. 10 is a block diagram showing the configuration of the electronic device system 100 ′. In FIG. 10, a configuration different from the electronic device system 100 of the first embodiment in the electronic device system 100 ′ is indicated by a thick line frame.

図10に示すように、電子機器システム100’においては、装着装置10’がスピーカ18を備え、カゴ装置20’が重量センサ27を備え、物品装置30’が発光部34を備えている。なお、サーバ40’の構成は、第1の実施形態のサーバ40と同様である。   As shown in FIG. 10, in the electronic device system 100 ′, the mounting device 10 ′ includes the speaker 18, the basket device 20 ′ includes the weight sensor 27, and the article device 30 ′ includes the light emitting unit 34. The configuration of the server 40 'is the same as that of the server 40 of the first embodiment.

スピーカ18は、装着装置10’を装着するユーザに音声情報を提供するために用いられる。スピーカ18としては、イヤホンやヘッドホンのほか、指向性があり、装着装置10’を装着するユーザにのみ音声情報を提供することが可能なスピーカなどを採用することができる。なお、装着装置10’の記憶部15には、後述する物品装置30’の発光部34の発光パターンに対応する物品情報を格納しているものとする。   The speaker 18 is used to provide audio information to a user wearing the mounting apparatus 10 '. As the speaker 18, in addition to the earphone and the headphone, a speaker having directivity and capable of providing audio information only to a user wearing the mounting apparatus 10 'can be employed. It is assumed that the storage unit 15 of the mounting device 10 'stores article information corresponding to a light emission pattern of a light emitting unit 34 of an article device 30' described later.

重量センサ27は、カゴ装置20’の一部に設けられ、カゴ120の内容量の変化を検出するためのセンサである。   The weight sensor 27 is a sensor that is provided in a part of the basket device 20 ′ and detects a change in the internal capacity of the basket 120.

発光部34は、LED(Light Emitting Diode)等の発光素子を含み、物品ごとに予め定められた発光パターンで、発光を行う。なお、発光部34の発光は、制御部33により制御される。装着装置10’の制御部17は、撮像部11による動画撮影において、画角の所定範囲内で発光パターンを撮像した場合に、ユーザがその発光パターンに対応する物品を見たと推定する。なお、発光部34による発光のオン・オフ切り替えタイミング(発光パターンの点滅間隔)は、撮像部11のフレームレートに合わせて設定されているものとする。なお、発光部34として可視光LEDを用いても赤外線LEDを用いてもよく、赤外線LEDを用いる場合には、撮像部11に赤外線撮像素子を用いればよい。   The light emitting unit 34 includes a light emitting element such as an LED (Light Emitting Diode), and emits light with a light emission pattern predetermined for each article. Note that the light emission of the light emitting unit 34 is controlled by the control unit 33. In the moving image shooting by the imaging unit 11, the control unit 17 of the mounting apparatus 10 ′ estimates that the user has seen an article corresponding to the light emission pattern when the light emission pattern is captured within a predetermined range of the angle of view. Note that the on / off switching timing of the light emission by the light emitting unit 34 (light emission pattern blinking interval) is set in accordance with the frame rate of the imaging unit 11. Note that a visible light LED or an infrared LED may be used as the light emitting unit 34, and when an infrared LED is used, an infrared imaging element may be used for the imaging unit 11.

次に、本第2の実施形態における電子機器システム100’の処理について、図11〜図13のフローチャートに沿って、その他図面を適宜参照しつつ詳細に説明する。なお、本第2の実施形態においても、電子機器システム100’が、スーパーマーケットで利用される場合について説明する。   Next, processing of the electronic device system 100 ′ according to the second embodiment will be described in detail along the flowcharts of FIGS. 11 to 13 with reference to other drawings as appropriate. Also in the second embodiment, a case where the electronic device system 100 ′ is used in a supermarket will be described.

(装着装置10’の処理)
図11(a)には、装着装置10’の処理がフローチャートにて示されている。なお、図11(a)においては、第1の実施形態の装着装置10の処理(図4(a))と異なるステップを太線枠にて示している。
(Processing of mounting device 10 ')
FIG. 11A shows the processing of the mounting apparatus 10 ′ in a flowchart. In FIG. 11 (a), steps different from the processing of the mounting apparatus 10 of the first embodiment (FIG. 4 (a)) are indicated by bold lines.

図11(a)の処理では、装着装置10’の制御部17は、ステップS10において、カゴ装置20’との人体通信が成立するまで待機する。カゴ装置20’との人体通信が成立すると、制御部17は、ステップS110に移行する。   In the process of FIG. 11A, the control unit 17 of the mounting device 10 'stands by in step S10 until human body communication with the basket device 20' is established. When the human body communication with the basket device 20 'is established, the control unit 17 proceeds to step S110.

ステップS110に移行すると、制御部17は、撮像部11に指示を出し、ユーザ側からの撮像(動画)を実行する。   In step S110, the control unit 17 instructs the imaging unit 11 to execute imaging (moving image) from the user side.

次いで、ステップS112では、制御部17は、画角の所定範囲内において発光部34の発光を撮像したか否かを判断する。すなわち、ユーザが物品装置30’が設けられている物品を見たか否かを判断する。このステップS112における判断が否定された場合には、ステップS116に移行するが、ステップS112の判断が肯定された場合には、ステップS114に移行する。   Next, in step S112, the control unit 17 determines whether or not the light emission of the light emitting unit 34 is imaged within a predetermined range of the angle of view. That is, it is determined whether or not the user has viewed an article provided with the article device 30 '. If the determination in step S112 is negative, the process proceeds to step S116. If the determination in step S112 is positive, the process proceeds to step S114.

ステップS114に移行すると、制御部17は、ユーザが見た物品情報をカゴ装置20’に送信する。具体的には、制御部17は、撮像部11の画角の所定範囲内において検出された発光パターンに対応する物品情報を記憶部15から取得し、通信部16を介してカゴ装置20’の第1通信部24に対して送信する。   In step S114, the control unit 17 transmits the article information viewed by the user to the basket device 20 '. Specifically, the control unit 17 acquires article information corresponding to the light emission pattern detected within a predetermined range of the angle of view of the imaging unit 11 from the storage unit 15, and transmits the article information of the basket device 20 ′ via the communication unit 16. Transmit to the first communication unit 24.

ステップS112の判断が否定された後、あるいはステップS114の処理が行われた後、ステップS116に移行すると、制御部17は、カゴ装置20’から情報を受信したか否かを判断する。なお、カゴ装置20’から受信する情報とは、サーバ40’から送信されてくる物品や店舗のサービスに関する情報である。ここでの判断が否定された場合には、ステップS16に移行するが、肯定された場合には、ステップS118に移行する。   After the determination of step S112 is denied or after the processing of step S114 is performed, when the process proceeds to step S116, the control unit 17 determines whether information is received from the basket device 20 '. Note that the information received from the basket device 20 'is information related to goods and store services transmitted from the server 40'. If the determination is negative, the process proceeds to step S16. If the determination is positive, the process proceeds to step S118.

ステップS118に移行すると、制御部17は、カゴ装置20’から受信した情報を出力する。なお、本ステップS118の処理の詳細については、後述する。   In step S118, the control unit 17 outputs the information received from the basket device 20 '. Details of the processing in step S118 will be described later.

ステップS116の判断が否定された後、あるいはステップS118の処理が行われた後、ステップS16に移行すると、制御部17は、レジ端末から入力のあったカゴ装置20’との人体通信が成立したか否かを判断する。ここで、レジ端末からの入力とは、ユーザが買い物を終了し、レジにカゴ120を持っていった場合に、カゴ装置20’とレジ端末との間の通信により、レジ端末からカゴ装置20’に対して送信される、買い物終了情報の入力を意味する。すなわち、レジ端末からの入力があったカゴ装置20’と装着装置10’との人体通信が成立した場合、ユーザの買い物が終了したことを意味する。したがって、買い物が終了しておらず、ステップS16の判断が否定された場合には、ステップS112に戻り、ステップS112〜S16の処理・判断を繰り返す。一方、ユーザの買い物が終了し、ステップS16の判断が肯定された場合には、図11(a)の全処理が終了する。   After the determination in step S116 is denied, or after the processing in step S118 is performed, when the process proceeds to step S16, the control unit 17 establishes human body communication with the basket device 20 ′ input from the cashier terminal. Determine whether or not. Here, the input from the cashier terminal means that when the user finishes shopping and has the basket 120 at the cashier, the cashier apparatus 20 from the cashier terminal 20 communicates with the cashier apparatus 20 ′ and the cashier terminal. It means the input of shopping end information sent to '. That is, when human body communication is established between the basket device 20 ′ and the mounting device 10 ′ input from the cash register terminal, it means that the user's shopping is finished. Therefore, if shopping is not completed and the determination in step S16 is negative, the process returns to step S112, and the processing and determination in steps S112 to S16 are repeated. On the other hand, when the user's shopping is finished and the determination in step S16 is affirmed, all the processes in FIG. 11A are finished.

(物品装置30’の処理)
図11(b)には、物品装置30’の処理がフローチャートにて示されている。なお、図11(b)においては、第1の実施形態の物品装置30の処理(図4(b))と異なるステップを太線枠にて示している。
(Processing of article device 30 ')
FIG. 11B shows a process of the article device 30 ′ in a flowchart. In FIG. 11B, steps different from the processing of the article device 30 of the first embodiment (FIG. 4B) are indicated by bold lines.

図11(b)に示すように、物品装置30’では、ステップS120において、制御部33が、発光部34を用いた発光を行う。この場合、制御部33は、物品装置30’が設けられる物品に対応する発光パターンで、発光部34を発光させる。その他の処理は、図4(b)と同様である。   As shown in FIG. 11B, in the article device 30 ′, the control unit 33 emits light using the light emitting unit 34 in step S <b> 120. In this case, the control unit 33 causes the light emitting unit 34 to emit light with a light emission pattern corresponding to the article on which the article device 30 ′ is provided. Other processes are the same as those in FIG.

(カゴ装置20’の処理)
図12には、カゴ装置20’の処理がフローチャートにて示されている。図12の処理では、ステップS130において、制御部26は、装着装置10’との人体通信が成立するまで待機する。装着装置10’との人体通信が成立して、ステップS132に移行すると、制御部26は、装着装置10’から物品情報を受信したか否かを判断する。
(Processing of basket device 20 ')
FIG. 12 is a flowchart showing the process of the basket device 20 ′. In the process of FIG. 12, in step S130, the control unit 26 waits until human body communication with the mounting apparatus 10 ′ is established. If human body communication with mounting apparatus 10 'is materialized and it transfers to step S132, control part 26 will judge whether article information was received from mounting apparatus 10'.

ステップS132の判断が肯定された場合には、ステップS134に移行し、制御部26は、装着装置10’から受信した物品情報を、見た物品の物品情報としてサーバ40’に送信し、ステップS136に移行する。一方、ステップS132の判断が否定された場合には、ステップS134を経ずにステップS136に移行する。   When the determination in step S132 is affirmed, the process proceeds to step S134, and the control unit 26 transmits the article information received from the mounting apparatus 10 ′ to the server 40 ′ as the article information of the viewed article, and step S136. Migrate to On the other hand, if the determination in step S132 is negative, the process proceeds to step S136 without passing through step S134.

ステップS136に移行すると、制御部26は、物品装置30’から物品情報を受信したか否かを判断する。ステップS136の判断が肯定された場合には、ステップS138に移行し、制御部26は、物品装置30’から受信した物品情報を、触れた物品の物品情報としてサーバ40’に送信し、ステップS140に移行する。一方、ステップS136の判断が否定された場合には、ステップS138を経ずにステップS140に移行する。   In step S136, the control unit 26 determines whether or not article information has been received from the article device 30 '. When the determination in step S136 is affirmed, the process proceeds to step S138, and the control unit 26 transmits the article information received from the article device 30 ′ to the server 40 ′ as the article information of the article touched, and step S140. Migrate to On the other hand, if the determination in step S136 is negative, the process proceeds to step S140 without passing through step S138.

ステップS140に移行すると、制御部26は、重量センサ27の検出値が変化したか否かを判断する。ここで、重量センサ27の検出値が変化した場合とは、物品がカゴ120内に新たに入れられたことを意味する。なお、カゴ120内の物品が取り出された場合も重量センサ27の検出値は変化するが、ここでは、説明の便宜上、カゴ120内から物品は取り出されないものとして説明する。ステップS140の判断が肯定された場合には、ステップS142に移行し、制御部26は、直前に触れていた物品の物品情報を、カゴに入れた物品の物品情報、すなわちユーザが購入予定の商品の情報としてサーバ40’に送信する。一方、ステップS140の判断が否定された場合には、ステップS142を経ずにステップS144に移行する。   If transfering it to step S140, the control part 26 will judge whether the detected value of the weight sensor 27 changed. Here, the case where the detection value of the weight sensor 27 changes means that an article has been newly placed in the basket 120. Note that the detection value of the weight sensor 27 also changes when the article in the basket 120 is taken out, but here, for convenience of explanation, it is assumed that the article is not taken out from the basket 120. If the determination in step S140 is affirmative, the process proceeds to step S142, and the control unit 26 uses the article information of the article that was touched immediately before, as the article information of the article that has been put in the basket, that is, the item that the user plans to purchase Information to the server 40 ′. On the other hand, if the determination in step S140 is negative, the process proceeds to step S144 without passing through step S142.

ステップS144に移行すると、制御部26は、サーバ40’から情報を受信したか否かを判断する。なお、サーバ40’から受信する情報とは、物品や店舗のサービスに関する情報である。このステップS144の判断が肯定された場合には、ステップS146に移行し、制御部26は、サーバ40’から受信した情報を装着装置10’に送信し、ステップS148に移行する。一方、ステップS144の判断が否定された場合には、ステップS146を経ずに、ステップS148に移行する。   In step S144, the control unit 26 determines whether information is received from the server 40 '. The information received from the server 40 ′ is information related to goods and store services. If the determination in step S144 is affirmative, the process proceeds to step S146, and the control unit 26 transmits the information received from the server 40 'to the mounting apparatus 10', and the process proceeds to step S148. On the other hand, if the determination in step S144 is negative, the process proceeds to step S148 without passing through step S146.

ステップS148に移行すると、制御部26は、レジ端末から入力があったか否かを判断する。ここで、レジ端末からの入力とは、前述したように、買い物終了情報の入力を意味する。   In step S148, the control unit 26 determines whether there is an input from the cashier terminal. Here, the input from the cash register terminal means the input of the shopping end information as described above.

ステップS148の判断が否定された場合には、ステップS132に移行し、ステップS132〜S148の処理・判断を繰り返すが、ステップS148の判断が肯定された場合には、制御部26は、図12の全処理を終了する。   If the determination in step S148 is negative, the process proceeds to step S132, and the processing and determination in steps S132 to S148 are repeated. If the determination in step S148 is affirmative, the control unit 26 End all processing.

(サーバ40’の処理)
図13には、サーバ40’の処理がフローチャートにて示されている。
(Processing of server 40 ')
FIG. 13 is a flowchart showing the process of the server 40 ′.

図13の処理では、ステップS150において、制御部46は、カゴ装置20’から物品情報を受信するまで待機する。すなわち、ユーザが見た物品の物品情報、ユーザが触れた物品の物品情報、カゴ120に入れた物品の物品情報のいずれかが入力された段階で、制御部46は、ステップS152に移行する。   In the process of FIG. 13, in step S150, the control unit 46 stands by until article information is received from the basket device 20 '. That is, the control unit 46 proceeds to step S152 when any of the article information of the article viewed by the user, the article information of the article touched by the user, and the article information of the article placed in the basket 120 is input.

ステップS152に移行すると、制御部46は、記憶部41に格納されている買い物DBを更新する。ここで、買い物DBは、図14(a)に示すようなデータ構造を有している。図14(a)に示すように、物品名、見た、手に触れた、カゴに入れた、の各欄を有する。制御部46は、ユーザが見た物品の物品情報を受信した場合、当該物品の見たの欄に○を格納し、ユーザが触れた物品の物品情報を受信した場合、当該物品の触れたの欄に○を格納し、ユーザがカゴに入れた物品の物品情報を受信した場合、当該物品のカゴに入れたの欄に○を格納する。   If transfering it to step S152, the control part 46 will update shopping DB stored in the memory | storage part 41. FIG. Here, the shopping DB has a data structure as shown in FIG. As shown to Fig.14 (a), it has each column of an article name, seen, touched the hand, and put in the basket. When the article information of the article viewed by the user is received, the control unit 46 stores ○ in the column of the article viewed, and when the article information of the article touched by the user is received, the control section 46 touched the article. ○ is stored in the column, and when the user receives the article information of the article placed in the basket, ○ is stored in the column of the article placed in the basket.

次いで、ステップS154では、制御部46は、買い物DBを分析する。例えば、制御部46は、図14(a)の買い物DBを参照して、牛肉Aを手に持ってから所定時間経過したような場合(新たな物品情報を所定時間受信しないような場合)には、牛肉Aと比較対照となり得る物品(例えば、牛肉B)の情報をユーザが必要としている可能性があると分析することができる。また、制御部46は、例えば、カゴに入れた物品から、ユーザがカレーを作ることを推定できるため、カレーを作る際に必要な牛肉の量(4皿分ならXg、8皿分ならYgなど)の情報をユーザが必要としている可能性があると分析することができる。また、制御部46は、カレーの付け合せ(福神漬けやロースカツ、デザートなど)のお買い得情報や、店舗のキャンペーン情報(あとZ円買えば、クジが引けるなど)の情報をユーザが必要としている可能性があると分析することができる。   Next, in step S154, the control unit 46 analyzes the shopping DB. For example, the control unit 46 refers to the shopping DB in FIG. 14A, and when the predetermined time has elapsed since the beef A was held in the hand (when new article information is not received for the predetermined time). Can analyze that there is a possibility that the user needs information on an article (for example, beef B) that can be compared with beef A. In addition, since the control unit 46 can estimate that the user makes curry from, for example, an article placed in the basket, the amount of beef required for making the curry (Xg for 4 dishes, Yg for 8 dishes, etc.) ) Information may be analyzed by the user. In addition, the control unit 46 may require the user to have information on curry garnish (Fukujinzuke, roasted cutlet, dessert, etc.) and bargain information on the store (if you buy more Z yen, you can get a lottery). Can be analyzed.

次いで、ステップS156では、制御部46は、ステップS154の分析の結果、ユーザに通知する情報が存在するか否かを判断する。ここでの判断が否定された場合には、ステップS150に戻るが、肯定された場合には、ステップS158に移行する。なお、同一の物品にユーザが複数回触れた場合や、以前触れた物品と類似する物品にユーザが触れた場合などにおいては、過去に通知した情報と同一の情報が、ユーザに通知する情報と判断される場合もある。したがって、制御部46は、過去に通知した情報と同一の情報については、ユーザに通知すべき情報ではないとして、通知を制限してもよい。すなわち、制御部46は、同一の物品に複数回触れた場合又は複数回見た場合、あるいは以前触れた又は見た物品と類似する物品に触れた又は見た場合に、通知される情報を制限することとしてもよい。このようにすることで、同一のユーザに同一の情報が繰り返し通知されるのを防止することができる。   Next, in step S156, the control unit 46 determines whether there is information to notify the user as a result of the analysis in step S154. If the determination is negative, the process returns to step S150. If the determination is positive, the process proceeds to step S158. In addition, when the user touches the same article several times, or when the user touches an article similar to the article touched before, the same information as the information notified in the past is the information notified to the user. Sometimes it is judged. Therefore, the control unit 46 may limit the notification, assuming that the same information as the information notified in the past is not information to be notified to the user. That is, the control unit 46 restricts information to be notified when the same article is touched or viewed multiple times, or when an article similar to the article touched or seen before is touched or viewed. It is good to do. In this way, it is possible to prevent the same information from being repeatedly notified to the same user.

なお、制御部46は、同じ物品に触れた回数や同じ物品を見た回数に応じて、通知すべき情報を変更することとしてもよい。例えば、制御部46は、1回目には物品そのものの情報、2回目にはその物品の比較対照となる物品の情報、3回目には物品に関連するお得情報、を通知すべき情報とすることとしてもよい。このようにすることで、物品の購入に迷っている客が当該物品を購入する可能性を向上することが可能となる。これに代えて、ユーザが同一の物品に触れた時間に応じて、2回目以降はユーザに通知していない情報からユーザに通知するようにしてもよい。   Note that the control unit 46 may change the information to be notified in accordance with the number of times the same article is touched or the number of times the same article is viewed. For example, the control unit 46 should notify the information of the article itself for the first time, the information of the article as a comparison reference of the article for the second time, and the profit information related to the article for the third time. It is good as well. By doing in this way, it becomes possible to improve the possibility that a customer who is confused about purchasing an article will purchase the article. Instead of this, the user may be notified from information not notified to the user for the second and subsequent times according to the time when the user touches the same article.

ステップS156の判断が肯定された場合、制御部46は、ステップS158に移行し、ユーザに通知する情報をカゴ装置20’に送信する。なお、ステップS158の処理が行われた場合、図12の処理では、ステップS144の判断が肯定され、ステップS146の処理(サーバから受信した情報を装着装置10’に送信する処理)が実行される。また、図12においてステップS146の処理が実行された場合、図11(a)のステップS116の判断が肯定され、ステップS118の処理(受信した情報を出力する処理)が実行される。ステップS118では、制御部17は、表示部12を用いて、ユーザに通知する情報を表示したり、スピーカ18を用いて、ユーザに通知する情報を出力したりする。なお、ステップS158の後は、ステップS150に戻り、ステップS150〜S158の処理を繰り返す。   When the determination in step S156 is affirmed, the control unit 46 proceeds to step S158, and transmits information notified to the user to the basket device 20 '. When the process of step S158 is performed, in the process of FIG. 12, the determination of step S144 is affirmed, and the process of step S146 (process for transmitting information received from the server to the mounting apparatus 10 ′) is executed. . In addition, when the process in step S146 is executed in FIG. 12, the determination in step S116 in FIG. 11A is affirmed, and the process in step S118 (process for outputting received information) is executed. In step S <b> 118, the control unit 17 displays information notified to the user using the display unit 12, or outputs information notified to the user using the speaker 18. In addition, after step S158, it returns to step S150 and repeats the process of step S150-S158.

なお、制御部46は、買い物が終了したユーザの買い物DB(例えば、図14(b))に基づいて、各種分析を行うこととしてもよい。この場合、制御部46は、例えば、図14(b)に基づいて、カレールーAとカレールーB、及び牛肉Aと牛肉Bが比較され、カレールーB、牛肉Bが購入されたことを分析することができる。また、制御部46は、店内を歩く順番、購入の順番などを分析することもできる。また、制御部46は、商品を見ただけで購入しなかった物品、手に取ったけど購入しなかった物品を特定し、分析することができる。制御部46は、分析結果を商品の製造元、販売元等に提供することとしてもよい。   In addition, the control part 46 is good also as performing various analysis based on shopping DB (for example, FIG.14 (b)) of the user who complete | finished shopping. In this case, for example, based on FIG. 14 (b), the control unit 46 compares Carreru A and Carrero B, and beef A and beef B, and analyzes that Carrero B and beef B have been purchased. it can. The control unit 46 can also analyze the order of walking in the store, the order of purchase, and the like. In addition, the control unit 46 can identify and analyze an article that was not purchased just by looking at the product, or an article that was picked up but not purchased. The control part 46 is good also as providing an analysis result to the manufacturer, sales agency, etc. of goods.

以上、詳細に説明したように、本第2の実施形態によると、制御部46は、物品をユーザが手にしたこと、及び物品がユーザの視野内の所定範囲に入ったことの少なくとも一方に応じて、物品の物品情報を入力し(S150:肯定)、入力した物品情報に関する通知を行う(S158)。したがって、本第2の実施形態では、ユーザが手に触れた物品やユーザが見た物品に関連した有用な情報を、ユーザに対して報知することができる。これにより、ユーザの使い勝手を向上することができる。   As described above in detail, according to the second embodiment, the control unit 46 determines that the user has picked up the article and / or that the article has entered a predetermined range within the user's field of view. In response, the article information of the article is input (S150: affirmative), and notification regarding the input article information is made (S158). Therefore, in the second embodiment, useful information related to an article touched by the user or an article viewed by the user can be notified to the user. Thereby, a user's usability can be improved.

また、本第2の実施形態では、制御部46は、物品情報としてカゴ120内に入れられたユーザが購入予定の商品の情報を入力し、入力した商品に応じた通知を行う。これにより、ユーザが購入予定の商品に関連した有用な情報を、ユーザに対して報知することができる。また、制御部46は、買い物時に使用されるカゴ装置20’から購入予定の商品の情報を入力するので、購入予定の商品の情報として正確な情報を入力することができる。   Further, in the second embodiment, the control unit 46 inputs information on a product scheduled to be purchased by the user put in the basket 120 as the item information, and performs notification according to the input product. Thereby, the user can be notified of useful information related to the product to be purchased. Moreover, since the control part 46 inputs the information of the goods scheduled to purchase from the basket apparatus 20 'used at the time of shopping, it can input accurate information as the information of the goods scheduled to purchase.

また、本第2の実施形態では、ユーザへの情報の通知を装着装置10’の表示部12や指向性のあるスピーカ18から行うので、他のユーザに知られることなく、ユーザごとにユーザの購買行動に応じた通知を行うことができる。   In the second embodiment, since the user is notified of information from the display unit 12 of the mounting apparatus 10 ′ or the directional speaker 18, the user's information is provided for each user without being known to other users. Notification according to purchase behavior can be performed.

なお、上記第2の実施形態では、制御部46は、ユーザがある物品を手に持ちながら、別の物品を見ている場合に、両商品を比較検討していると判断してもよい。   In the second embodiment, the control unit 46 may determine that the two products are being compared and examined when the user is looking at another item while holding the item.

なお、上記第2の実施形態では、スーパーマーケットにおいて電子機器システム100’を利用する例について説明したが、これに限らず、衣料品店等において電子機器システム100’を利用することとしてもよい。例えば、制御部46は、ユーザが服を手に取ったときに、色違い、サイズ違いなどの在庫の有無の情報、類似商品でセール中の商品があるか否かの情報、あと1着買うと値引き、あと2000円以上買うと値引きなどの値引き情報等を表示部12やスピーカ18を用いて報知することにより、他のユーザに知られることなく、特定のユーザ(店舗の会員などのお得意様)だけに通知することができる。また、サーバ40’は、店舗の会員のユーザが誕生日に来店した際に、装着装置10’に値引き情報、プレゼント情報、お祝いのメッセージを送信するようにしてもよい。   In the second embodiment, the example in which the electronic device system 100 ′ is used in the supermarket has been described. However, the present invention is not limited thereto, and the electronic device system 100 ′ may be used in a clothing store or the like. For example, when the user picks up clothes, the control unit 46 purchases one more piece of information about whether there is a stock, such as a different color or a different size, whether there is a similar product on sale, and so on. By discounting information such as discounts when using a display unit 12 or the speaker 18 when buying more than 2000 yen, a specific user (a member of a store, etc.) Can only be notified. Further, the server 40 ′ may transmit discount information, present information, and a congratulatory message to the mounting apparatus 10 ′ when a store user visits on the birthday.

なお、上記第2の実施形態では、制御部17は、装着装置10’において取得された物品情報をカゴ装置20’を経由してサーバ40’に送信する場合について説明したが、これに限られるものではない。例えば、装着装置10’が無線通信可能な通信部を有している場合には、無線通信により、装着装置10’からサーバ40’に情報を送信するようにしてもよい。   In the second embodiment, the control unit 17 has described the case where the article information acquired in the mounting device 10 ′ is transmitted to the server 40 ′ via the basket device 20 ′. However, the present invention is not limited to this. It is not a thing. For example, when the mounting apparatus 10 ′ has a communication unit capable of wireless communication, information may be transmitted from the mounting apparatus 10 ′ to the server 40 ′ by wireless communication.

なお、上記第2の実施形態では、物品装置30’が発光部34を有する場合について説明したが、これに限らず、物品装置30’は発光部34を有していなくてもよい。この場合、制御部17は、撮像部11が撮像した画像を解析することで、ユーザが見た物品を特定するようにすればよい。例えば、制御部17は、表示に含まれる文字(例えば商品タグやPOP広告の文字)を認識して、ユーザが見た物品を特定することとしてもよい。   In the second embodiment, the article device 30 ′ has the light emitting unit 34. However, the present invention is not limited thereto, and the article device 30 ′ may not have the light emitting unit 34. In this case, the control part 17 should just identify the article | item which the user saw by analyzing the image which the imaging part 11 imaged. For example, the control unit 17 may identify characters (for example, a product tag or a POP advertisement character) included in the display and specify an article viewed by the user.

なお、上記第1、第2の実施形態においては、制御部46は、情報を分析する際に、ユーザの種別を考慮することとしてもよい。ユーザの種別は店舗の会員であれば、登録されている情報(名前、生年月日、住所、買物履歴)から把握できる。この場合、ユーザの性別や年代ごとに、ユーザの購買行動を分析することとしてもよい。   In the first and second embodiments, the control unit 46 may consider the type of user when analyzing information. If the user type is a store member, it can be grasped from registered information (name, date of birth, address, shopping history). In this case, it is good also as analyzing a user's purchasing behavior for every sex and age of a user.

上述した各実施形態は本発明の好適な実施の例であり、適宜組み合わせることができる。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。   Each embodiment mentioned above is an example of suitable implementation of the present invention, and can be combined suitably. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.

10 装着装置
11 撮像部
12 表示部
16 通信部
17 制御部
18 スピーカ
20 カゴ装置
42 通信部
46 制御部
110 フレーム
120 カゴ
DESCRIPTION OF SYMBOLS 10 Wearing device 11 Imaging part 12 Display part 16 Communication part 17 Control part 18 Speaker 20 Basket apparatus 42 Communication part 46 Control part 110 Frame 120 Basket

Claims (15)

ユーザの購買に関する動作情報を入力する第1入力部と、
前記ユーザの購買に関する感情情報を入力する第2入力部と、を備えたことを特徴とする電子機器。
A first input unit for inputting operation information related to the user's purchase;
An electronic apparatus comprising: a second input unit that inputs emotion information related to the user's purchase.
前記第1入力部と前記第2入力部とが入力した情報に基づいて、前記ユーザの満足度または不満足度を検出する検出部を備えたことを特徴とする請求項1記載の電子機器。   The electronic apparatus according to claim 1, further comprising: a detection unit that detects satisfaction or dissatisfaction of the user based on information input by the first input unit and the second input unit. 前記第1入力部と前記第2入力部とが入力した情報に基づいて、前記ユーザへの対応を指示する指示部を備えたことを特徴とする請求項1または2記載の電子機器。   The electronic apparatus according to claim 1, further comprising: an instruction unit that instructs a response to the user based on information input by the first input unit and the second input unit. 前記第1入力部は、前記ユーザの手の動きに関する情報を入力することを特徴とする請求項1から3のいずれか一項に記載の電子機器。   4. The electronic device according to claim 1, wherein the first input unit inputs information related to a movement of the user's hand. 5. 前記第2入力部は、前記ユーザの生体に関する情報を入力することを特徴とする請求項1から4のいずれか一項に記載の電子機器。   The electronic device according to claim 1, wherein the second input unit inputs information related to the user's living body. 前記第1入力部及び前記第2入力部の少なくとも一方は、前記ユーザ側からの目に関する情報を入力することを特徴とする請求項1から5のいずれか一項に記載の電子機器。   6. The electronic apparatus according to claim 1, wherein at least one of the first input unit and the second input unit inputs information about an eye from the user side. 前記ユーザ側からの目に関する情報を取得する取得装置と通信可能な通信部を備えたことを特徴とする請求項6記載の電子機器。   The electronic apparatus according to claim 6, further comprising a communication unit capable of communicating with an acquisition device that acquires information about eyes from the user side. 前記通信部は、前記取得装置に設けられた通信部と通信することを特徴とする請求項7記載の電子機器。   The electronic device according to claim 7, wherein the communication unit communicates with a communication unit provided in the acquisition device. 前記通信部は、前記取得装置とは異なる通信中継装置を介して前記取得装置と通信することを特徴とする請求項7記載の電子機器。   The electronic device according to claim 7, wherein the communication unit communicates with the acquisition device via a communication relay device different from the acquisition device. 前記通信部は、前記通信中継装置との近接通信または人体通信を介して前記取得装置と通信することを特徴とする請求項9記載の電子機器。   The electronic device according to claim 9, wherein the communication unit communicates with the acquisition device via proximity communication or human body communication with the communication relay device. 前記取得装置は、撮像を行う撮像部を有し、
前記撮像部が撮像した撮像データを分析する分析部を備えたことを特徴とする請求項7から10のいずれか一項に記載の電子機器。
The acquisition device includes an imaging unit that performs imaging,
The electronic apparatus according to claim 7, further comprising an analysis unit that analyzes image data captured by the imaging unit.
前記第2入力部が入力する前記感情情報の変化に応じて、前記第1入力部が前記動作情報を入力することを特徴とする請求項1から11のいずれか一項に記載の電子機器。   The electronic device according to any one of claims 1 to 11, wherein the first input unit inputs the motion information in accordance with a change in the emotion information input by the second input unit. ユーザ側からの目に関する情報を入力する入力部と、
前記ユーザ側からの目に関する情報に基づいて前記ユーザの購買に関する感情情報を推定する推定部と、を備えたことを特徴とする電子機器。
An input unit for inputting information about the eyes from the user side;
An electronic device comprising: an estimation unit configured to estimate emotion information related to purchase of the user based on information related to eyes from the user side.
前記推定部は、前記ユーザ側からの目に関する情報が予め定められたパターンと一致又は類似するか否かに基づいて、前記ユーザの購買に関する感情情報を推定することを特徴とする請求項13に記載の電子機器。   The said estimation part estimates the emotion information regarding the said user's purchase based on whether the information regarding the eye from the said user corresponds or resembles a predetermined pattern, It is characterized by the above-mentioned. The electronic device described. ユーザの顔付近に装着可能な電子機器であって、
前記ユーザ側からの目に関する情報を取得する取得部と、
前記取得部が取得した情報を、人体通信を介して前記ユーザに接触している外部機器との間で通信する通信部と、備えたことを特徴とする電子機器。
An electronic device that can be worn near the user's face,
An acquisition unit for acquiring information about the eyes from the user side;
An electronic apparatus comprising: a communication unit that communicates information acquired by the acquisition unit with an external device that is in contact with the user via human body communication.
JP2013253402A 2013-12-06 2013-12-06 Electronic apparatus Pending JP2015111357A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013253402A JP2015111357A (en) 2013-12-06 2013-12-06 Electronic apparatus
PCT/JP2014/079678 WO2015083495A1 (en) 2013-12-06 2014-11-10 Electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013253402A JP2015111357A (en) 2013-12-06 2013-12-06 Electronic apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018017080A Division JP6504279B2 (en) 2018-02-02 2018-02-02 Electronic equipment system

Publications (2)

Publication Number Publication Date
JP2015111357A true JP2015111357A (en) 2015-06-18
JP2015111357A5 JP2015111357A5 (en) 2017-06-15

Family

ID=53526131

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013253402A Pending JP2015111357A (en) 2013-12-06 2013-12-06 Electronic apparatus

Country Status (1)

Country Link
JP (1) JP2015111357A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017201499A (en) * 2015-10-08 2017-11-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Control method of information presentation apparatus, and information presentation apparatus

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005531080A (en) * 2002-06-27 2005-10-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Content rating measurement via visual and speech recognition
JP2007058534A (en) * 2005-08-24 2007-03-08 Fujitsu Business Systems Ltd Customer taste information collection device and customer taste information collection method
JP2007328464A (en) * 2006-06-06 2007-12-20 Sharp Corp Buying activity management device, control method, control program and computer-readable recording medium with the control program recorded thereon
JP2009003701A (en) * 2007-06-21 2009-01-08 Denso Corp Information system and information processing apparatus
JP2010072828A (en) * 2008-09-17 2010-04-02 Olympus Corp Information presenting system, information processing system, program and information storage medium
JP2011065504A (en) * 2009-09-18 2011-03-31 Tokyo Univ Of Science Preference prediction server for generating prediction model concerning preference relation of user and method therefor
JP2011238029A (en) * 2010-05-11 2011-11-24 Seiko Epson Corp Customer service data recording device, customer service data recording method and program
WO2014013649A1 (en) * 2012-07-19 2014-01-23 株式会社ニコン Electronic apparatus and method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005531080A (en) * 2002-06-27 2005-10-13 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Content rating measurement via visual and speech recognition
JP2007058534A (en) * 2005-08-24 2007-03-08 Fujitsu Business Systems Ltd Customer taste information collection device and customer taste information collection method
JP2007328464A (en) * 2006-06-06 2007-12-20 Sharp Corp Buying activity management device, control method, control program and computer-readable recording medium with the control program recorded thereon
JP2009003701A (en) * 2007-06-21 2009-01-08 Denso Corp Information system and information processing apparatus
JP2010072828A (en) * 2008-09-17 2010-04-02 Olympus Corp Information presenting system, information processing system, program and information storage medium
JP2011065504A (en) * 2009-09-18 2011-03-31 Tokyo Univ Of Science Preference prediction server for generating prediction model concerning preference relation of user and method therefor
JP2011238029A (en) * 2010-05-11 2011-11-24 Seiko Epson Corp Customer service data recording device, customer service data recording method and program
WO2014013649A1 (en) * 2012-07-19 2014-01-23 株式会社ニコン Electronic apparatus and method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017201499A (en) * 2015-10-08 2017-11-09 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Control method of information presentation apparatus, and information presentation apparatus
US10691197B2 (en) 2015-10-08 2020-06-23 Panasonic Intellectual Property Corporation Of America Information presenting apparatus and control method therefor
US11275431B2 (en) 2015-10-08 2022-03-15 Panasonic Intellectual Property Corporation Of America Information presenting apparatus and control method therefor

Similar Documents

Publication Publication Date Title
US20220005095A1 (en) Augmented reality devices, systems and methods for purchasing
US11074610B2 (en) Sales promotion system, sales promotion method, non-transitory computer readable medium, and shelf system
US20190174284A1 (en) Physiologic Sensors for Sensing, Measuring, Transmitting, and Processing Signals
US20160203499A1 (en) Customer behavior analysis system, customer behavior analysis method, non-transitory computer readable medium, and shelf system
JP6800820B2 (en) People flow analysis method, people flow analyzer, and people flow analysis system
JP7081081B2 (en) Information processing equipment, terminal equipment, information processing method, information output method, customer service support method and program
JP2018005691A (en) Information processing system, information processing device and information processing method
JP2024009011A (en) Electronic device system
US20210192592A1 (en) Indoor Localization Enabled Shopping Assistance in Retail Stores
JP2015111358A (en) Electronic apparatus
CN104254861A (en) Method for assisting in locating an item in a storage location
JP2021140636A (en) Coupon issuing device, method and program
WO2015083495A1 (en) Electronic device
JP6504279B2 (en) Electronic equipment system
JP6508367B2 (en) Electronic device system and notification method
JP2015111357A (en) Electronic apparatus
JP2019114293A (en) Electronic apparatus
JP2019159156A (en) Display controller and control program
JP2021039784A (en) Purchase product estimation device
US20220027952A1 (en) Sales support system
WO2023112519A1 (en) Wearable device, information processing method, information processing program, and information providing system
US11663637B2 (en) System and method for accessing data via smart articles including purchasing data
JP2022145136A (en) Wearable article presenting system and wearable article presenting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170508

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170725

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180605