JP6504279B2 - Electronic equipment system - Google Patents

Electronic equipment system Download PDF

Info

Publication number
JP6504279B2
JP6504279B2 JP2018017080A JP2018017080A JP6504279B2 JP 6504279 B2 JP6504279 B2 JP 6504279B2 JP 2018017080 A JP2018017080 A JP 2018017080A JP 2018017080 A JP2018017080 A JP 2018017080A JP 6504279 B2 JP6504279 B2 JP 6504279B2
Authority
JP
Japan
Prior art keywords
user
unit
information
input
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018017080A
Other languages
Japanese (ja)
Other versions
JP2018067360A (en
Inventor
啓 志賀
啓 志賀
洋治 内山
洋治 内山
一皇 伊三木
一皇 伊三木
由桂 有馬
由桂 有馬
雄飛 降矢
雄飛 降矢
政一 関口
政一 関口
直樹 關口
直樹 關口
雄 村越
雄 村越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2018017080A priority Critical patent/JP6504279B2/en
Publication of JP2018067360A publication Critical patent/JP2018067360A/en
Application granted granted Critical
Publication of JP6504279B2 publication Critical patent/JP6504279B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、電子機器システムに関する。
The present invention relates to an electronic device system .

従来より、来店者の商品の購買に関する行動情報を取得し、その情報を販売促進に結びつける販売促進システムが提案されている(例えば、特許文献1参照)。   Heretofore, there has been proposed a sales promotion system which acquires behavior information related to purchase of goods by customers and links the information to sales promotion (see, for example, Patent Document 1).

特開2010−277256号公報JP, 2010-277256, A

しかしながら、従来の販売促進システムでは、必要な情報が十分に取得できているとはいえず、使い勝手がよいとはいえなかった。   However, in the conventional sales promotion system, it can not be said that necessary information can be sufficiently acquired, and it can not be said that it is convenient.

本発明は上記の課題に鑑みてなされたものであり、使い勝手のよい電子機器を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an easy-to-use electronic device.

本発明の電子機器は、ユーザの購買に関する動作情報を入力する第1入力部(42、46)と、前記ユーザの購買に関する感情情報を入力する第2入力部(42,46)と、を備えている。   The electronic device according to the present invention includes a first input unit (42, 46) for inputting operation information related to a user's purchase, and a second input unit (42, 46) for inputting emotion information related to the user's purchase. ing.

この場合において、前記第1入力部と前記第2入力部とが入力した情報に基づいて、前記ユーザの満足度または不満足度を検出する検出部(46)を備えていてもよい。また、前記第1入力部と前記第2入力部とが入力した情報に基づいて、前記ユーザへの対応を指示する指示部(46)を備えていてもよい。また、前記第1入力部は、前記ユーザの手の動きに関する情報を入力することとしてもよい。また、前記第2入力部は、前記ユーザの生体に関する情報を入力することとしてもよい。   In this case, a detection unit (46) may be provided to detect the degree of satisfaction or dissatisfaction of the user based on the information input by the first input unit and the second input unit. Further, an instruction unit (46) may be provided which instructs the user to respond based on the information input by the first input unit and the second input unit. Further, the first input unit may input information related to the movement of the user's hand. Further, the second input unit may input information on the living body of the user.

また、本発明の電子機器においては、前記第1入力部及び前記第2入力部の少なくとも一方は、前記ユーザ側からの目に関する情報を入力することとしてもよい。この場合、前記ユーザ側からの目に関する情報を取得する取得装置と通信可能な通信部(42)を備えていてもよい。この場合、前記通信部は、前記取得装置に設けられた通信部(25)と通信することとしてもよい。また、前記通信部は、前記取得装置とは異なる通信中継装置(20)を介して前記取得装置と通信することとしてもよい。この場合、前記通信部は、前記通信中継装置との近接通信または人体通信を介して前記取得装置と通信することとしてもよい。また、前記取得装置は、撮像を行う撮像部(11)を有し、前記撮像部が撮像した撮像データを分析する分析部(46)を備えていてもよい。   Further, in the electronic device of the present invention, at least one of the first input unit and the second input unit may input information on eyes from the user side. In this case, a communication unit (42) that can communicate with an acquisition device that acquires information on eyes from the user side may be provided. In this case, the communication unit may communicate with a communication unit (25) provided in the acquisition device. The communication unit may communicate with the acquisition device via a communication relay device (20) different from the acquisition device. In this case, the communication unit may communicate with the acquisition device via near field communication or human body communication with the communication relay device. The acquisition device may include an imaging unit (11) that performs imaging, and an analysis unit (46) that analyzes imaging data captured by the imaging unit.

また、本発明の電子機器においては、前記第2入力部が入力する前記感情情報の変化に応じて、前記第1入力部が前記動作情報を入力することとしてもよい。   Further, in the electronic device according to the present invention, the first input unit may input the operation information in accordance with a change in the emotion information input by the second input unit.

本発明の電子機器は、ユーザ側からの目に関する情報を入力する入力部(42,46)と、前記ユーザ側からの目に関する情報に基づいて前記ユーザの購買に関する感情情報を推定する推定部(46)と、を備えている。   The electronic device according to the present invention comprises an input unit (42, 46) for inputting information on eyes from the user side, and an estimation unit for estimating emotion information on purchase of the user based on information on eyes from the user side 46) and.

この場合において、前記推定部は、前記ユーザ側からの目に関する情報が予め定められたパターンと一致又は類似するか否かに基づいて、前記ユーザの購買に関する感情情報を推定することとしてもよい。   In this case, the estimation unit may estimate emotion information on the purchase of the user based on whether the information on the eye from the user matches or is similar to a predetermined pattern.

本発明の電子機器は、ユーザの顔付近に装着可能な電子機器(10)であって、前記ユーザ側からの目に関する情報を取得する取得部(17)と、前記取得部が取得した情報を、人体通信を介して前記ユーザに接触している外部機器(20)との間で通信する通信部(16)と、備えている。   An electronic device according to the present invention is an electronic device (10) attachable to the vicinity of a user's face, the acquisition unit (17) acquiring information on eyes from the user side, and the information acquired by the acquisition unit And a communication unit (16) for communicating with an external device (20) in contact with the user via human body communication.

なお、本発明をわかりやすく説明するために、上記においては一実施形態を表す図面の符号に対応つけて説明したが、本発明は、これに限定されるものではなく、後述の実施形態の構成を適宜改良しても良く、また、少なくとも一部を他の構成物に代替させても良い。更に、その配置について特に限定のない構成要件は、実施形態で開示した配置に限らず、その機能を達成できる位置に配置することができる。   Note that although the present invention has been described above in association with the reference numerals of the drawings representing one embodiment in order to explain the present invention in an easy-to-understand manner, the present invention is not limited to this. May be improved as appropriate, and at least a part may be replaced with another component. Furthermore, the configuration requirements without particular limitation on the arrangement are not limited to the arrangements disclosed in the embodiments, and can be arranged at positions where the functions can be achieved.

本発明は、使い勝手のよい電子機器を提供することができるという効果を奏する。   The present invention has the effect of being able to provide a user-friendly electronic device.

第1の実施形態に係る電子機器システムの構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of an electronic device system according to a first embodiment. 装着装置、カゴ装置、物品装置の利用状況を示す図である。It is a figure which shows the utilization condition of a mounting apparatus, a cage apparatus, and an articles | goods apparatus. 装着装置の斜視図である。It is a perspective view of a mounting device. 図4(a)は、第1の実施形態にかかる装着装置の処理を示すフローチャートであり、図4(b)は、第1の実施形態にかかる物品装置の処理を示すフローチャートである。Fig.4 (a) is a flowchart which shows a process of the mounting apparatus concerning 1st Embodiment, FIG.4 (b) is a flowchart which shows the process of the articles | goods apparatus concerning 1st Embodiment. 第1の実施形態にかかるカゴ装置の処理を示すフローチャートである。It is a flow chart which shows processing of a basket device concerning a 1st embodiment. 第1の実施形態にかかるサーバの処理を示すフローチャートである。It is a flowchart which shows the process of the server concerning 1st Embodiment. 図7(a)、図7(b)は、視線画像の例を示す図(その1)である。FIG. 7A and FIG. 7B are diagrams (part 1) showing an example of a gaze image. 視線画像の例を示す図(その2)である。It is a figure (the 2) showing an example of a look image. あるユーザが入店してからレジを通るまでの間に、手に取った物品の順を示す図である。It is a figure which shows the order of the articles | goods picked up by a certain user from entering a store until it passes a cash register. 第2の実施形態に係る電子機器システムの構成を示すブロック図である。It is a block diagram which shows the structure of the electronic device system which concerns on 2nd Embodiment. 図11(a)は、第2の実施形態にかかる装着装置の処理を示すフローチャートであり、図11(b)は、第2の実施形態にかかる物品装置の処理を示すフローチャートである。Fig.11 (a) is a flowchart which shows a process of the mounting apparatus concerning 2nd Embodiment, FIG.11 (b) is a flowchart which shows the process of the articles | goods apparatus concerning 2nd Embodiment. 第2の実施形態にかかるカゴ装置の処理を示すフローチャートである。It is a flow chart which shows processing of a basket device concerning a 2nd embodiment. 第2の実施形態にかかるサーバの処理を示すフローチャートである。It is a flowchart which shows the process of the server concerning 2nd Embodiment. 図14(a)、図14(b)は、買い物DBの一例を示す図である。Fig.14 (a) and FIG.14 (b) are figures which show an example of shopping DB.

《第1の実施形態》
以下、第1の実施形態に係る電子機器システムについて、図1〜図9に基づいて、詳細に説明する。図1には、第1の実施形態に係る電子機器システム100の構成がブロック図にて示されている。
First Embodiment
Hereinafter, the electronic device system according to the first embodiment will be described in detail based on FIGS. 1 to 9. FIG. 1 is a block diagram showing the configuration of the electronic device system 100 according to the first embodiment.

電子機器システム100は、図1に示すように、装着装置10と、カゴ装置20と、物品装置30と、サーバ40と、を備える。図2に示すように、装着装置10は、店舗に来店したユーザ(買い物客)が顔に装着する眼鏡型の端末である。カゴ装置20は、店舗に設置されたカゴ120に設けられる装置である。物品装置30は、店舗内に陳列された物品(商品)130に設けられる装置である。サーバ40は、店舗内やデータセンタなどに設けられる情報処理装置である。なお、装着装置10とカゴ装置20との間、及び物品装置30とカゴ装置20との間は、人体を介した通信(人体通信)が可能とされ、カゴ装置20とサーバ40との間は、無線通信が可能とされている。   As shown in FIG. 1, the electronic device system 100 includes a mounting device 10, a basket device 20, an article device 30, and a server 40. As shown in FIG. 2, the mounting device 10 is a glasses-type terminal worn on the face by a user (shopper) who visits a store. The basket device 20 is a device provided to the basket 120 installed in a store. The article apparatus 30 is an apparatus provided to an article (goods) 130 displayed in a store. The server 40 is an information processing apparatus provided in a store or a data center. Note that communication between the mounting device 10 and the basket device 20, and between the article device 30 and the basket device 20, enables communication (human body communication) via the human body, and between the basket device 20 and the server 40. , Wireless communication is possible.

(装着装置10)
装着装置10は、図1に示すように、撮像部11、表示部12、操作部13、マイク14、記憶部15、通信部16および制御部17を備える。なお、図3には、装着装置10が斜視図にて示されている。図3に示すように、装着装置10は、眼鏡型のフレーム110を備えている。なお、図1において図示され、図3において図示されていない装着装置10の構成は、フレーム110の内部や、フレーム110の一部に設けられているものとする。
(Mounting device 10)
The mounting apparatus 10 includes an imaging unit 11, a display unit 12, an operation unit 13, a microphone 14, a storage unit 15, a communication unit 16, and a control unit 17, as shown in FIG. In addition, the mounting apparatus 10 is shown by the perspective view in FIG. As shown in FIG. 3, the mounting device 10 includes a spectacles-type frame 110. The configuration of the mounting apparatus 10 illustrated in FIG. 1 and not illustrated in FIG. 3 is provided inside the frame 110 or in part of the frame 110.

撮像部11は、レンズ、撮像素子、画像処理部などを備え、静止画や動画を撮像するものである。撮像部11は、図3に示すようにフレーム110の端部近傍(ユーザの右目近傍)に設けられている。このため、ユーザが装着装置10を装着した状態(図2の状態)では、ユーザが向いている(見ている)方向の画像を撮像することができる。また、撮像された画像の所定部分(例えば、中心からやや左側にずれた部分)は、ユーザが視線を向けている部分(注視している部分)とみなすことができる。   The imaging unit 11 includes a lens, an imaging element, an image processing unit, and the like, and images a still image or a moving image. The imaging unit 11 is provided near the end of the frame 110 (near the user's right eye), as shown in FIG. Therefore, when the user wears the mounting apparatus 10 (the state shown in FIG. 2), it is possible to capture an image in the direction in which the user is facing (looking at). In addition, a predetermined part of the captured image (for example, a part slightly shifted to the left side from the center) can be regarded as a part (part in which the user is looking at).

表示部12は、フレーム110内部又はフレーム110近傍に設けられたプロジェクタと、プロジェクタからの投影像をユーザの目に導くためのプリズムとを有している。表示部12は、制御部17の指示の下、各種情報を表示する。   The display unit 12 includes a projector provided inside the frame 110 or in the vicinity of the frame 110, and a prism for guiding a projected image from the projector to the eyes of the user. The display unit 12 displays various information under the instruction of the control unit 17.

操作部13は、フレーム110に設けられたタッチパッドであり、ユーザの指の動きを検知して、ユーザからの操作を受け付け、受け付けた操作情報を制御部17に送信する。   The operation unit 13 is a touch pad provided in the frame 110. The operation unit 13 detects the movement of the user's finger, receives an operation from the user, and transmits the received operation information to the control unit 17.

なお、撮像部11、表示部12、操作部13については、例えば、米国公開特許2013/0044042号にもその詳細が開示されている。   The details of the imaging unit 11, the display unit 12, and the operation unit 13 are also disclosed, for example, in US Patent Application Publication No. 2013/0044042.

マイク14は、フレーム110に設けられ、ユーザが発した音声やユーザの周辺の音声を収集する。マイク14が収集した音声は、不図示の音声認識部により音声認識され、音声認識結果は、制御部17に送信される。制御部17は、音声認識結果に基づく処理(例えば、コマンドの実行処理など)を実行する。なお、制御部17が音声認識を実行してもよい。また、制御部17は、収集した音声データを記憶部15に格納する。   The microphone 14 is provided in the frame 110 and collects voices uttered by the user and voices around the user. The voice collected by the microphone 14 is voice-recognized by a voice recognition unit (not shown), and the voice recognition result is transmitted to the control unit 17. The control unit 17 executes a process (for example, an execution process of a command) based on the speech recognition result. The control unit 17 may execute speech recognition. Further, the control unit 17 stores the collected voice data in the storage unit 15.

記憶部15は、例えば、フラッシュメモリ等の不揮発性の半導体メモリであり、撮像部11が撮像した画像データや、マイク14が集音した音声データ、表示部12に表示する表示データなどを記憶する。   The storage unit 15 is, for example, a nonvolatile semiconductor memory such as a flash memory, and stores image data captured by the imaging unit 11, audio data collected by the microphone 14, display data displayed on the display unit 12, and the like. .

通信部16は、他の機器と人体通信を行うものである。通信部16は、フレーム110に設けられユーザと接触可能な電極部16aと、電極部16aを用いて人体通信を行う人体通信部16bと、を有する。なお、人体通信には、人体に微弱な電流を流して、その電流を変調して情報を伝達する電流方式や、人体の表面に誘起する電界を変調して情報を伝達する電界方式などがある。本実施形態では、電流方式及び電界方式のいずれのタイプを用いることも可能である。なお、ユーザが装着装置10の電極部16aに直接接触する場合はもちろん、電極部16aとユーザとが直接接触していない場合でも、人体通信は可能である。本実施形態において、通信部16は、撮像部11が撮像した画像データやマイク14が収集した音声データをカゴ装置20に送信するものである。なお、通信部16は、他の機器と例えばBluetooth(登録商標)、RFID(Radio Frequency Identification)、TransferJet(登録商標)などの近接通信を行ってもよい。   The communication unit 16 performs human body communication with other devices. The communication unit 16 includes an electrode unit 16a provided on the frame 110 and capable of contacting the user, and a human body communication unit 16b performing human body communication using the electrode unit 16a. Human body communication includes a current method in which a weak current is supplied to the human body to modulate the current to transmit information, and an electric field method in which the electric field induced on the surface of the human body is modulated to transmit information. . In the present embodiment, it is possible to use any type of current system and electric field system. Note that human body communication is possible not only when the user directly contacts the electrode unit 16a of the mounting apparatus 10, but also when the electrode unit 16a and the user are not directly contacting. In the present embodiment, the communication unit 16 transmits the image data captured by the imaging unit 11 and the audio data collected by the microphone 14 to the car apparatus 20. The communication unit 16 may perform proximity communication with another device, such as Bluetooth (registered trademark), RFID (Radio Frequency Identification), TransferJet (registered trademark), or the like.

なお、通信部16に代えて、もしくは通信部16と併用して無線通信部を装着装置10に持たせてもよい。この場合、画像データや音声データを無線通信によりサーバ40に直接送信するようにしてもよいし、画像データや音声データを無線通信によりカゴ装置20に送信してもよい。   The mounting apparatus 10 may have a wireless communication unit instead of the communication unit 16 or in combination with the communication unit 16. In this case, image data and audio data may be directly transmitted to the server 40 by wireless communication, or image data and audio data may be transmitted to the car apparatus 20 by wireless communication.

制御部17は、装着装置10全体を統括的に制御する。制御部17は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備える。本実施形態では、制御部17は、撮像部11の撮像に関する制御や、表示部12の表示に関する制御などを行う。   The control unit 17 controls the entire mounting device 10 in an integrated manner. The control unit 17 includes a central processing unit (CPU), a random access memory (RAM), a read only memory (ROM), and the like. In the present embodiment, the control unit 17 performs control related to imaging of the imaging unit 11, control related to display of the display unit 12, and the like.

なお、装着装置10は、眼鏡型の端末ではなくてもよい。例えば、体の任意の位置に装着可能な装着型端末であってもよく、その機能の一部が分離していてもよい。一例を挙げると、表示部を備えたコンタクトレンズ型の端末として、他の機能を腕時計型の端末に持たせるようにしてもよい。   The mounting device 10 may not be a glasses-type terminal. For example, it may be a wearable terminal wearable at any position on the body, and part of its functions may be separated. As one example, as a contact lens type terminal provided with a display unit, another function may be provided to a wristwatch type terminal.

(カゴ装置20)
カゴ装置20は、図1に示すように、生体センサ21、カレンダ部22、記憶部23、第1通信部24、第2通信部25、及び制御部26等を備える。
(The basket device 20)
As illustrated in FIG. 1, the basket device 20 includes a biometric sensor 21, a calendar unit 22, a storage unit 23, a first communication unit 24, a second communication unit 25, a control unit 26, and the like.

生体センサ21は、カゴ120のうち、ユーザがカゴ120を持つ際に手が触れる部分(持ち手部分)に設けられる。生体センサ21は、心拍数、血圧、発汗量などの体の生体情報の変化を検出するものであって、例えば、LED(light emitting diode)及びフォトセンサ、並びに、発汗センサを含む。例えば、LED及びフォトセンサを用いることで、LEDの照射する光を指に当てたときに反射する光をフォトセンサで受光することにより心拍数を検出することができる。また、発汗センサは、複数の電極により手のインピーダンスを測定することにより、発汗量を検出することができる。本実施形態においては、生体センサ21からの出力は、制御部26に送られる。そして、制御部26では、生体センサ21の出力に基づいてユーザの感情(喜怒哀楽)の変化を推定する。   The biological sensor 21 is provided in a portion (hand portion) of the basket 120 that the user can touch when the user holds the basket 120. The biological sensor 21 detects a change in biological information of the body such as heart rate, blood pressure, sweat rate, and includes, for example, an LED (light emitting diode) and a photosensor, and a sweat sensor. For example, by using an LED and a photo sensor, a heart rate can be detected by receiving light reflected by the light emitted from the LED with a finger using the photo sensor. In addition, the perspiration sensor can detect the amount of perspiration by measuring the impedance of the hand with a plurality of electrodes. In the present embodiment, the output from the biological sensor 21 is sent to the control unit 26. Then, the control unit 26 estimates a change in the user's emotion (morning emotion) based on the output of the living body sensor 21.

カレンダ部22は、年、月、日、時刻といった時間情報を取得して、制御部26に対して出力する。また、カレンダ部22は計時を行う。   The calendar unit 22 acquires time information such as year, month, day, and time, and outputs the time information to the control unit 26. In addition, the calendar unit 22 measures time.

記憶部23は、例えば、フラッシュメモリ等の不揮発性の半導体メモリであり、後述するようにユーザが手にした物品に関する情報を記憶するものである。また、記憶部23は、カゴ装置20を一意に識別するためのID番号(カゴID)を記憶する。   The storage unit 23 is, for example, a non-volatile semiconductor memory such as a flash memory, and stores information related to an item obtained by the user as described later. The storage unit 23 also stores an ID number (car ID) for uniquely identifying the car apparatus 20.

第1通信部24は、他の機器と人体通信を行うものである。なお、第1通信部24は、他の機器と近接通信を行うこととしてもよい。本実施形態においては、第1通信部24は、人体通信を用いて装着装置10の通信部16及び物体装置30の通信部32と通信を行う。   The first communication unit 24 performs human body communication with another device. The first communication unit 24 may perform near-field communication with another device. In the present embodiment, the first communication unit 24 communicates with the communication unit 16 of the mounting apparatus 10 and the communication unit 32 of the object apparatus 30 using human body communication.

第1通信部24は、カゴ120の持ち手部分に設けられた、ユーザの手や腕と接触可能な電極部24aと、電極部24aを介して人体通信を行う人体通信部24bと、を有する。   The first communication unit 24 includes an electrode unit 24a provided on the handle of the basket 120 and capable of contacting the user's hand or arm, and a human body communication unit 24b performing human body communication via the electrode unit 24a. .

第2通信部25は、他の装置との間で無線通信を行うものである。本実施形態においてはサーバ40との間で無線通信を行い、ユーザが手に触れた物品の物品情報や、撮像部11が撮像した画像データ、マイク14が収集した音声データ、生体センサ21の検出結果をサーバ40に送信するものである。なお、本実施形態のカゴ装置20は、物品装置30とサーバ40との間における物品情報の通信、及び装着装置10とサーバ40との間における画像データや音声データの通信を中継する通信中継装置としての機能を有している。   The second communication unit 25 performs wireless communication with another device. In the present embodiment, wireless communication is performed with the server 40, and article information of an article touched by the user, image data captured by the imaging unit 11, voice data collected by the microphone 14, detection of the biological sensor 21 The result is sent to the server 40. The basket device 20 according to the present embodiment is a communication relay device that relays communication of item information between the item device 30 and the server 40 and communication of image data and voice data between the mounting device 10 and the server 40. It has a function as

制御部26は、カゴ装置20全体を制御するものであり、CPU、RAM、ROM等を備える。本実施形態では、制御部26は、物品装置30、装着装置10及びサーバ40との間における情報通信の制御を行う。   The control unit 26 controls the entire basket device 20, and includes a CPU, a RAM, a ROM, and the like. In the present embodiment, the control unit 26 controls information communication between the article device 30, the mounting device 10, and the server 40.

なお、カゴ装置20は、店舗で利用されるカートに設けることとしてもよい。この場合、生体センサ21や第1通信部24の電極部24aは、カートのグリップ部分に設けることが好ましい。   The basket device 20 may be provided in a cart used in a store. In this case, it is preferable to provide the living body sensor 21 and the electrode unit 24 a of the first communication unit 24 in the grip portion of the cart.

(物品装置30)
物品装置30は、店舗等で販売される物品(商品)であって、食料品、衣服、靴、時計、アクセサリー、ゴルフクラブ、バッグ等、来店者(ユーザ)の身体に接触する物品に設けられる。本実施形態では、説明の便宜上、物品装置30は、スーパーマーケットに陳列された商品(食料品等)に設けられているものとして説明する。
(Article device 30)
The article device 30 is an article (article) sold in a store or the like, and is provided to an article that comes in contact with the body of a visitor (user), such as food, clothes, shoes, watches, accessories, golf clubs, and bags. . In the present embodiment, for convenience of explanation, the article apparatus 30 will be described as being provided in a commodity (food, etc.) displayed in a supermarket.

物品装置30は、図1に示すように、記憶部31と、通信部32と、制御部33と、を備える。   The article apparatus 30 includes a storage unit 31, a communication unit 32, and a control unit 33, as shown in FIG.

記憶部31は、例えば、フラッシュメモリ等の不揮発性の半導体メモリであり、物品装置30が取り付けられた物品(商品)に関する情報を記憶する。具体的には、記憶部31は、物品装置30が取り付けられた物品の物品情報(商品情報)を記憶する。例えば、物品装置30が加工食品(例えば缶詰)に取り付けられている場合には、記憶部31は、物品情報として、製造者(販売者)、商品名、原材料名、賞味期限、内容量、原産国等を記憶する。   The storage unit 31 is, for example, a non-volatile semiconductor memory such as a flash memory, and stores information on an article (article) to which the article apparatus 30 is attached. Specifically, the storage unit 31 stores the item information (item information) of the item to which the item device 30 is attached. For example, when the article device 30 is attached to a processed food (for example, canned food), the storage unit 31 uses the article information as the manufacturer (seller), the product name, the raw material name, the expiration date, the content, the origin Remember the country etc.

制御部33は、物品装置30全体を制御するものであり、CPU、RAM、ROM等を備える。本実施形態では、制御部33は、記憶部31に記憶されている物品情報のカゴ装置20への送信を制御している。なお、制御部33及び記憶部31は物品のいずれの位置に設けられても構わない。   The control unit 33 controls the entire article apparatus 30, and includes a CPU, a RAM, a ROM, and the like. In the present embodiment, the control unit 33 controls the transmission of the item information stored in the storage unit 31 to the basket device 20. In addition, the control part 33 and the memory | storage part 31 may be provided in any position of articles | goods.

通信部32は、他の機器と人体通信を行うものである。なお、通信部32は、他の機器と近接通信を行うこととしてもよい。本実施形態において、通信部32は、ユーザ(例えば手)と接触する位置に設けられる電極部32aと、電極部32aを用いて人体通信を行う人体通信部32bと、を備える。本実施形態では、図2に示すように、カゴ120を持ったユーザが物品130を手にした状態で、カゴ装置20の第1通信部24と物品装置30の通信部32との間の人体通信が成立する。これにより、記憶部31に記憶された物品情報がカゴ装置20に送信される。なお、ユーザが物品装置30の電極部32aに直接接触する場合はもちろん、電極部32aとユーザとが直接接触していない場合(手袋をしている場合など)でも、人体通信は可能である。   The communication unit 32 performs human body communication with other devices. The communication unit 32 may perform close proximity communication with another device. In the present embodiment, the communication unit 32 includes an electrode unit 32a provided at a position in contact with a user (for example, a hand), and a human body communication unit 32b performing human body communication using the electrode unit 32a. In the present embodiment, as shown in FIG. 2, the human body between the first communication unit 24 of the basket device 20 and the communication unit 32 of the article device 30 with the article 130 held by the user holding the basket 120. Communication is established. As a result, the article information stored in the storage unit 31 is transmitted to the basket device 20. Note that human body communication is possible not only when the user directly contacts the electrode unit 32a of the article apparatus 30, but also when the electrode unit 32a and the user are not in direct contact (eg, when wearing gloves).

(サーバ40)
サーバ40は、図1に示すように、記憶部41と、通信部42と、OCR(Optical Character Reader)部43と、画像認識部44と、制御部46と、を備える。
(Server 40)
As illustrated in FIG. 1, the server 40 includes a storage unit 41, a communication unit 42, an optical character reader (OCR) unit 43, an image recognition unit 44, and a control unit 46.

記憶部41は、例えば、フラッシュメモリ等の不揮発性の半導体メモリや、ハードディスクドライブ等であり、カゴ装置20から取得した情報、すなわち、装着装置10の撮像部11が撮像した画像データやマイク14を用いて収集した音声データ、物品装置30から送信されてきた物品情報を記憶する。また、記憶部41は、店舗の従業員(店員)の顔画像データや商品画像データ、及びユーザの購入行動を分析する際に用いる各種データを記憶している。本実施形態においては、制御部46は、後述するように、画像認識部44と協働して装着装置10の撮像部11が撮像した画像データに従業員の顔や商品が含まれているかどうかを検出する。   The storage unit 41 is, for example, a non-volatile semiconductor memory such as a flash memory, a hard disk drive or the like, and information acquired from the basket device 20, that is, image data captured by the imaging unit 11 of the mounting device 10 or the microphone 14 The voice data collected by use and the article information transmitted from the article apparatus 30 are stored. In addition, the storage unit 41 stores face image data and product image data of an employee (shop clerk) of a store, and various data used when analyzing the purchase behavior of the user. In the present embodiment, as described later, the control unit 46 determines whether the image data captured by the imaging unit 11 of the mounting apparatus 10 in cooperation with the image recognition unit 44 includes the employee's face and goods. To detect

通信部42は、他の機器と無線通信を行うものである。本実施形態では、通信部42は、無線通信によりカゴ装置20の第2通信部25と無線通信を行う。   The communication unit 42 performs wireless communication with another device. In the present embodiment, the communication unit 42 performs wireless communication with the second communication unit 25 of the car apparatus 20 by wireless communication.

OCR部43は、装着装置10の撮像部11が撮像した画像データに含まれる文字を認識して、テキストデータに変換する。例えば、撮像部11が、図7(b)の画像データを撮像した場合、OCR部43は、文字認識をして、テキストデータ「申し訳ございません。現在入荷待ちです。次回入荷時期は未定です。」を取得する。   The OCR unit 43 recognizes characters included in the image data captured by the imaging unit 11 of the mounting apparatus 10 and converts the characters into text data. For example, when the imaging unit 11 captures the image data of FIG. 7 (b), the OCR unit 43 recognizes characters, and the text data "Sorry. Currently waiting for arrival. The next arrival date is undecided. To get

画像認識部44は、装着装置10の撮像部11が撮像した画像データの特徴点を、例えばSURF(Speeded Up Robust Features)やSHIFT(Scale Invariant Feature Transform)といった特徴量検出アルゴリズムにより抽出し、記憶部41に記憶されている複数の認識対象の標準パターンと比較することにより画像認識を行う。本実施形態においては、画像認識部44は、記憶部41に記憶されている従業員の顔画像データや商品画像データとの比較を行って、撮像部11が撮像した画像に従業員や商品が含まれているかどうかを検出する。   The image recognition unit 44 extracts feature points of the image data captured by the imaging unit 11 of the mounting apparatus 10 using a feature amount detection algorithm such as SURF (Speeded Up Robust Features) or SHIFT (Scale Invariant Feature Transform), for example. The image recognition is performed by comparison with a plurality of standard patterns to be recognized stored in 41. In the present embodiment, the image recognition unit 44 compares the employee's face image data and product image data stored in the storage unit 41 with the employee and the product in the image captured by the imaging unit 11. Detect if it is included.

制御部46は、サーバ40全体を制御するものであり、CPU、RAM、ROM等を備える。   The control unit 46 controls the entire server 40, and includes a CPU, a RAM, a ROM, and the like.

次に、図4〜図9を用いて、電子機器システム100の処理について、詳細に説明する。なお、本実施形態では、装着装置10を装着しているユーザ(買い物客)が店舗(例えば、スーパーマーケット)に来店した際に、カゴ120を保持して、買い物を行うものとする。また、ユーザは、店舗内で物品装置30が設けられた物品(商品)30を手に取ったり、カゴ120に入れたりすることで、購入する物品を決定し、レジで購入処理を行うものとする。   Next, processing of the electronic device system 100 will be described in detail using FIGS. 4 to 9. In the present embodiment, when the user (shopper) wearing the mounting apparatus 10 visits a store (for example, a supermarket), the basket 120 is held to perform shopping. In addition, the user determines the article to be purchased by picking up an article (article) 30 provided with the article apparatus 30 in the store or putting it in the basket 120, and performs the purchase process at the cash register Do.

(装着装置10の処理)
図4(a)には、装着装置10の処理がフローチャートにて示されている。
(Process of mounting device 10)
The process of the mounting apparatus 10 is shown by the flowchart by Fig.4 (a).

図4(a)の処理では、装着装置10の制御部17は、ステップS10において、カゴ装置20との人体通信が成立するまで待機する。この場合、装着装置10を装着したユーザが店舗に入り、カゴ120を保持することでカゴ装置20にユーザの手が触れた段階で、装着装置10の通信部16とカゴ装置20の第1通信部24との間の通信が成立する。カゴ装置20との人体通信が成立すると、制御部17は、ステップS12に移行する。なお、ステップS10に代えて、ユーザが店舗に入店した後に装着装置10の電源をオンした段階でステップS12以降の処理を実行するようにしてもよい。この場合、装着装置10に、GPS(Global Positioning System)モジュールや、店舗内に設置された無線LAN(Local Area Network)基地局との通信状況に応じた位置検出が可能な位置検出装置を設け、位置検出装置の検出結果に基づいて、ユーザが店舗に入店したか否かを制御部17が判断することとしてもよい。また、これとは逆に、装着装置10は通信部16に常に電源を供給しておき、カゴ装置20との人体通信の成立により装着装置10が起動するようにしてもよい。   In the process of FIG. 4A, the control unit 17 of the mounting apparatus 10 waits in step S10 until human body communication with the car apparatus 20 is established. In this case, when the user wearing the mounting apparatus 10 enters the store and holds the basket 120, and the user touches the basket apparatus 20, the communication unit 16 of the mounting apparatus 10 and the first communication of the basket apparatus 20 Communication with the unit 24 is established. When human body communication with the basket device 20 is established, the control unit 17 shifts to step S12. Note that, instead of step S10, the process after step S12 may be executed when the power of the mounting apparatus 10 is turned on after the user enters the store. In this case, the mounting apparatus 10 is provided with a GPS (Global Positioning System) module and a position detection apparatus capable of position detection according to the communication status with a wireless LAN (Local Area Network) base station installed in the store, The control unit 17 may determine whether the user has entered a store based on the detection result of the position detection device. Also, conversely to this, the mounting apparatus 10 may always supply power to the communication unit 16 and the mounting apparatus 10 may be activated by the establishment of human body communication with the car apparatus 20.

ステップS12に移行すると、制御部17は、撮像部11に指示を出し、ユーザ側からの撮像を実行する。この場合、撮像部11は、静止画及び動画のいずれを撮像してもよい。なお、本実施形態では、撮像部11は、静止画を撮像するものとして説明する。制御部17は、撮像部11によって撮像された画像(以下、視線画像と呼ぶ)を記憶部15に記憶する。なお、ステップS12では、撮像部11による視線画像の撮像に加えて、制御部17は、マイク14を用いて、ユーザの声や周辺の音を含む音声を収集し、音声データとして記憶部15に記憶してもよい。   When the process proceeds to step S12, the control unit 17 instructs the imaging unit 11 to execute imaging from the user side. In this case, the imaging unit 11 may capture either a still image or a moving image. In the present embodiment, the imaging unit 11 will be described as one that captures a still image. The control unit 17 stores an image (hereinafter, referred to as a line-of-sight image) captured by the imaging unit 11 in the storage unit 15. In step S12, in addition to the imaging of the visual line image by the imaging unit 11, the control unit 17 collects the voice including the user's voice and surrounding sounds using the microphone 14, and stores the voice as voice data in the storage unit 15. You may memorize.

次いで、ステップS14では、制御部17は、通信部16を介して、視線画像をカゴ装置20へ送信する。なお、制御部17は、例えば装着装置10に加速度計や角速度計を設けてユーザの移動速度を計測し、ユーザの移動速度が所定の移動速度(例えば時速1Km以下)になったときに、カゴ装置20へ視線画像を送信するようにしてもよい。なお、ユーザは、買い物途中にカゴ装置20から手を離す場合もある。したがって、制御部17は、人体通信が可能である場合には、人体通信により視線画像をカゴ装置20へ送信し、人体通信が不可能な場合には、近接通信や無線通信などにより視線画像をカゴ装置20へ送信するようにしてもよい。なお、無線通信を行う場合には、装着装置10が無線通信部を備えておく必要がある。   Next, in step S14, the control unit 17 transmits the line-of-sight image to the car device 20 via the communication unit 16. The control unit 17 measures the moving speed of the user, for example, by providing the mounting apparatus 10 with an accelerometer or an angular velocity meter, and when the moving speed of the user reaches a predetermined moving speed (for example, 1 km / h or less) The line-of-sight image may be transmitted to the device 20. The user may release the basket device 20 during shopping. Therefore, when human body communication is possible, the control unit 17 transmits the line-of-sight image to the cage device 20 by human body communication, and when the human body communication is not possible, the line-of-sight image is transmitted by proximity communication or wireless communication. It may be transmitted to the basket device 20. When wireless communication is performed, the mounting apparatus 10 needs to include a wireless communication unit.

次いで、ステップS16では、制御部17は、レジ端末から入力のあったカゴ装置20との人体通信が成立したか否かを判断する。ここで、レジ端末からの入力とは、ユーザがレジにカゴ120を持っていった場合に、カゴ装置20とレジ端末との間の通信により、レジ端末からカゴ装置20に対して送信される、買い物終了情報の入力を意味する。すなわち、レジ端末からの入力があったカゴ装置20と装着装置10との人体通信が成立した場合、ユーザの買い物が終了したことを意味する。したがって、買い物が終了しておらず、ステップS16の判断が否定された場合には、ステップS12に戻り、ステップS12、S14、S16の処理・判断を繰り返す。すなわち、撮像部11による視線画像の撮像と、カゴ装置20への送信が繰り返される。一方、ユーザの買い物が終了し、ステップS16の判断が肯定された場合には、図4(a)の全処理が終了する。   Next, in step S16, the control unit 17 determines whether human-body communication with the basket device 20, which has been input from the cash register terminal, has been established. Here, the input from the cashier terminal is transmitted from the cashier terminal to the car 20 by communication between the car 20 and the cashier terminal when the user brings the car 120 to the cashier. , Means to input the end of shopping information. That is, when human body communication between the basket device 20 and the mounting device 10, which has been input from the cash register terminal, is established, it means that the user's shopping has ended. Therefore, if the shopping has not ended and the determination in step S16 is negative, the process returns to step S12, and the processing and determination in steps S12, S14, and S16 are repeated. That is, the imaging of the line-of-sight image by the imaging unit 11 and the transmission to the basket device 20 are repeated. On the other hand, when the user's shopping is finished and the determination in step S16 is affirmed, the whole process of FIG. 4A is finished.

なお、ステップS16に代えて、制御部17は、ユーザ(装着装置10)が店舗から出たか否かを判断してもよい。この場合、前述のように、装着装置10には、GPS等の位置検出装置を設けておく必要がある。   Note that, instead of step S16, the control unit 17 may determine whether or not the user (mounting device 10) has left the store. In this case, as described above, the mounting apparatus 10 needs to be provided with a position detection device such as a GPS.

(物品装置30の処理)
図4(b)には、物品装置30の処理がフローチャートにて示されている。
(Processing of the article device 30)
In FIG. 4B, the process of the article device 30 is shown in a flowchart.

図4(b)の処理では、物品装置30の制御部33は、ステップS20において、カゴ装置20との人体通信が新たに成立するまで待機する。この場合、図2に示すように、カゴ120を保持するユーザが物品130を商品棚等から取り上げたタイミングで、カゴ装置20との人体通信が新たに成立し、ステップS22に移行する。   In the process of FIG. 4B, in step S20, the control unit 33 of the article device 30 stands by until human body communication with the car device 20 is newly established. In this case, as shown in FIG. 2, human body communication with the basket device 20 is newly established at the timing when the user holding the basket 120 picks up the article 130 from the product shelf or the like, and the process moves to step S22.

ステップS22に移行すると、制御部33は、通信部32に指示を出し、記憶部31に記憶されている物品情報をカゴ装置20へ送信する。   At step S22, the control unit 33 instructs the communication unit 32 to transmit the article information stored in the storage unit 31 to the car apparatus 20.

その後は、ステップS20に戻り、制御部33は、ステップS20、S22の処理・判断を繰り返す。   After that, the process returns to step S20, and the control unit 33 repeats the processing and determination of steps S20 and S22.

図4(b)の処理が実行されることで、カゴ120を保持するユーザが、買い物途中に手にした物品130の情報をカゴ装置20に逐一送信することが可能となる。   By executing the process of FIG. 4B, it becomes possible for the user holding the basket 120 to transmit information of the item 130 obtained during shopping to the basket device 20 one by one.

(カゴ装置20の処理)
図5には、カゴ装置20の処理がフロチャートにて示されている。
(Processing of the basket device 20)
The process of the basket apparatus 20 is shown by the flowchart in FIG.

図5の処理では、ステップS30において、カゴ装置20の制御部26が、装着装置10との人体通信が成立するまで待機する。装着装置10との人体通信が成立すると、制御部26は、ステップS32に移行する。なお、ステップS32に移行するタイミングは、前述した図4(a)のステップS12に移行するタイミングと同一である。   In the process of FIG. 5, in step S30, the control unit 26 of the car device 20 stands by until human body communication with the mounting device 10 is established. When human body communication with the mounting apparatus 10 is established, the control unit 26 proceeds to step S32. The timing for shifting to step S32 is the same as the timing for shifting to step S12 in FIG. 4A described above.

ステップS32に移行すると、制御部26は、装着装置10から送信されてくる視線画像を取得し、記憶部23に記憶する。なお、例えばカゴ装置20に加速度計や角速度計を設けてユーザの移動速度を計測し、ユーザの移動速度が所定の移動速度(例えば時速1Km以下)になったときに、装着装置10から視線画像が送信されてきた画像を取得し、記憶部23に記憶することとしてもよい。   When the process proceeds to step S32, the control unit 26 acquires the line-of-sight image transmitted from the mounting apparatus 10 and stores the line-of-sight image in the storage unit 23. Note that, for example, an accelerometer or an angular velocity meter is provided in the basket device 20 to measure the moving speed of the user, and when the moving speed of the user reaches a predetermined moving speed (for example, 1 km / h or less) May be acquired and stored in the storage unit 23.

次いで、ステップS34では、制御部26が、新たな物品情報を受信したか否かを判断する。ステップS34の判断が否定された場合、すなわち、新たな物品情報を受信していない場合には、ステップS38に移行する。一方、ステップS34の判断が肯定された場合、すなわち、新たな物品情報を受信した場合には、ステップS36に移行する。   Next, in step S34, the control unit 26 determines whether new item information has been received. If the determination in step S34 is negative, that is, if new item information has not been received, the process proceeds to step S38. On the other hand, if the determination in step S34 is affirmed, that is, if new item information is received, the process proceeds to step S36.

ステップS36に移行すると、制御部26は、物品情報を取得し、記憶部23に記憶する。その後は、ステップS38に移行する。   At step S36, the control unit 26 acquires article information and stores the acquired article information in the storage unit 23. Thereafter, the process proceeds to step S38.

ステップS38に移行すると、制御部26は、生体センサ21を用いた検出を実行する。なお、ステップS32、S34及びS36、S38の処理の順番は適宜入れ替えてもよく、各ステップの処理を同時並行的に実行することとしてもよい。   When the process proceeds to step S38, the control unit 26 executes detection using the biosensor 21. Note that the order of the processes of steps S32, S34, S36, and S38 may be changed as appropriate, and the processes of the respective steps may be performed simultaneously and in parallel.

次いで、ステップS40では、制御部26が、生体センサ21の検出結果に基づいて、ユーザに感情の変化があったか否かを判断する。この場合、例えば、生体センサ21の検出結果から、心拍数が急激に上昇した場合や、血圧が急激に上昇した場合、発汗量が急激に増加した場合などにおいて、ユーザに感情の変化があったと判断する。なお、ユーザの感情が変化する例としては、タイムサービスが始まり商品を安く購入できるチャンスに遭遇したり、購入を予定していた商品が売り切れであったり、レジが混雑しているような場合である。ステップS40の判断が否定された場合には、ステップS44に移行するが、ステップS40の判断が肯定された場合には、ステップS42に移行する。   Next, in step S40, the control unit 26 determines, based on the detection result of the biological sensor 21, whether or not the user has a change in emotion. In this case, for example, based on the detection result of the biological sensor 21, it is assumed that the user has a change in emotion when the heart rate rises sharply, when the blood pressure rises sharply, when the amount of sweating increases rapidly, etc. to decide. In addition, as an example where the user's emotion changes, there is a chance that the time service starts and a chance to purchase the product cheaply is encountered, the product scheduled to be purchased is sold out, or the cash register is crowded. is there. If the determination in step S40 is negative, the process proceeds to step S44, but if the determination in step S40 is affirmed, the process proceeds to step S42.

ステップS42に移行すると、制御部26は、第2通信部25に指示を出し、記憶部23に記憶されている、感情変化直前に取得された視線画像及び物品情報(以下、第1情報と呼ぶ)をサーバ40に送信する。なお、感情変化直前とは、例えば、感情変化が生じる数秒前を意味する。なお、感情変化直前に物品情報が取得されない場合もある。感情変化が物品130を保持したことに起因しない場合である。この場合には、制御部26は、視線画像を第1情報としてサーバ40に送信すればよい。   When the process proceeds to step S42, the control unit 26 instructs the second communication unit 25 to store, in the storage unit 23, the line-of-sight image and the item information acquired immediately before the change in emotion (hereinafter referred to as first information). ) To the server 40. Note that “immediately before the change in emotion” means, for example, several seconds before the occurrence of the change in emotion. In some cases, the item information may not be acquired immediately before the change in emotion. This is a case where the change in emotion is not due to holding the item 130. In this case, the control unit 26 may transmit the gaze image to the server 40 as the first information.

ここで、感情変化直前に取得された視線画像としては、図7(a)、図7(b)、図8に示すような視線画像が想定される。図7(a)の視線画像は、ユーザがタイムサービスに遭遇したことを示す画像であり、具体的には、商品に貼付されたタイムサービスのシールをユーザが見たことを示す画像である。また、図7(b)の視線画像は、ユーザが購入しようとしていた商品が売り切れている場合の画像であり、具体的には、入荷待ちの掲示をユーザが見たことを示す画像である。また、図8の視線画像は、レジが混雑している状態をユーザが見たことを示す画像である。   Here, line-of-sight images as shown in FIGS. 7A, 7B, and 8 are assumed as the line-of-sight image acquired immediately before the change in emotion. The line-of-sight image in FIG. 7A is an image showing that the user has encountered a time service, and more specifically, an image showing that the user has seen the seal of the time service attached to the product. Further, the line-of-sight image in FIG. 7B is an image when the product that the user is trying to purchase is sold out, and more specifically, is an image indicating that the user has viewed a notice awaiting arrival. Further, the line-of-sight image in FIG. 8 is an image indicating that the user has seen a state in which the cash register is crowded.

なお、第1情報は、カゴIDが付加された状態でサーバ40に送信される。すなわち、サーバ40では、第1情報をカゴIDを用いて管理する。   The first information is transmitted to the server 40 with the car ID added. That is, the server 40 manages the first information using the car ID.

ステップS40が否定された後、あるいはステップS42の処理が実行された後、制御部26は、ステップS44において、レジ端末から入力があったか否かを判断する。この場合のレジ端末の入力とは、前述したように、ユーザが買い物を終了し、レジにカゴ120を持っていった場合に、カゴ装置20とレジ端末との間の通信により、レジ端末からカゴ装置20に対して送信される、買い物終了情報の入力を意味する。このステップS44の判断が否定された場合、すなわち、ユーザの買い物が終了していない場合には、ステップS32に戻り、ステップS32〜S44の処理・判断を繰り返す。一方、ステップS44の判断が肯定された場合には、ステップS46に移行する。   After the determination in step S40 is negative or after the process in step S42 is performed, in step S44, the control unit 26 determines whether there is an input from the cash register terminal. In this case, as described above, when the user finishes shopping and brings the basket 120 to the cashier, the input from the cashier terminal is from the cashier terminal by communication between the basket device 20 and the cashier terminal. It means the input of the shopping end information transmitted to the basket device 20. If the determination in step S44 is negative, that is, if the user's shopping has not ended, the process returns to step S32, and the processing and determination in steps S32 to S44 are repeated. On the other hand, when the determination in step S44 is affirmed, the process proceeds to step S46.

ステップS46に移行すると、制御部26は、第2通信部25に指示を出し、ステップS30以降取得された全ての視線画像、物品情報、生体情報(以下、第2情報と呼ぶ)をサーバ40に送信する。すなわち、制御部26は、第2通信部25を介して、ユーザが買い物をしている間に得られた視線画像、ユーザが手にした物品の物品情報、及びユーザが買い物をしている間に得られた感情の変化情報をサーバ40に送信する。なお、制御部26は、ユーザが買い物をしている間に装着装置10のマイク14を用いて取得された音声データをサーバ40に送信することとしてもよい。なお、制御部26から送信される各情報には、情報の取得時刻(カレンダ部22から得られる)がタイムスタンプとして付与されるものとする。また、第2情報は、カゴIDが付加された状態でサーバ40に送信される。すなわち、サーバ40では、第2情報をカゴIDを用いて管理する。その後は、制御部26は、図5の全処理を終了する。   When the process proceeds to step S46, the control unit 26 instructs the second communication unit 25 to send all the line-of-sight images acquired after step S30, the article information, and the biological information (hereinafter referred to as second information) to the server 40. Send. That is, the control unit 26 controls, through the second communication unit 25, the line-of-sight image obtained while the user is shopping, the item information of the item obtained by the user, and while the user is shopping The information on the change in emotion obtained is sent to the server 40. The control unit 26 may transmit, to the server 40, voice data acquired using the microphone 14 of the mounting apparatus 10 while the user is shopping. It is assumed that an acquisition time of information (obtained from the calendar unit 22) is attached as a time stamp to each information transmitted from the control unit 26. Further, the second information is transmitted to the server 40 with the car ID added. That is, the server 40 manages the second information using the car ID. After that, the control unit 26 ends the entire process of FIG.

以上のように、制御部26が図5の処理を実行することで、ユーザが買い物をしている間に感情の変化があったタイミングで、カゴ装置20からサーバ40に対して第1情報が送信され、ユーザが買い物を終了したタイミングで、カゴ装置20からサーバ40に対して第2情報が送信されるようになっている。   As described above, when the control unit 26 executes the processing of FIG. 5, the first information is transmitted from the basket device 20 to the server 40 at a timing when the user has a change in emotion while shopping. The second information is transmitted from the basket device 20 to the server 40 at the timing when the user finishes the shopping.

(サーバ40の処理)
図6には、サーバ40の処理がフローチャートにて示されている。
(Processing of server 40)
The process of the server 40 is shown by a flowchart in FIG.

図6の処理では、サーバ40の制御部46は、ステップS50において、カゴ装置20からの入力があるまで待機する。すなわち、制御部46は、カゴ装置20において図5のステップS42又はS46が実行されることにより、第1情報又は第2情報が送信されてきた段階で、ステップS52に移行する。   In the process of FIG. 6, the control unit 46 of the server 40 stands by until there is an input from the basket device 20 in step S50. That is, the control unit 46 proceeds to step S52 when the first information or the second information is transmitted by executing the step S42 or S46 of FIG. 5 in the car apparatus 20.

ステップS52に移行すると、制御部46は、入力された情報が第1情報であるか否かを判断する。すなわち、制御部46は、ユーザに感情の変化があった直前にカゴ装置20で取得された視線情報や物品情報が入力されたか否かを判断する。ここでの判断が肯定された場合には、ステップS54に移行する。   In step S52, the control unit 46 determines whether the input information is the first information. That is, the control unit 46 determines whether line-of-sight information or article information acquired by the basket device 20 is input immediately before the user has a change in emotion. If the determination here is affirmed, the process proceeds to step S54.

ステップS54に移行すると、制御部46は、第1情報に基づく感情分析を実行する。具体的には、制御部46は、感情が変化した直前に取得された視線画像をOCR部43や画像認識部44を用いて分析した結果や、感情が変化した直前に取得された物品情報を分析した結果に基づいて、ユーザの感情分析(満足か、不満かの分析)を行う。   At step S54, the control unit 46 executes emotion analysis based on the first information. Specifically, the control unit 46 analyzes the line-of-sight image acquired immediately before the change in emotion using the OCR unit 43 or the image recognition unit 44, or the article information acquired immediately before the change in emotion. Based on the analyzed result, the user's emotion analysis (analysis of satisfaction or dissatisfaction) is performed.

例えば、制御部46は、視線画像が図7(a)の画像であった場合には、OCR部43を用いることで「朝市 タイムサービス 表示価格より20%引き」という文字を検出することができる。この場合、タイムサービス、20%引きといった、買い物客にとってポジティブな単語が含まれているため、制御部46は、ユーザが喜んで満足な状態(ポジティブな状態)であると分析する。なお、買い物客にとってポジティブな単語は、記憶部41に記憶されているものとする。   For example, when the line-of-sight image is the image shown in FIG. 7A, the control unit 46 can detect the character “20% discounted from the morning market time service display price” by using the OCR unit 43. . In this case, since a word positive for the shopper, such as time service and 20% off, is included, the control unit 46 analyzes that the user is pleased and is in a satisfactory state (positive state). The word positive for the shopper is stored in the storage unit 41.

また、制御部46は、視線画像が図7(b)の画像であった場合には、OCR部43を用いることで、「申し訳ございません。現在入荷待ちです。次回入荷時期は未定です。」という文字を検出することができる。この場合、申し訳ございません、入荷待ち、未定といった、買い物客にとってネガティブな単語が含まれているため、制御部46は、ユーザが哀しんで不満足な状態(ネガティブな状態)であると分析する。なお、買い物客にとってネガティブな単語は、記憶部41に記憶されているものとする。   In addition, when the line-of-sight image is the image shown in FIG. 7 (b), the control unit 46 uses the OCR unit 43 to "sorry. We are currently waiting for arrival. The next arrival date is undecided." The character can be detected. In this case, the control unit 46 analyzes that the user is in a disappointing state (negative state) because the shopper contains words that are negative for the shopper, such as sorry, waiting for arrival, or undecided. It is assumed that the negative word for the shopper is stored in the storage unit 41.

また、制御部46は、視線画像が図8の画像であった場合には、画像認識部44を用いることで、レジが混雑していることや、レジ待ちしている人が不満顔である(笑顔でない)ということを検出することができる。この場合、制御部46は、ユーザが哀しんで不満足な状態(ネガティブな状態)であると判断する。   Further, when the line-of-sight image is the image shown in FIG. 8, the control unit 46 uses the image recognition unit 44 to find that the cash register is crowded or the person waiting for the cash register has a dissatisfied face It can be detected that (no smile). In this case, the control unit 46 determines that the user is unhappy and in an unsatisfactory state (negative state).

また、制御部46は、視線画像に従業員の顔の画像が含まれる場合には、従業員に起因してユーザの感情が変化したと判断する。この場合、制御部46は、画像認識部44を用いることで、従業員の顔が笑顔か否かを認識する。なお、画像認識部44は、視線画像に含まれる顔の画像が従業員の顔の画像であるか否か、笑顔であるか否かを、記憶部41に記憶されている従業員の顔画像データを用いて判断する。そして、制御部46は、従業員が笑顔でない場合には、ユーザが哀しんでいる又は怒っている不満足な状態(ネガティブな状態)であると判断し、従業員が笑顔の場合には、満足な状態(ポジティブな状態)であると判断する。   In addition, when the line-of-sight image includes the face image of the employee, the control unit 46 determines that the user's emotion has changed due to the employee. In this case, the control unit 46 uses the image recognition unit 44 to recognize whether the face of the employee is a smile or not. In addition, the image recognition unit 44 stores the face image of the employee stored in the storage unit 41 as to whether or not the image of the face included in the gaze image is an image of the face of the employee and whether it is a smile. Judge using data. Then, the control unit 46 determines that the user is in a sad or angry dissatisfaction state (negative state) when the employee is not smiling, and is satisfied when the employee is smiling. It is determined that it is in the state (positive state).

更に、制御部46は、視線画像において物品を手に持っている状態が撮像されていた場合には、物品を見たこと、触れたことによって感情に変化が生じたと判断する。なお、制御部46は、例えば、カゴ装置20が取得した物品情報を併用することで、ユーザが喜んでいるのか哀しんでいるのかを判断することができる場合もある。例えば、物品情報に、数量限定などの情報が含まれている場合には、ユーザが喜んでいると判断することができる。また、物品情報から、賞味期限切れであることが判明した場合には、ユーザが哀しんでいると判断することができる。   Furthermore, when the state in which the user holds the item in the line-of-sight image is imaged, the control unit 46 determines that a change in emotion has occurred due to seeing or touching the item. In addition, the control unit 46 may be able to determine whether the user is pleased or hesitant, for example, by using the item information acquired by the cart device 20 in combination. For example, if the item information includes information such as limited quantity, it can be determined that the user is pleased. Also, if it is determined from the item information that the expiration date has expired, it can be determined that the user is lonely.

図6に戻り、次のステップS56では、制御部46が、感情分析結果に基づいて、対応が必要か否かを判断する。具体的には、制御部46は、ユーザが哀しんでいたり怒っているなど不満足な状態の場合(ネガティブな状態にある場合)に、対応が必要であると判断する。ステップS56の判断が否定された場合には、ステップS50に戻る。一方、ステップS56の判断が肯定された場合には、ステップS58に移行する。   Returning to FIG. 6, in the next step S56, the control unit 46 determines whether or not a response is necessary based on the emotion analysis result. Specifically, the control unit 46 determines that a response is necessary when the user is in an unsatisfactory state such as being lonely or angry (in a negative state). If the determination in step S56 is negative, the process returns to step S50. On the other hand, when the determination in step S56 is affirmed, the process proceeds to step S58.

ステップS58に移行すると、制御部46は、感情分析結果に基づく対応処理を実行する。例えば、制御部46は、視線画像が図4(b)の場合には、記憶部41に記憶されているお詫びのメッセージや次回入荷予定などの各種メッセージを、通信部42を介して、カゴ装置20に送信する。そして、カゴ装置20の制御部26は、第1通信部24を介して、各種メッセージを装着装置10に送信する。この場合、装着装置10では、制御部17は、表示部12を用いて、各種メッセージを表示(投影)する。   At step S58, the control unit 46 executes a response process based on the emotion analysis result. For example, when the line-of-sight image is as shown in FIG. 4B, the control unit 46 uses the communication unit 42 to transmit a message of an apology stored in the storage unit 41 and various messages such as arrival schedule Send to 20. Then, the control unit 26 of the car device 20 transmits various messages to the mounting device 10 via the first communication unit 24. In this case, in the mounting apparatus 10, the control unit 17 uses the display unit 12 to display (project) various messages.

また、例えば、視線画像が図8の場合には、制御部46は、レジが混雑していることに対するお詫びのメッセージを、カゴ装置20を介して装着装置10の制御部17に送信する。この場合、制御部17は、表示部12にお詫びのメッセージを表示(投影)する。なお、制御部46は、店内放送を利用して、レジの混雑に対するお詫びのメッセージを出力してもよい。また、制御部46は、店内放送を利用して、レジ打ちを行う従業員を補充すべき旨のメッセージ(レジ応援のメッセージ)を出力するようにしてもよい。あるいは、制御部46は、従業員が保持する端末に対して、レジ応援のメッセージを出力するようにしてもよい。また、制御部46は、レジが混雑している状況を見たユーザに対して、レジの進み具合(客1人当たりの処理時間)やレジを担当する店員の熟練度(見習いか、ベテランか)を報知することとしてもよい。   Further, for example, when the line-of-sight image is as shown in FIG. 8, the control unit 46 transmits a message of an apology for crowded cash register to the control unit 17 of the mounting apparatus 10 via the car apparatus 20. In this case, the control unit 17 displays (projects) an apology message on the display unit 12. The control unit 46 may output an apology message for the cash register congestion using the in-store broadcast. In addition, the control unit 46 may output a message (message of cash register support) to the effect that the employee who is cashed in should be refilled by using the in-store broadcast. Alternatively, the control unit 46 may output a cashier support message to a terminal held by the employee. In addition, the control unit 46 indicates the progress of the cash register (processing time per customer) and the level of skill of the clerk in charge of the cash register (apprentice or veteran) to the user who saw the situation where the cash register is crowded May be notified.

また、例えば、視線画像から、従業員の対応に問題があると判断された場合には、制御部46は、他の従業員や店長などが保持する端末に対して、客と従業員とのトラブルが発生した旨のメッセージを出力する。なお、カゴ装置20に無線LAN基地局との通信感度に応じて位置を検出することが可能な位置検出装置を設けておけば、制御部46は、位置検出装置の検出結果に基づいて、トラブル発生位置を他の従業員や店長などに知らせることができる。   Also, for example, when it is determined from the line-of-sight image that there is a problem with the response of the employee, the control unit 46 controls the terminal held by the other employee or the store manager, etc. Output a message that a problem has occurred. In addition, if the position detection device capable of detecting the position according to the communication sensitivity with the wireless LAN base station is provided in the basket device 20, the control unit 46 causes a trouble based on the detection result of the position detection device. The location of the occurrence can be notified to other employees and store managers.

更に、例えば、視線画像から、客が物品に対して哀しんでいる又は怒っていると判断された場合には、制御部46は、店内放送や従業員が保持する端末を利用して、従業員が直接対応すべき旨のメッセージを出力してもよい。この場合にも、制御部46は、従業員に客の位置を知らせるようにしてもよい。   Furthermore, for example, when it is determined from the line-of-sight image that the customer is hated or angry with the article, the control unit 46 uses the in-store broadcast or the terminal held by the employee to be an employee. May output a message to the effect that it should respond directly. Also in this case, the control unit 46 may notify the employee of the position of the customer.

なお、第1情報には、感情変化の直前にマイク14が収集した音声データが含まれていてもよい。制御部46は、音声データの分析により、音声データにユーザの怒声やため息、従業員の謝罪の言葉が含まれていた場合には、ユーザが怒っていたり、不満足な状態にある(ネガティブな状態にある)と判断することができる。   The first information may include voice data collected by the microphone 14 immediately before the change in emotion. The control unit 46 indicates that the user is angry or dissatisfied when the voice data contains anger or sigh of the user or an apology of the employee by analysis of the voice data (negative state (negative state) It can be determined that

なお、上述した対応処理のパターンは、予め定められているものとし、当該パターンは、記憶部41に記憶されているものとする。   It is assumed that the pattern of the correspondence process described above is predetermined, and the pattern is stored in the storage unit 41.

上記のようにしてステップS58の処理が終了した後は、ステップS50に戻る。   After the process of step S58 ends as described above, the process returns to step S50.

一方、ステップS52の判断が否定された場合、すなわち、カゴ装置20から入力された情報が第2情報であった場合には、ステップS60に移行する。   On the other hand, if the determination in step S52 is negative, that is, if the information input from the basket device 20 is the second information, the process proceeds to step S60.

ステップS60に移行すると、制御部46は、第2情報に基づく、購入行動分析を実行する。この場合、制御部46は、ユーザが買い物の途中で、何を見て、何を手にとり、何を購入したかということを分析する。換言すれば、ユーザがどの商品を見なかったり、手に取らなかったかということを分析しているともいえる。   At step S60, the control unit 46 performs purchase behavior analysis based on the second information. In this case, the control unit 46 analyzes what the user has seen, bought, and purchased while shopping. In other words, it can be said that analysis is made as to which product the user did not see or take.

図9には、あるユーザが入店してからレジを通るまでの間に、手に取った物品の順が示されている。また、図9では、ユーザが購入した物品に下線を付している。なお、制御部46は、ユーザが購入した物品の情報として、レジ端末から取得した購入情報を利用することができる。   FIG. 9 shows the order of items picked up by a certain user from entering the store to passing the cash register. Further, in FIG. 9, the item purchased by the user is underlined. The control unit 46 can use the purchase information acquired from the cash register terminal as the information on the item purchased by the user.

図9において、ユーザは、カレールーAとカレールーBとを手に取っているものの、最終的にはカレールーAを購入している。この場合、制御部46は、カレールーAを手に取った際の視線画像と、カレールーBを手に取った際の視線画像とを参照することで、何を判断基準として、カレールーAを購入したかを分析する。例えばユーザが注視している領域(視線画像の所定位置(ほぼ中心))に値段の情報が長時間含まれていた場合には、値段に基づいてカレールーAを購入したと判断する。また、ユーザが注視している領域に、辛さの表示や、パッケージの写真、成分表示や、賞味期限が長時間含まれていた場合には、それらの情報に基づいて、カレールーAを購入したと判断する。なお、制御部46は、ユーザが注視している領域に、値段や辛さの表示、成分や賞味期限などが含まれているか否かを、OCR部43を用いて抽出するものとする。   In FIG. 9, the user has bought curry roux A and curry roux B in hand but eventually purchases curry roux A. In this case, the control unit 46 purchases the curry roux A by using the line-of-sight image when the curry roux A is picked up and the line-of-sight image when the curry roux B is picked up as reference. To analyze. For example, when price information is included for a long time in an area (a predetermined position (approximately the center) of the gaze image) at which the user is gazing, it is determined that the curry roux A has been purchased based on the price. In addition, when the display of hotness, the photograph of the package, the display of ingredients, and the expiration date were included for a long time in the area the user was looking at, Curry Lou A was purchased based on the information. I will judge. Note that the control unit 46 extracts, using the OCR unit 43, whether the display of the price or hotness, the component, the expiration date, and the like are included in the area in which the user is gazing.

なお、牛肉A,Bについても同様に、購入の際の判断基準を判断するようにすればよい。例えば、制御部46は、ユーザが注視している領域に、内容量の表示や、部位の表示、100g当たりの値段などが長時間含まれていた場合には、それらの情報に基づいて、牛肉Bを購入したと判断する。   In addition, what is necessary is just to judge the judgment standard at the time of purchasing also about beef A and B similarly. For example, when the display of the internal capacity, the display of the part, the price per 100 g, and the like are included in the area where the user is gazing at a long time, the control unit 46 selects beef based on the information. It is determined that B has been purchased.

また、制御部46は、複数のユーザにおいて取得されたデータを参照することで、ある商品を購入したユーザが比較検討をした別の商品が何であるかを集計したり、比較検討した結果購入した商品の決め手が何であったかを集計したりすることができる。なお、購入の際の判断基準の分析結果は、各商品の製造元や生産者に提供することとしてもよい。製造元や生産者は、この分析結果を今後の商品開発や商品の改善に役立てることが可能である。   In addition, the control unit 46 refers to data acquired by a plurality of users to count what another product the user who has purchased a certain product has compared, and as a result of comparing and considering. It is possible to count what decide the product. The analysis result of the judgment criteria at the time of purchase may be provided to the manufacturer or producer of each product. Manufacturers and producers can use this analysis result for future product development and product improvement.

また、制御部46は、図9のデータを参照することで、客が物品を手に取った順番を集計することができる。この場合、制御部46は、集計結果を利用することで、客の店舗内における動きの傾向を分析することができる。これにより、制御部46は、客の動きに基づく、物品や棚の適切な配置を求めることができる。   In addition, the control unit 46 can count the order in which the customer takes an article by referring to the data in FIG. 9. In this case, the control unit 46 can analyze the tendency of the movement of the customer in the store by using the counting result. Thereby, the control unit 46 can obtain an appropriate arrangement of articles or shelves based on the movement of the customer.

更に、制御部46は、入店から退店までの間にユーザがポジティブな状態になった回数や位置、ネガティブな状態になった回数や位置を集計することで、客の満足度や不満度を位置ごと(売り場ごと)に分析することができる。   In addition, the control unit 46 counts the number and position of the user in a positive state and the number and position of a negative state in the period from entry to exit of the store, whereby the degree of customer satisfaction or dissatisfaction Can be analyzed by location (by department).

また、制御部46は、客がネガティブな状態からポジティブな状態に変化した場合の視線画像を分析することとしてもよい。制御部46は、視線画像を分析した結果、ネガティブな状態からポジティブな状態に変化する間の視線画像に従業員の顔が含まれていた場合には、当該従業員の対応によりトラブルが解消したと分析することができる。また、ネガティブな状態からポジティブな状態に変化する間に装着装置10や店内放送を用いた対応処理を行っていた場合には、対応処理が適切であったと分析することができる。   Further, the control unit 46 may analyze the line-of-sight image when the customer changes from a negative state to a positive state. As a result of analyzing the line-of-sight image, when the line-of-sight image includes an employee's face during the change from the negative state to the positive state, the control unit 46 solves the problem by the employee's response. Can be analyzed. In addition, when the handling process using the mounting apparatus 10 or in-store broadcasting is performed while changing from the negative state to the positive state, it can be analyzed that the handling process is appropriate.

以上、詳細に説明したように、本第1の実施形態によると、サーバ40の制御部46及び通信部42は、ユーザの購買に関する動作情報として視線画像や物品情報を入力し、ユーザの購買に関する感情情報として生体センサ21の検出結果を入力する。これにより、制御部46は、視線画像や物品情報、生体センサ21の検出結果に基づいた購買に関する分析を行い、購買に関する有用な情報を取得・提供することが可能となる。したがって、ユーザによる使い勝手を向上することができる。この場合、ユーザの側から撮像した視線画像を用いることで、店舗の棚側から撮像した画像を用いる場合と比較して、ユーザが実際に見ている状況、すなわち、視線の先にある物品や表示、状況等を考慮した分析が可能となる。   As described above in detail, according to the first embodiment, the control unit 46 and the communication unit 42 of the server 40 input the line-of-sight image and the article information as the operation information related to the purchase of the user The detection result of the biological sensor 21 is input as emotion information. As a result, the control unit 46 can analyze the purchase based on the line-of-sight image, the item information, and the detection result of the biological sensor 21 to obtain and provide useful information on the purchase. Therefore, usability by the user can be improved. In this case, by using a line-of-sight image taken from the side of the user, compared with the case where an image taken from the shelf side of the store is used, the user actually looks at the situation, ie, an article ahead of the line of sight It becomes possible to analyze in consideration of display, situation etc.

ここで、従来は、装着装置10のような撮像部11が搭載された装置を装着したユーザが店舗内に入店してきた場合、店舗内の様子や商品が勝手に撮像されてしまうため、店舗側にとってメリットがあるとはいえなかった。これに対し、本第1の実施形態では、ユーザが装着装置10を装着して店舗に入るのを許容する代わりに、店舗側は、撮像部11が撮像した画像データをカゴ装置20を介してもらうこととしている。これにより、店舗は、画像データを分析することで、ユーザの商品購入までの行動や感情を分析することが可能である。   Here, conventionally, when a user wearing a device equipped with the imaging unit 11 such as the mounting device 10 has entered the store, the store's appearance and products are picked up without permission, so the store It can not be said that there is a merit for the side. On the other hand, in the first embodiment, instead of allowing the user to wear the mounting apparatus 10 and entering the shop, the shop side uses the car apparatus 20 for the image data captured by the imaging unit 11. I am going to get it. Thus, the store can analyze the behavior and emotion of the user until the product purchase by analyzing the image data.

また、従来は、ショッピングの満足度などをユーザに対するアンケートにより収集することとしていたが、ユーザにとっては店舗のWebサイトにアクセスして、質問に回答したり、紙に回答を筆記したりする必要があり煩わしいものであった。これに対し、本第1の実施形態では、装着装置10で取得された画像データとユーザの生体情報とを紐付けて店舗側に提供することにより、ユーザが無意識のうちに、ユーザの満足度や不満度を店舗側に伝達することが可能である。   Also, in the past, the degree of satisfaction with shopping etc. was to be collected by a questionnaire to the user, but it is necessary for the user to access the website of the store and answer questions or write answers on paper It was embarrassing. On the other hand, in the first embodiment, the image data acquired by the mounting apparatus 10 and the biometric information of the user are associated with each other and provided to the store side, so that the user's satisfaction is unknowingly It is possible to transmit the degree of dissatisfaction to the store.

また、本第1の実施形態では、視線画像や物品情報、生体センサ21の検出結果に基づいて、ユーザへのメッセージや従業員へのメッセージを出力する。これにより、不満足に感じたユーザに対して即時対応を行うことが可能となる。   In the first embodiment, a message to the user and a message to the employee are output based on the gaze image, the item information, and the detection result of the biological sensor 21. This makes it possible to immediately respond to the user who feels unsatisfactory.

また、本第1の実施形態では、制御部46は、視線画像や物品情報からユーザが物品を保持したことを判断する。これにより、制御部46は、ユーザが物品を保持したという情報や保持した順番等を分析することで、購買に関する有用な情報を取得・提供することが可能となる。   Further, in the first embodiment, the control unit 46 determines that the user holds the article from the gaze image and the article information. As a result, the control unit 46 can acquire and provide useful information related to purchasing by analyzing the information that the user holds the item, the order of holding, and the like.

また、本第1の実施形態では、制御部46は、生体センサ21の検出結果を利用するため、ユーザに感情の変化が生じたか否かを簡易に判断することが可能である。また、生体センサ21の検出結果とあわせてユーザの視線画像を分析することで、ユーザの感情がポジティブになったのか、ネガティブになったのかを精度よく判断することができる。   Further, in the first embodiment, the control unit 46 can easily determine whether a change in emotion has occurred in the user, because the detection result of the biological sensor 21 is used. Further, by analyzing the line-of-sight image of the user along with the detection result of the biological sensor 21, it is possible to accurately determine whether the user's emotion has become positive or negative.

また、本第1の実施形態では、装着装置10が、視線画像を撮像し、撮像した視線画像を人体通信を介してユーザに接触しているカゴ装置20に対して送信する。これにより、カゴ装置20は、カゴ120を保持しているユーザの視線画像のみを取得することが可能である。すなわち、店舗に入店したユーザの装着装置10から視線画像を確実に取得し、店舗に入店していない人(例えば店舗付近を通りがかった人)の装着装置10から視線画像を取得してしまうのを確実に防止することができる。   In the first embodiment, the mounting device 10 captures a gaze image, and transmits the captured gaze image to the car device 20 in contact with the user via human body communication. Thereby, the basket device 20 can acquire only the line-of-sight image of the user holding the basket 120. That is, the line-of-sight image is surely acquired from the mounting apparatus 10 of the user who entered the store, and the line-of-sight image is acquired from the mounting apparatus 10 of a person who has not entered the store (for example, a person who passed by the store). It is possible to reliably prevent it.

また、本第1の実施形態では、生体センサ21の検出結果に変化があったとき、すなわち、ユーザの感情の変化があったときに、サーバ40に対して第1情報が送信される(S42)。これにより、分析が必要な情報を適切なタイミングでサーバ40に送信することができる。   In the first embodiment, the first information is transmitted to the server 40 when there is a change in the detection result of the biometric sensor 21, that is, when there is a change in the user's emotion (S42) ). In this way, information that requires analysis can be transmitted to the server 40 at an appropriate timing.

なお、上記第1の実施形態では、生体センサ21をカゴ装置20が備える場合について説明したが、これに限らず、生体センサを装着装置10が備えていてもよい。この場合、装着装置10のフレームの一部やフレーム近傍に顔の一部と接触する生体センサを設けることとすればよい。また、装着装置10に耳たぶに装着可能な生体センサを接続するようにしてもよい。   In addition, although the case where the cage apparatus 20 includes the biosensor 21 has been described in the first embodiment, the present invention is not limited to this, and the mounting apparatus 10 may include the biosensor. In this case, a living body sensor that contacts a part of the face may be provided in a part of the frame of the mounting apparatus 10 or in the vicinity of the frame. Further, a wearable bio-sensor may be connected to the earlobe of the wearing apparatus 10.

また、上記第1の実施形態では、物品装置30を物品130に設ける場合について説明した。しかしながら、これに限られるものではなく、ステップS54の感情分析やステップS60の購入行動分析において物品情報が不要な場合には、物品装置30は必ずしも物品130に設けなくてもよい。例えば、視線画像において、物品を手に持っている状態が撮像されていた場合に、画像認識を行うことで、手に持っている物品を特定できる場合などである。   In the first embodiment, the case where the article device 30 is provided on the article 130 has been described. However, the present invention is not limited to this, and the article apparatus 30 may not necessarily be provided in the article 130 when article information is not necessary in emotion analysis in step S54 and purchase behavior analysis in step S60. For example, when a state in which an item is held in a hand is imaged in the line-of-sight image, the image recognition may be performed to specify the item held in a hand.

なお、上記第1の実施形態では、物品装置30がカゴ装置20との間で人体通信を行う場合について説明したが、これに限らず、物品装置30は、装着装置10との間で人体通信を行うこととしてもよい。この場合、装着装置10とカゴ装置20との間で人体通信が成立した状態で、装着装置10が取得した物品情報を装着装置10からカゴ装置20に対して送信するようにすればよい。   In the first embodiment, although the case where the article device 30 performs human body communication with the basket device 20 has been described, the present invention is not limited thereto, and the article device 30 may perform human body communication with the mounting device 10 It is good to do. In this case, the article information acquired by the mounting apparatus 10 may be transmitted from the mounting apparatus 10 to the car apparatus 20 in a state where human body communication is established between the mounting apparatus 10 and the car apparatus 20.

なお、上記第1の実施形態では、生体センサ21の検出結果を利用する場合について説明したが、これに限られるものではなく、生体センサ21の検出結果を利用しないこととしてもよい。この場合、制御部46は、例えば、視線画像に基づいて、ユーザが所定時間の間、図7(a)のマークを凝視していると判断した場合に、ユーザがポジティブな状態にあると推定することとしてもよい。また、制御部46は、例えば、視線画像に基づいて、ユーザが図7(b)の張り紙や図7(c)のレジ待ち状態を所定時間凝視していると判断した場合に、ユーザがネガティブな状態にあると推定することとしてもよい。この場合、制御部46は、ユーザが見ることでポジティブ又はネガティブな状態になると予測されるマークや張り紙、状況の画像パターンを予め記憶しておき、該画像パターンと視線画像との比較を行うこととすればよい。   In the first embodiment, the detection result of the biosensor 21 is used. However, the present invention is not limited to this, and the detection result of the biosensor 21 may not be used. In this case, the control unit 46 estimates that the user is in a positive state, for example, when it is determined that the user gazes at the mark of FIG. 7A for a predetermined time based on the gaze image. You may do it. Further, for example, when the control unit 46 determines that the user gazes at the sticker sheet of FIG. 7B or the registration waiting state of FIG. 7C for a predetermined time based on the gaze image, the user is negative. It is possible to assume that it is in the In this case, the control unit 46 stores in advance a mark, a sticker sheet, and an image pattern of a situation predicted to be in a positive or negative state when viewed by the user, and compares the image pattern with the gaze image. And it is sufficient.

なお、上記第1の実施形態では、視線画像の所定位置を視線の中心位置とみなす場合について説明したが、これに限られるものではない。例えば、赤外線照射部と、赤外線受光部と、を有し、赤外線照射部から眼球に対して赤外線を照射し、眼球にて反射した赤外線を赤外線受光部において受光することで視線方向を検出する視線検出部を装着装置10に別途設けることとしてもよい。   In the first embodiment, the case where the predetermined position of the line-of-sight image is regarded as the center position of the line of sight has been described, but the present invention is not limited to this. For example, it has an infrared irradiating unit and an infrared light receiving unit, and the infrared irradiating unit irradiates infrared rays to the eye, and the infrared light reflected by the eye is received by the infrared receiving unit to detect the gaze direction. The detection unit may be separately provided in the mounting apparatus 10.

なお、サーバ40は、複数の店舗における客の満足度や不満足度などを集計して、1つのWebサイトにおいて各店舗のユーザ評価として公表することとしてもよい。この場合、例えば、各店舗の評価を星の数や満足度の点数などで公表することができる。   Note that the server 40 may add up customer satisfaction levels and dissatisfaction levels in a plurality of stores and publish the results as user evaluations of the respective stores on one web site. In this case, for example, the evaluation of each store can be announced by the number of stars, the score of satisfaction, or the like.

《第2の実施形態》
次に、第2の実施形態に係る電子機器システム100’について、図10〜図14に基づいて、詳細に説明する。
Second Embodiment
Next, an electronic device system 100 ′ according to the second embodiment will be described in detail based on FIGS.

図10には、電子機器システム100’の構成がブロック図にて示されている。図10では、電子機器システム100’のうち、第1の実施形態の電子機器システム100と異なる構成を太線枠にて示している。   The configuration of the electronic device system 100 'is shown in a block diagram in FIG. In FIG. 10, the configuration different from the electronic device system 100 of the first embodiment among the electronic device system 100 'is shown by a bold line frame.

図10に示すように、電子機器システム100’においては、装着装置10’がスピーカ18を備え、カゴ装置20’が重量センサ27を備え、物品装置30’が発光部34を備えている。なお、サーバ40’の構成は、第1の実施形態のサーバ40と同様である。   As shown in FIG. 10, in the electronic device system 100 ', the mounting device 10' includes the speaker 18, the car device 20 'includes the weight sensor 27, and the article device 30' includes the light emitting unit 34. The configuration of the server 40 'is the same as that of the server 40 of the first embodiment.

スピーカ18は、装着装置10’を装着するユーザに音声情報を提供するために用いられる。スピーカ18としては、イヤホンやヘッドホンのほか、指向性があり、装着装置10’を装着するユーザにのみ音声情報を提供することが可能なスピーカなどを採用することができる。なお、装着装置10’の記憶部15には、後述する物品装置30’の発光部34の発光パターンに対応する物品情報を格納しているものとする。   The speaker 18 is used to provide audio information to the user wearing the mounting device 10 '. As the speaker 18, in addition to earphones and headphones, a speaker having directivity and capable of providing audio information only to a user wearing the mounting device 10 'can be adopted. It is assumed that the storage unit 15 of the mounting apparatus 10 'stores article information corresponding to the light emission pattern of the light emission unit 34 of the article apparatus 30' described later.

重量センサ27は、カゴ装置20’の一部に設けられ、カゴ120の内容量の変化を検出するためのセンサである。   The weight sensor 27 is provided at a part of the car device 20 ′ and is a sensor for detecting a change in the internal volume of the car 120.

発光部34は、LED(Light Emitting Diode)等の発光素子を含み、物品ごとに予め定められた発光パターンで、発光を行う。なお、発光部34の発光は、制御部33により制御される。装着装置10’の制御部17は、撮像部11による動画撮影において、画角の所定範囲内で発光パターンを撮像した場合に、ユーザがその発光パターンに対応する物品を見たと推定する。なお、発光部34による発光のオン・オフ切り替えタイミング(発光パターンの点滅間隔)は、撮像部11のフレームレートに合わせて設定されているものとする。なお、発光部34として可視光LEDを用いても赤外線LEDを用いてもよく、赤外線LEDを用いる場合には、撮像部11に赤外線撮像素子を用いればよい。   The light emitting unit 34 includes a light emitting element such as a light emitting diode (LED), and emits light with a light emitting pattern predetermined for each article. The light emission of the light emitting unit 34 is controlled by the control unit 33. The control unit 17 of the mounting apparatus 10 ′ estimates that the user looks at an article corresponding to the light emission pattern when the light emission pattern is imaged within a predetermined range of the angle of view in moving image shooting by the imaging unit 11. The on / off switching timing of the light emission by the light emitting unit 34 (the blinking interval of the light emission pattern) is set in accordance with the frame rate of the imaging unit 11. A visible light LED may be used as the light emitting unit 34 or an infrared LED may be used. When an infrared LED is used, an infrared imaging device may be used for the imaging unit 11.

次に、本第2の実施形態における電子機器システム100’の処理について、図11〜図13のフローチャートに沿って、その他図面を適宜参照しつつ詳細に説明する。なお、本第2の実施形態においても、電子機器システム100’が、スーパーマーケットで利用される場合について説明する。   Next, processing of the electronic device system 100 'in the second embodiment will be described in detail along the flowcharts of FIGS. 11 to 13 and with reference to other drawings as appropriate. Also in the second embodiment, a case where the electronic device system 100 'is used in a supermarket will be described.

(装着装置10’の処理)
図11(a)には、装着装置10’の処理がフローチャートにて示されている。なお、図11(a)においては、第1の実施形態の装着装置10の処理(図4(a))と異なるステップを太線枠にて示している。
(Processing of mounting device 10 ')
The process of mounting device 10 'is shown by the flowchart by Fig.11 (a). In FIG. 11A, the steps different from the process (FIG. 4A) of the mounting apparatus 10 of the first embodiment are indicated by thick frames.

図11(a)の処理では、装着装置10’の制御部17は、ステップS10において、カゴ装置20’との人体通信が成立するまで待機する。カゴ装置20’との人体通信が成立すると、制御部17は、ステップS110に移行する。   In the process of FIG. 11A, the control unit 17 of the mounting device 10 'stands by until human body communication with the car device 20' is established in step S10. When human body communication with the basket device 20 'is established, the control unit 17 proceeds to step S110.

ステップS110に移行すると、制御部17は、撮像部11に指示を出し、ユーザ側からの撮像(動画)を実行する。   When the process proceeds to step S110, the control unit 17 instructs the imaging unit 11 to perform imaging (moving image) from the user side.

次いで、ステップS112では、制御部17は、画角の所定範囲内において発光部34の発光を撮像したか否かを判断する。すなわち、ユーザが物品装置30’が設けられている物品を見たか否かを判断する。このステップS112における判断が否定された場合には、ステップS116に移行するが、ステップS112の判断が肯定された場合には、ステップS114に移行する。   Next, in step S112, the control unit 17 determines whether the light emission of the light emitting unit 34 has been captured within a predetermined range of the angle of view. That is, it is determined whether the user has seen the article provided with the article apparatus 30 '. If the determination in step S112 is negative, the process proceeds to step S116, but if the determination in step S112 is affirmed, the process proceeds to step S114.

ステップS114に移行すると、制御部17は、ユーザが見た物品情報をカゴ装置20’に送信する。具体的には、制御部17は、撮像部11の画角の所定範囲内において検出された発光パターンに対応する物品情報を記憶部15から取得し、通信部16を介してカゴ装置20’の第1通信部24に対して送信する。   When the process proceeds to step S114, the control unit 17 transmits the article information seen by the user to the car apparatus 20 '. Specifically, the control unit 17 acquires article information corresponding to the light emission pattern detected within the predetermined range of the angle of view of the imaging unit 11 from the storage unit 15, and the communication device 16 It transmits to the first communication unit 24.

ステップS112の判断が否定された後、あるいはステップS114の処理が行われた後、ステップS116に移行すると、制御部17は、カゴ装置20’から情報を受信したか否かを判断する。なお、カゴ装置20’から受信する情報とは、サーバ40’から送信されてくる物品や店舗のサービスに関する情報である。ここでの判断が否定された場合には、ステップS16に移行するが、肯定された場合には、ステップS118に移行する。   After the determination in step S112 is negative or after the process in step S114 is performed, when the process proceeds to step S116, the control unit 17 determines whether the information is received from the car apparatus 20 '. The information received from the basket device 20 'is information related to the article or the service of the store transmitted from the server 40'. If the determination here is denied, the processing proceeds to step S16, but if the determination is affirmative, the processing proceeds to step S118.

ステップS118に移行すると、制御部17は、カゴ装置20’から受信した情報を出力する。なお、本ステップS118の処理の詳細については、後述する。   At step S118, the control unit 17 outputs the information received from the car apparatus 20 '. The details of the process of step S118 will be described later.

ステップS116の判断が否定された後、あるいはステップS118の処理が行われた後、ステップS16に移行すると、制御部17は、レジ端末から入力のあったカゴ装置20’との人体通信が成立したか否かを判断する。ここで、レジ端末からの入力とは、ユーザが買い物を終了し、レジにカゴ120を持っていった場合に、カゴ装置20’とレジ端末との間の通信により、レジ端末からカゴ装置20’に対して送信される、買い物終了情報の入力を意味する。すなわち、レジ端末からの入力があったカゴ装置20’と装着装置10’との人体通信が成立した場合、ユーザの買い物が終了したことを意味する。したがって、買い物が終了しておらず、ステップS16の判断が否定された場合には、ステップS112に戻り、ステップS112〜S16の処理・判断を繰り返す。一方、ユーザの買い物が終了し、ステップS16の判断が肯定された場合には、図11(a)の全処理が終了する。   After the determination in step S116 is denied or after the process of step S118 is performed, when the process proceeds to step S16, the control unit 17 establishes human-body communication with the basket device 20 'which has received an input from the cash register terminal. Determine if it is or not. Here, with the input from the cashier terminal, when the user finishes shopping and the cashier 120 is brought to the cashier, communication between the cart device 20 'and the cashier terminal allows the cashier terminal 20 to communicate with the cashier terminal. It means input of the end of shopping information sent to '. That is, when human body communication between the basket device 20 'and the mounting device 10' which has been input from the cash register terminal is established, it means that the user's shopping has ended. Therefore, if the shopping has not ended and the determination in step S16 is negative, the process returns to step S112, and the processing and determination in steps S112 to S16 are repeated. On the other hand, when the user's shopping is finished and the determination in step S16 is affirmed, the whole process of FIG. 11A is finished.

(物品装置30’の処理)
図11(b)には、物品装置30’の処理がフローチャートにて示されている。なお、図11(b)においては、第1の実施形態の物品装置30の処理(図4(b))と異なるステップを太線枠にて示している。
(Processing of the article device 30 ')
In FIG. 11 (b), the process of the article device 30 'is shown in the form of a flowchart. In addition, in FIG.11 (b), the step different from the process (FIG.4 (b)) of the articles | goods apparatus 30 of 1st Embodiment is shown by the bold line frame.

図11(b)に示すように、物品装置30’では、ステップS120において、制御部33が、発光部34を用いた発光を行う。この場合、制御部33は、物品装置30’が設けられる物品に対応する発光パターンで、発光部34を発光させる。その他の処理は、図4(b)と同様である。   As shown in FIG. 11B, in the article device 30 ', in step S120, the control unit 33 performs light emission using the light emitting unit 34. In this case, the control unit 33 causes the light emitting unit 34 to emit light with a light emission pattern corresponding to the article provided with the article device 30 '. The other processing is the same as that of FIG.

(カゴ装置20’の処理)
図12には、カゴ装置20’の処理がフローチャートにて示されている。図12の処理では、ステップS130において、制御部26は、装着装置10’との人体通信が成立するまで待機する。装着装置10’との人体通信が成立して、ステップS132に移行すると、制御部26は、装着装置10’から物品情報を受信したか否かを判断する。
(Process of basket device 20 ')
In FIG. 12, the process of the car apparatus 20 'is shown in a flowchart. In the process of FIG. 12, in step S130, the control unit 26 stands by until human body communication with the mounting apparatus 10 'is established. When human body communication with the mounting apparatus 10 'is established and the process proceeds to step S132, the control unit 26 determines whether or not article information is received from the mounting apparatus 10'.

ステップS132の判断が肯定された場合には、ステップS134に移行し、制御部26は、装着装置10’から受信した物品情報を、見た物品の物品情報としてサーバ40’に送信し、ステップS136に移行する。一方、ステップS132の判断が否定された場合には、ステップS134を経ずにステップS136に移行する。   If the determination in step S132 is affirmed, the process proceeds to step S134, and the control unit 26 transmits the article information received from the mounting device 10 'to the server 40' as the article information of the viewed article, and step S136. Migrate to On the other hand, if the determination in step S132 is negative, the process proceeds to step S136 without passing through step S134.

ステップS136に移行すると、制御部26は、物品装置30’から物品情報を受信したか否かを判断する。ステップS136の判断が肯定された場合には、ステップS138に移行し、制御部26は、物品装置30’から受信した物品情報を、触れた物品の物品情報としてサーバ40’に送信し、ステップS140に移行する。一方、ステップS136の判断が否定された場合には、ステップS138を経ずにステップS140に移行する。   In step S136, the control unit 26 determines whether item information has been received from the item device 30 '. If the determination in step S136 is affirmed, the process proceeds to step S138, in which the control unit 26 transmits the article information received from the article device 30 'to the server 40' as the article information of the touched article, and step S140. Migrate to On the other hand, if the determination in step S136 is negative, the process proceeds to step S140 without passing through step S138.

ステップS140に移行すると、制御部26は、重量センサ27の検出値が変化したか否かを判断する。ここで、重量センサ27の検出値が変化した場合とは、物品がカゴ120内に新たに入れられたことを意味する。なお、カゴ120内の物品が取り出された場合も重量センサ27の検出値は変化するが、ここでは、説明の便宜上、カゴ120内から物品は取り出されないものとして説明する。ステップS140の判断が肯定された場合には、ステップS142に移行し、制御部26は、直前に触れていた物品の物品情報を、カゴに入れた物品の物品情報、すなわちユーザが購入予定の商品の情報としてサーバ40’に送信する。一方、ステップS140の判断が否定された場合には、ステップS142を経ずにステップS144に移行する。   In step S140, the control unit 26 determines whether the detected value of the weight sensor 27 has changed. Here, the case where the detection value of the weight sensor 27 has changed means that the article has been newly inserted into the car 120. Although the detection value of the weight sensor 27 also changes when the articles in the basket 120 are taken out, it will be described here that the articles are not taken out from the basket 120 for convenience of explanation. If the determination in step S140 is affirmed, the process proceeds to step S142, and the control unit 26 changes the item information of the item touched immediately before into the item information of the item put in the basket, that is, the item the user intends to purchase To the server 40 'as the On the other hand, if the determination in step S140 is negative, the process proceeds to step S144 without passing through step S142.

ステップS144に移行すると、制御部26は、サーバ40’から情報を受信したか否かを判断する。なお、サーバ40’から受信する情報とは、物品や店舗のサービスに関する情報である。このステップS144の判断が肯定された場合には、ステップS146に移行し、制御部26は、サーバ40’から受信した情報を装着装置10’に送信し、ステップS148に移行する。一方、ステップS144の判断が否定された場合には、ステップS146を経ずに、ステップS148に移行する。   In step S144, the control unit 26 determines whether information has been received from the server 40 '. The information received from the server 40 'is information related to the service of the article or the store. If the determination in step S144 is affirmed, the process proceeds to step S146, the control unit 26 transmits the information received from the server 40 'to the mounting apparatus 10', and proceeds to step S148. On the other hand, if the determination in step S144 is negative, the process proceeds to step S148 without passing through step S146.

ステップS148に移行すると、制御部26は、レジ端末から入力があったか否かを判断する。ここで、レジ端末からの入力とは、前述したように、買い物終了情報の入力を意味する。   In step S148, the control unit 26 determines whether there is an input from the cashier terminal. Here, the input from the cash register terminal means the input of the shopping end information as described above.

ステップS148の判断が否定された場合には、ステップS132に移行し、ステップS132〜S148の処理・判断を繰り返すが、ステップS148の判断が肯定された場合には、制御部26は、図12の全処理を終了する。   If the determination in step S148 is negative, the process proceeds to step S132, and the processing and determination in steps S132 to S148 are repeated. However, if the determination in step S148 is affirmed, the control unit 26 performs the process shown in FIG. End all processing.

(サーバ40’の処理)
図13には、サーバ40’の処理がフローチャートにて示されている。
(Processing of server 40 ')
In FIG. 13, the process of the server 40 'is shown in a flowchart.

図13の処理では、ステップS150において、制御部46は、カゴ装置20’から物品情報を受信するまで待機する。すなわち、ユーザが見た物品の物品情報、ユーザが触れた物品の物品情報、カゴ120に入れた物品の物品情報のいずれかが入力された段階で、制御部46は、ステップS152に移行する。   In the process of FIG. 13, in step S <b> 150, the control unit 46 stands by until the article information is received from the car device 20 ′. That is, when any one of the article information of the article viewed by the user, the article information of the article touched by the user, and the article information of the article placed in the basket 120 is input, the control unit 46 proceeds to step S152.

ステップS152に移行すると、制御部46は、記憶部41に格納されている買い物DBを更新する。ここで、買い物DBは、図14(a)に示すようなデータ構造を有している。図14(a)に示すように、物品名、見た、手に触れた、カゴに入れた、の各欄を有する。制御部46は、ユーザが見た物品の物品情報を受信した場合、当該物品の見たの欄に○を格納し、ユーザが触れた物品の物品情報を受信した場合、当該物品の触れたの欄に○を格納し、ユーザがカゴに入れた物品の物品情報を受信した場合、当該物品のカゴに入れたの欄に○を格納する。   In step S152, the control unit 46 updates the shopping DB stored in the storage unit 41. Here, the shopping DB has a data structure as shown in FIG. 14 (a). As shown in FIG. 14 (a), it has the article name, seen, touched, and put in the basket. When the control unit 46 receives the item information of the item viewed by the user, stores “o” in the “Viewed item” column of the item, and when the item information of the item touched by the user is received, the control unit 46 touches the item A circle is stored in the field, and when the item information of an article put in the basket is received by the user, the circle is stored in the box put in the basket of the article.

次いで、ステップS154では、制御部46は、買い物DBを分析する。例えば、制御部46は、図14(a)の買い物DBを参照して、牛肉Aを手に持ってから所定時間経過したような場合(新たな物品情報を所定時間受信しないような場合)には、牛肉Aと比較対照となり得る物品(例えば、牛肉B)の情報をユーザが必要としている可能性があると分析することができる。また、制御部46は、例えば、カゴに入れた物品から、ユーザがカレーを作ることを推定できるため、カレーを作る際に必要な牛肉の量(4皿分ならXg、8皿分ならYgなど)の情報をユーザが必要としている可能性があると分析することができる。また、制御部46は、カレーの付け合せ(福神漬けやロースカツ、デザートなど)のお買い得情報や、店舗のキャンペーン情報(あとZ円買えば、クジが引けるなど)の情報をユーザが必要としている可能性があると分析することができる。   Next, in step S154, the control unit 46 analyzes the shopping DB. For example, the control unit 46 refers to the shopping DB of FIG. 14A, and when a predetermined time has passed after holding the beef A in hand (when the new article information is not received for a predetermined time) Can analyze that the user may need information of an item (for example, beef B) that can be a comparison control with beef A. In addition, the control unit 46 can estimate that the user makes curry from, for example, an article put in a basket, so the amount of beef necessary for making curry (Xg for four dishes, Yg for eight dishes, etc.) Can be analyzed as the user may need it. In addition, the control unit 46 may be required by the user for information on bargains for curry dinners (such as pickles, loin cutlets, desserts, etc.) and information on store campaign information (such as buying an extra Z yen, which can pull the bully). Can be analyzed.

次いで、ステップS156では、制御部46は、ステップS154の分析の結果、ユーザに通知する情報が存在するか否かを判断する。ここでの判断が否定された場合には、ステップS150に戻るが、肯定された場合には、ステップS158に移行する。なお、同一の物品にユーザが複数回触れた場合や、以前触れた物品と類似する物品にユーザが触れた場合などにおいては、過去に通知した情報と同一の情報が、ユーザに通知する情報と判断される場合もある。したがって、制御部46は、過去に通知した情報と同一の情報については、ユーザに通知すべき情報ではないとして、通知を制限してもよい。すなわち、制御部46は、同一の物品に複数回触れた場合又は複数回見た場合、あるいは以前触れた又は見た物品と類似する物品に触れた又は見た場合に、通知される情報を制限することとしてもよい。このようにすることで、同一のユーザに同一の情報が繰り返し通知されるのを防止することができる。   Next, in step S156, the control unit 46 determines whether there is information to be notified to the user as a result of the analysis in step S154. If the determination here is denied, the process returns to step S150, but if the determination is affirmed, the process proceeds to step S158. When the user touches the same article multiple times, or when the user touches an article similar to the previously touched article, the same information as the information notified in the past notifies the user of the same information. It may be judged. Therefore, the control unit 46 may restrict the notification on the same information as the information notified in the past, not on the information to be notified to the user. That is, the control unit 46 limits the information to be notified when the same article is touched a plurality of times or viewed a plurality of times, or when an article similar to the article touched or seen before is touched or viewed. You may do it. By doing this, it is possible to prevent the same user from being repeatedly notified of the same information.

なお、制御部46は、同じ物品に触れた回数や同じ物品を見た回数に応じて、通知すべき情報を変更することとしてもよい。例えば、制御部46は、1回目には物品そのものの情報、2回目にはその物品の比較対照となる物品の情報、3回目には物品に関連するお得情報、を通知すべき情報とすることとしてもよい。このようにすることで、物品の購入に迷っている客が当該物品を購入する可能性を向上することが可能となる。これに代えて、ユーザが同一の物品に触れた時間に応じて、2回目以降はユーザに通知していない情報からユーザに通知するようにしてもよい。   The control unit 46 may change the information to be notified in accordance with the number of times the same article is touched or the number of times the same article is viewed. For example, the control unit 46 sets the information of the item itself at the first time, the information of the item to be compared with the item at the second time, and the discount information related to the item at the third time. You may do it. By doing this, it becomes possible to improve the possibility that a customer who is lost in purchasing an item can purchase the item. Instead of this, according to the time when the user touched the same article, the user may be notified from information not notified to the user from the second time onwards.

ステップS156の判断が肯定された場合、制御部46は、ステップS158に移行し、ユーザに通知する情報をカゴ装置20’に送信する。なお、ステップS158の処理が行われた場合、図12の処理では、ステップS144の判断が肯定され、ステップS146の処理(サーバから受信した情報を装着装置10’に送信する処理)が実行される。また、図12においてステップS146の処理が実行された場合、図11(a)のステップS116の判断が肯定され、ステップS118の処理(受信した情報を出力する処理)が実行される。ステップS118では、制御部17は、表示部12を用いて、ユーザに通知する情報を表示したり、スピーカ18を用いて、ユーザに通知する情報を出力したりする。なお、ステップS158の後は、ステップS150に戻り、ステップS150〜S158の処理を繰り返す。   If the determination in step S156 is affirmed, the control unit 46 proceeds to step S158 and transmits information to notify the user to the car apparatus 20 '. When the process of step S158 is performed, in the process of FIG. 12, the determination of step S144 is affirmed, and the process of step S146 (the process of transmitting the information received from the server to the mounting apparatus 10 ′) is performed. . Further, when the process of step S146 is executed in FIG. 12, the determination of step S116 of FIG. 11A is affirmed, and the process of step S118 (process of outputting the received information) is executed. In step S118, the control unit 17 uses the display unit 12 to display information to be notified to the user, and uses the speaker 18 to output information to be notified to the user. After step S158, the process returns to step S150, and the processes of steps S150 to S158 are repeated.

なお、制御部46は、買い物が終了したユーザの買い物DB(例えば、図14(b))に基づいて、各種分析を行うこととしてもよい。この場合、制御部46は、例えば、図14(b)に基づいて、カレールーAとカレールーB、及び牛肉Aと牛肉Bが比較され、カレールーB、牛肉Bが購入されたことを分析することができる。また、制御部46は、店内を歩く順番、購入の順番などを分析することもできる。また、制御部46は、商品を見ただけで購入しなかった物品、手に取ったけど購入しなかった物品を特定し、分析することができる。制御部46は、分析結果を商品の製造元、販売元等に提供することとしてもよい。   The control unit 46 may perform various analyzes based on the shopping DB (for example, FIG. 14B) of the user who has finished shopping. In this case, for example, based on FIG. 14 (b), the control unit 46 compares curry leu A with curry leu B and beef A with beef B to analyze that curry leu B and beef B are purchased. it can. The control unit 46 can also analyze the order of walking in the store, the order of purchase, and the like. In addition, the control unit 46 can identify and analyze an item that has not been purchased just by looking at the item, and an item that has been picked up but not purchased. The control unit 46 may provide the analysis result to a manufacturer, a seller or the like of the product.

以上、詳細に説明したように、本第2の実施形態によると、制御部46は、物品をユーザが手にしたこと、及び物品がユーザの視野内の所定範囲に入ったことの少なくとも一方に応じて、物品の物品情報を入力し(S150:肯定)、入力した物品情報に関する通知を行う(S158)。したがって、本第2の実施形態では、ユーザが手に触れた物品やユーザが見た物品に関連した有用な情報を、ユーザに対して報知することができる。これにより、ユーザの使い勝手を向上することができる。   As described above in detail, according to the second embodiment, at least one of the fact that the user has obtained the article and the fact that the article has entered a predetermined range within the field of view of the user according to the second embodiment Accordingly, the item information of the item is input (S150: Yes), and notification regarding the input item information is performed (S158). Therefore, in the second embodiment, it is possible to notify the user of useful information related to an item touched by the user or an item viewed by the user. Thereby, the usability of the user can be improved.

また、本第2の実施形態では、制御部46は、物品情報としてカゴ120内に入れられたユーザが購入予定の商品の情報を入力し、入力した商品に応じた通知を行う。これにより、ユーザが購入予定の商品に関連した有用な情報を、ユーザに対して報知することができる。また、制御部46は、買い物時に使用されるカゴ装置20’から購入予定の商品の情報を入力するので、購入予定の商品の情報として正確な情報を入力することができる。   Further, in the second embodiment, the control unit 46 inputs the information of the product scheduled to be purchased by the user put in the basket 120 as the item information, and performs notification according to the input product. Thereby, it is possible to notify the user of useful information related to the product which the user intends to purchase. Further, since the control unit 46 inputs the information of the product scheduled to be purchased from the basket device 20 'used at the time of shopping, it is possible to input accurate information as the information of the product scheduled to be purchased.

また、本第2の実施形態では、ユーザへの情報の通知を装着装置10’の表示部12や指向性のあるスピーカ18から行うので、他のユーザに知られることなく、ユーザごとにユーザの購買行動に応じた通知を行うことができる。   Further, in the second embodiment, since the notification of information to the user is performed from the display unit 12 of the mounting apparatus 10 ′ and the directional speaker 18, the user's Notifications can be made according to purchasing behavior.

なお、上記第2の実施形態では、制御部46は、ユーザがある物品を手に持ちながら、別の物品を見ている場合に、両商品を比較検討していると判断してもよい。   In the second embodiment, the control unit 46 may determine that the two items are compared and examined when the user is looking at another item while holding the item.

なお、上記第2の実施形態では、スーパーマーケットにおいて電子機器システム100’を利用する例について説明したが、これに限らず、衣料品店等において電子機器システム100’を利用することとしてもよい。例えば、制御部46は、ユーザが服を手に取ったときに、色違い、サイズ違いなどの在庫の有無の情報、類似商品でセール中の商品があるか否かの情報、あと1着買うと値引き、あと2000円以上買うと値引きなどの値引き情報等を表示部12やスピーカ18を用いて報知することにより、他のユーザに知られることなく、特定のユーザ(店舗の会員などのお得意様)だけに通知することができる。また、サーバ40’は、店舗の会員のユーザが誕生日に来店した際に、装着装置10’に値引き情報、プレゼント情報、お祝いのメッセージを送信するようにしてもよい。   In the second embodiment, although an example of using the electronic device system 100 'in a supermarket has been described, the present invention is not limited to this, and the electronic device system 100' may be used in a clothing store or the like. For example, when the user picks up the clothes, the control unit 46 buys one more piece of information on presence / absence of inventory such as different colors, different sizes, information as to whether or not there are items on sale with similar items. If you buy more than ¥ 2000 and discount information etc. is notified using the display unit 12 or the speaker 18, you can know a specific user (a member such as a member of the store without knowing other users) ) Can only be notified. In addition, the server 40 'may transmit discount information, present information, and a message of celebration to the mounting apparatus 10' when a user of a member of a store visits a birthday.

なお、上記第2の実施形態では、制御部17は、装着装置10’において取得された物品情報をカゴ装置20’を経由してサーバ40’に送信する場合について説明したが、これに限られるものではない。例えば、装着装置10’が無線通信可能な通信部を有している場合には、無線通信により、装着装置10’からサーバ40’に情報を送信するようにしてもよい。   In the second embodiment, the control unit 17 transmits the article information acquired by the mounting apparatus 10 ′ to the server 40 ′ via the car apparatus 20 ′. However, the present invention is limited thereto. It is not a thing. For example, when the mounting apparatus 10 'has a communication unit capable of wireless communication, the information may be transmitted from the mounting apparatus 10' to the server 40 'by wireless communication.

なお、上記第2の実施形態では、物品装置30’が発光部34を有する場合について説明したが、これに限らず、物品装置30’は発光部34を有していなくてもよい。この場合、制御部17は、撮像部11が撮像した画像を解析することで、ユーザが見た物品を特定するようにすればよい。例えば、制御部17は、表示に含まれる文字(例えば商品タグやPOP広告の文字)を認識して、ユーザが見た物品を特定することとしてもよい。   In the second embodiment, although the case where the article apparatus 30 'includes the light emitting unit 34 has been described, the present invention is not limited thereto. The article apparatus 30' may not include the light emitting unit 34. In this case, the control unit 17 may identify the article viewed by the user by analyzing the image captured by the imaging unit 11. For example, the control unit 17 may recognize characters included in the display (for example, characters of a product tag or a POP advertisement) and specify an item viewed by the user.

なお、上記第1、第2の実施形態においては、制御部46は、情報を分析する際に、ユーザの種別を考慮することとしてもよい。ユーザの種別は店舗の会員であれば、登録されている情報(名前、生年月日、住所、買物履歴)から把握できる。この場合、ユーザの性別や年代ごとに、ユーザの購買行動を分析することとしてもよい。   In the first and second embodiments, the control unit 46 may consider the type of user when analyzing information. If the type of the user is a member of the store, it can be grasped from the registered information (name, date of birth, address, shopping history). In this case, the purchasing behavior of the user may be analyzed for each gender and age of the user.

上述した各実施形態は本発明の好適な実施の例であり、適宜組み合わせることができる。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。   Each embodiment mentioned above is an example of a suitable operation of the present invention, and can be combined suitably. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.

10 装着装置
11 撮像部
12 表示部
16 通信部
17 制御部
18 スピーカ
20 カゴ装置
42 通信部
46 制御部
110 フレーム
120 カゴ
DESCRIPTION OF SYMBOLS 10 mounting apparatus 11 imaging part 12 display part 16 communication part 17 control part 18 speaker 20 basket apparatus 42 communication part 46 control part 110 flame | frame 120 basket

Claims (19)

店舗内に設置され、ユーザが所持する所持装置と近接通信することにより、前記店舗内への前記ユーザの入店を検出する入店検出部と、
前記入店検出部より前記ユーザの入店が検出されると、ユーザの購買に関する動作情報を入力する第1入力部と、
前記所持装置と通信可能であり、前記ユーザの生体に関する生体情報を入力する第2入力部と、
を備える電子機器システム
Is installed in a store, when the user proximity communication with possession device possessed a visiting detector for detecting the visiting of the user into the shop,
A first input unit for inputting operation information related to a user's purchase when the user's entry is detected by the entry detection unit;
A second input unit capable of communicating with the possessing device and inputting biological information on the living body of the user;
An electronic device system comprising:
前記第2入力部は、前記入店検出部により前記ユーザの入店が検出されると、前記ユーザの生体情報を繰り返し入力し、
前記第2入力部が入力した前記生体情報に基づいて前記ユーザの感情変化を検出する感情検出部を備える、請求項1に記載の電子機器システム
The second input unit repeatedly inputs the biometric information of the user when the entry detection unit detects the entry of the user.
The electronic device system according to claim 1, further comprising an emotion detection unit configured to detect a change in emotion of the user based on the biological information input by the second input unit.
前記第1入力部は、前記入店検出部により前記ユーザの入店が検出され、かつ、前記感情検出部により前記ユーザの感情変化を検出すると、前記ユーザの購買に関する動作情報を入力し、
前記第1入力部は、前記入店検出部により前記ユーザの入店が検出されても前記感情検出部により前記ユーザの感情変化が検出されないと、前記ユーザの購買に関する動作情報を入力しない、請求項2に記載の電子機器システム
The first input unit, when the entry detection unit detects the entry of the user and the emotion detection unit detects a change in the user's emotion, inputs operation information related to the purchase of the user,
The first input unit does not input operation information related to the purchase of the user if the emotion detection unit does not detect a change in emotion of the user even if the entrance detection unit detects the entrance of the user. The electronic device system according to Item 2.
前記第1入力部は、前記ユーザが手にした物品の通信部と通信可能である、請求項1〜3のいずれか一項に記載の電子機器システムThe electronic device system according to any one of claims 1 to 3, wherein the first input unit can communicate with a communication unit of an item held by the user. 前記第2入力部は、感情の変化の推定に利用可能な前記ユーザの生体情報を入力する請求項1〜4のいずれか一項に記載の電子機器システム。  The electronic device system according to any one of claims 1 to 4, wherein the second input unit inputs biometric information of the user that can be used to estimate a change in emotion. 前記店舗内に設置され、前記ユーザの買い物終了情報を入力する第3入力部を備える、請求項1〜のいずれか一項に記載の電子機器システムThe electronic device system according to any one of claims 1 to 5 , further comprising: a third input unit installed in the store and configured to input shopping end information of the user. 前記第2入力部が入力した前記生体情報に基づいて前記ユーザの感情変化を検出する感情検出部と、
前記店舗内に設置され、前記ユーザの買い物終了情報を入力する第3入力部と、を備え、
前記第1入力部は、前記入店検出部により前記ユーザの入店が検出された後に前記感情検出部により前記ユーザの感情変化を検出した場合と、前記入店検出部により前記ユーザの入店が検出された後に前記第3入力部により前記ユーザの買い物終了情報が入力された場合に、前記ユーザの購買に関する動作情報を入力する、請求項1に記載の電子機器システム
An emotion detection unit that detects a change in emotion of the user based on the biological information input by the second input unit;
And a third input unit installed in the store to input shopping end information of the user.
The first input unit detects a change in emotion of the user by the emotion detection unit after the entrance detection unit detects the entrance of the user, and the entrance detection unit inputs the user 2. The electronic device system according to claim 1, wherein when shopping end information of the user is input by the third input unit after the detection of, operation information regarding purchasing of the user is input.
前記第2入力部が入力した前記生体情報に基づいて前記ユーザの感情変化を検出する感情検出部と、
前記店舗内に設置され、前記ユーザの買い物終了情報を入力する第3入力部と、を備え、
前記第1入力部は、
前記入店検出部により前記ユーザの入店が検出された後に前記感情検出部により前記ユーザの感情変化を検出すると、前記感情変化の前の前記ユーザの購買に関する動作情報を第1情報として入力し、
前記入店検出部により前記ユーザの入店が検出された後に前記第3入力部により前記ユーザの買い物終了情報が入力されると、前記入店以降の前記ユーザの購買に関する動作情報を第2情報として入力する、請求項1に記載の電子機器システム
An emotion detection unit that detects a change in emotion of the user based on the biological information input by the second input unit;
And a third input unit installed in the store to input shopping end information of the user.
The first input unit is
When the change in emotion of the user is detected by the emotion detection unit after the entrance detection unit detects the entrance of the user, operation information related to the purchase of the user before the emotion change is input as the first information. ,
When shopping end information of the user is input by the third input unit after the entry detection unit detects the entry of the user by the third input unit, operation information related to purchasing of the user after the entry is second information The electronic device system according to claim 1, wherein
前記第1入力部と前記第2入力部とが入力した情報に基づいて、前記ユーザの満足度または不満足度を検出する検出部を備える、請求項1〜のいずれか一項に記載の電子機器システムThe electronic according to any one of claims 1 to 8 , further comprising: a detection unit that detects the degree of satisfaction or unsatisfaction of the user based on information input by the first input unit and the second input unit. Equipment system . 前記第1入力部と前記第2入力部とが入力した情報に基づいて、前記ユーザへの対応を指示する指示部を備える請求項1〜のいずれか一項に記載の電子機器システムThe electronic device system according to any one of claims 1 to 9 , further comprising: an instruction unit configured to instruct a response to the user based on information input by the first input unit and the second input unit. 前記指示部は、前記ユーザが所持する所持装置を介して前記ユーザへの対応を指示する、請求項10に記載の電子機器システム11. The electronic device system according to claim 10 , wherein the instruction unit instructs the user to respond via the possessed device possessed by the user. 前記第1入力部は、前記ユーザの手の動きに関する情報を入力する、請求項1〜11のいずれか一項に記載の電子機器システムThe electronic device system according to any one of claims 1 to 11 , wherein the first input unit inputs information on the movement of the user's hand. 前記第1入力部及び前記第2入力部の少なくとも一方は、前記ユーザ側からの目に関する情報を入力する、請求項1〜12のいずれか一項に記載の電子機器システムThe electronic device system according to any one of claims 1 to 12 , wherein at least one of the first input unit and the second input unit inputs information on an eye from the user side. 前記ユーザ側からの目に関する情報を取得する取得装置と通信可能な通信部を備える、請求項13に記載の電子機器システムThe electronic device system according to claim 13 , further comprising: a communication unit capable of communicating with an acquisition device that acquires information on eyes from the user side. 前記通信部は、前記取得装置に設けられた通信部と通信する、請求項14に記載の電子機器システムThe electronic device system according to claim 14 , wherein the communication unit communicates with a communication unit provided in the acquisition device. 前記通信部は、前記取得装置とは異なる通信中継装置を介して前記取得装置と通信する、請求項15に記載の電子機器システムThe electronic device system according to claim 15 , wherein the communication unit communicates with the acquisition device via a communication relay device different from the acquisition device. 前記通信部は、前記通信中継装置との近接通信または人体通信を介して前記取得装置と通信する、請求項16に記載の電子機器システムThe electronic device system according to claim 16 , wherein the communication unit communicates with the acquisition device via near field communication or human body communication with the communication relay device. 前記取得装置は、撮像を行う撮像部を有し、
前記撮像部が撮像した撮像データを分析する分析部を備える請求項1〜1のいずれか一項に記載の電子機器システム
The acquisition device includes an imaging unit that performs imaging.
Electronic device system according to any one of claims 1 4 to 1 7 comprising an analysis unit for analyzing the imaging data to which the imaging unit has captured.
前記第2入力部が入力する前記生体情報の変化に応じて、前記第1入力部が前記動作情報を入力する、請求項1〜18のいずれか一項に記載の電子機器システムThe electronic device system according to any one of claims 1 to 18 , wherein the first input unit inputs the operation information according to a change in the biological information input by the second input unit.
JP2018017080A 2018-02-02 2018-02-02 Electronic equipment system Active JP6504279B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018017080A JP6504279B2 (en) 2018-02-02 2018-02-02 Electronic equipment system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018017080A JP6504279B2 (en) 2018-02-02 2018-02-02 Electronic equipment system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013253402A Division JP2015111357A (en) 2013-12-06 2013-12-06 Electronic apparatus

Publications (2)

Publication Number Publication Date
JP2018067360A JP2018067360A (en) 2018-04-26
JP6504279B2 true JP6504279B2 (en) 2019-04-24

Family

ID=62087207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018017080A Active JP6504279B2 (en) 2018-02-02 2018-02-02 Electronic equipment system

Country Status (1)

Country Link
JP (1) JP6504279B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001344661A (en) * 2000-05-30 2001-12-14 Sharp Corp Information providing device
US20040001616A1 (en) * 2002-06-27 2004-01-01 Srinivas Gutta Measurement of content ratings through vision and speech recognition
JP2004258928A (en) * 2003-02-25 2004-09-16 Toppan Printing Co Ltd Article information providing device, shopping cart, server, and article information providing system, method and program
US7830259B2 (en) * 2005-10-11 2010-11-09 Nanonation Incorporated Method and apparatus for RFID initiated interactive retail merchandising
CN101449303B (en) * 2006-03-31 2013-02-27 检查站系统股份有限公司 System and method for securing and displaying items for merchandising

Also Published As

Publication number Publication date
JP2018067360A (en) 2018-04-26

Similar Documents

Publication Publication Date Title
US20220005095A1 (en) Augmented reality devices, systems and methods for purchasing
US11074610B2 (en) Sales promotion system, sales promotion method, non-transitory computer readable medium, and shelf system
CN104871197A (en) System and method for assisting in locating and choosing desired item in storage location
JP6050473B2 (en) Method for assisting in positioning an item in a storage position
CN104243546A (en) Information processing device, communication system, and information processing method
JP2024009011A (en) Electronic device system
JP2015111358A (en) Electronic apparatus
WO2017137428A1 (en) Indoor localization enabled shopping assistance in retail stores
JP6504279B2 (en) Electronic equipment system
JP6508367B2 (en) Electronic device system and notification method
WO2015083495A1 (en) Electronic device
JP2019114293A (en) Electronic apparatus
JP2015111357A (en) Electronic apparatus
KR20200107619A (en) Electronic device for providing customer service method and method thereof
WO2018230356A1 (en) Information presentation system
JP6794679B2 (en) Programs, information processing equipment, electronic devices, and information processing systems
JP7438879B2 (en) Systems, shelving equipment and cart POS
JP2021039784A (en) Purchase product estimation device
WO2023112519A1 (en) Wearable device, information processing method, information processing program, and information providing system
WO2014091787A1 (en) Electronic device
JP2021087029A (en) Position detection system, position detection device, and position detection method
US20170221033A1 (en) Information processing apparatus and related program
WO2023157249A1 (en) Information processing device, display system, and information processing method
US20230058828A1 (en) Information-providing system
JP2022145136A (en) Wearable article presenting system and wearable article presenting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181016

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20181217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190311

R150 Certificate of patent or registration of utility model

Ref document number: 6504279

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250