JP2024009011A - Electronic device system - Google Patents
Electronic device system Download PDFInfo
- Publication number
- JP2024009011A JP2024009011A JP2023188606A JP2023188606A JP2024009011A JP 2024009011 A JP2024009011 A JP 2024009011A JP 2023188606 A JP2023188606 A JP 2023188606A JP 2023188606 A JP2023188606 A JP 2023188606A JP 2024009011 A JP2024009011 A JP 2024009011A
- Authority
- JP
- Japan
- Prior art keywords
- user
- information
- control unit
- article
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims abstract description 24
- 230000005540 biological transmission Effects 0.000 abstract description 3
- 238000004891 communication Methods 0.000 description 106
- 238000000034 method Methods 0.000 description 71
- 230000008569 process Effects 0.000 description 67
- 238000012545 processing Methods 0.000 description 42
- 238000003384 imaging method Methods 0.000 description 31
- 230000008451 emotion Effects 0.000 description 19
- 230000008859 change Effects 0.000 description 18
- 235000015278 beef Nutrition 0.000 description 9
- 235000021549 curry roux Nutrition 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 230000002996 emotional effect Effects 0.000 description 8
- 238000012015 optical character recognition Methods 0.000 description 8
- 230000004044 response Effects 0.000 description 7
- 230000006399 behavior Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 235000021438 curry Nutrition 0.000 description 3
- 230000005684 electric field Effects 0.000 description 3
- 210000004243 sweat Anatomy 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000036772 blood pressure Effects 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 235000021186 dishes Nutrition 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 210000001508 eye Anatomy 0.000 description 2
- 235000013305 food Nutrition 0.000 description 2
- 239000004615 ingredient Substances 0.000 description 2
- 235000019633 pungent taste Nutrition 0.000 description 2
- 238000012356 Product development Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 235000011850 desserts Nutrition 0.000 description 1
- 210000000624 ear auricle Anatomy 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000003331 infrared imaging Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 235000013324 preserved food Nutrition 0.000 description 1
- 239000002994 raw material Substances 0.000 description 1
- 235000021067 refined food Nutrition 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 235000012046 side dish Nutrition 0.000 description 1
Images
Abstract
Description
本発明は、電子機器システムに関する。 The present invention relates to an electronic device system.
従来より、来店者の商品の購買に関する行動情報を取得し、その情報を販売促進に結びつける販売促進システムが提案されている(例えば、特許文献1参照)。 2. Description of the Related Art Conventionally, a sales promotion system has been proposed that acquires behavioral information regarding store visitors' purchases of products and links the information to sales promotions (for example, see Patent Document 1).
しかしながら、従来の販売促進システムでは、必要な情報が十分に取得できているとはいえず、使い勝手がよいとはいえなかった。 However, conventional sales promotion systems cannot be said to be able to obtain sufficient information and are not easy to use.
本発明は上記の課題に鑑みてなされたものであり、使い勝手のよい電子機器システムを提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an easy-to-use electronic device system.
本発明の電子機器は、物品をユーザが手にしたこと、及び物品がユーザの視野内の所定範囲に入ったことの少なくとも一方に応じて、前記物品の情報を入力する入力部(46,42)と、前記入力部が入力した前記物品の情報に関する報知を行う報知部(46)と、を備えている。 The electronic device of the present invention has an input unit (46, 42 ), and a notification section (46) that provides notification regarding the information on the article input by the input section.
この場合において、前記ユーザが前記物品を複数回手にしたとき、又は前記ユーザの視野内の所定範囲に前記物品が複数回入ったときに、前記報知部が報知する情報を制限する第1制御部(46)を備えていてもよい。この場合、前記第1制御部は、前記物品を手にした回数、又は前記物品が前記ユーザの視野内の所定範囲内に入った回数に応じて、前記報知部が報知する情報を異ならせることとしてもよい。また、前記物品と類似する類似物品を前記ユーザが手にしたとき、又は前記ユーザの視野内の所定範囲に前記類似物品が入ったときに、前記報知部が報知する情報を制限する第2制御部(46)を備えていてもよい。 In this case, a first control that limits the information that the notification unit reports when the user picks up the item multiple times or when the item enters a predetermined range within the user's visual field multiple times. (46). In this case, the first control unit may vary the information reported by the notification unit depending on the number of times the item is held in hand or the number of times the item enters a predetermined range within the visual field of the user. You can also use it as Further, a second control that limits information to be notified by the notification unit when the user picks up a similar item similar to the item, or when the similar item enters a predetermined range within the user's visual field. (46).
本発明の電子機器においては、前記入力部は、前記物品の情報として前記ユーザが購入予定の商品の情報を入力し、前記報知部は、前記購入予定の商品に応じた情報を報知することとしてもよい。この場合、前記入力部は、外部機器(20’)から前記購入予定の商品の情報を入力することとしてもよい。また、前記入力部は、前記購入予定の商品を収納する収納装置(120)を介して、前記外部機器から前記購入予定の商品に応じた情報を入力することとしてもよい。 In the electronic device of the present invention, the input unit inputs information on a product that the user plans to purchase as information on the product, and the notification unit reports information corresponding to the product that the user plans to purchase. Good too. In this case, the input unit may input information about the product to be purchased from an external device (20'). Further, the input unit may input information corresponding to the product to be purchased from the external device via a storage device (120) that stores the product to be purchased.
また、本発明の電子機器において、前記報知部は、表示を行う表示部(12)と、音声を出力する音声出力部(18)との少なくとも一方を備えていてもよい。この場合、前記音声出力部は、指向性のある音声出力部であることとしてもよい。また、本発明の電子機器においては、前記ユーザの顔付近に装着可能な装着部(110)を備えていてもよい。 Furthermore, in the electronic device of the present invention, the notification section may include at least one of a display section (12) that performs display and an audio output section (18) that outputs sound. In this case, the audio output section may be a directional audio output section. Furthermore, the electronic device of the present invention may include a mounting section (110) that can be mounted near the user's face.
なお、本発明をわかりやすく説明するために、上記においては一実施形態を表す図面の符号に対応つけて説明したが、本発明は、これに限定されるものではなく、後述の実施形態の構成を適宜改良しても良く、また、少なくとも一部を他の構成物に代替させても良い。更に、その配置について特に限定のない構成要件は、実施形態で開示した配置に限らず、その機能を達成できる位置に配置することができる。 In order to explain the present invention in an easy-to-understand manner, the above explanation has been made in correspondence with the reference numerals in the drawings representing one embodiment, but the present invention is not limited to this, and the structure of the embodiment described later is not limited to this. may be modified as appropriate, or at least a portion thereof may be replaced with other components. Further, the configuration elements whose arrangement is not particularly limited are not limited to the arrangement disclosed in the embodiments, but can be arranged at a position where the function can be achieved.
本発明は、使い勝手のよい電子機器システムを提供することができるという効果を奏する。 The present invention has the advantage of being able to provide an easy-to-use electronic equipment system.
《第1の実施形態》
以下、第1の実施形態に係る電子機器システムについて、図1~図9に基づいて、詳細に説明する。図1には、第1の実施形態に係る電子機器システム100の構成がブロック図にて示されている。
《First embodiment》
Hereinafter, the electronic device system according to the first embodiment will be described in detail based on FIGS. 1 to 9. FIG. 1 shows a block diagram of the configuration of an
電子機器システム100は、図1に示すように、装着装置10と、カゴ装置20と、物品装置30と、サーバ40と、を備える。図2に示すように、装着装置10は、店舗に来店したユーザ(買い物客)が顔に装着する眼鏡型の端末である。カゴ装置20は、店舗に設置されたカゴ120に設けられる装置である。物品装置30は、店舗内に陳列された物品(商品)130に設けられる装置である。サーバ40は、店舗内やデータセンタなどに設けられる情報処理装置である。なお、装着装置10とカゴ装置20との間、及び物品装置30とカゴ装置20との間は、人体を介した通信(人体通信)が可能とされ、カゴ装置20とサーバ40との間は、無線通信が可能とされている。
As shown in FIG. 1, the
(装着装置10)
装着装置10は、図1に示すように、撮像部11、表示部12、操作部13、マイク14、記憶部15、通信部16および制御部17を備える。なお、図3には、装着装置10が斜視図にて示されている。図3に示すように、装着装置10は、眼鏡型のフレーム110を備えている。なお、図1において図示され、図3において図示されていない装着装置10の構成は、フレーム110の内部や、フレーム110の一部に設けられているものとする。
(Mounting device 10)
As shown in FIG. 1, the
撮像部11は、レンズ、撮像素子、画像処理部などを備え、静止画や動画を撮像するものである。撮像部11は、図3に示すようにフレーム110の端部近傍(ユーザの右目近傍)に設けられている。このため、ユーザが装着装置10を装着した状態(図2の状態)では、ユーザが向いている(見ている)方向の画像を撮像することができる。また、撮像された画像の所定部分(例えば、中心からやや左側にずれた部分)は、ユーザが視線を向けている部分(注視している部分)とみなすことができる。
The
表示部12は、フレーム110内部又はフレーム110近傍に設けられたプロジェクタと、プロジェクタからの投影像をユーザの目に導くためのプリズムとを有している。表示部12は、制御部17の指示の下、各種情報を表示する。
The
操作部13は、フレーム110に設けられたタッチパッドであり、ユーザの指の動きを検知して、ユーザからの操作を受け付け、受け付けた操作情報を制御部17に送信する。
The
なお、撮像部11、表示部12、操作部13については、例えば、米国公開特許2013/0044042号にもその詳細が開示されている。
Note that the details of the
マイク14は、フレーム110に設けられ、ユーザが発した音声やユーザの周辺の音声を収集する。マイク14が収集した音声は、不図示の音声認識部により音声認識され、音声認識結果は、制御部17に送信される。制御部17は、音声認識結果に基づく処理(例えば、コマンドの実行処理など)を実行する。なお、制御部17が音声認識を実行してもよい。また、制御部17は、収集した音声データを記憶部15に格納する。
The
記憶部15は、例えば、フラッシュメモリ等の不揮発性の半導体メモリであり、撮像部11が撮像した画像データや、マイク14が集音した音声データ、表示部12に表示する表示データなどを記憶する。
The
通信部16は、他の機器と人体通信を行うものである。通信部16は、フレーム110に設けられユーザと接触可能な電極部16aと、電極部16aを用いて人体通信を行う人体通信部16bと、を有する。なお、人体通信には、人体に微弱な電流を流して、その電流を変調して情報を伝達する電流方式や、人体の表面に誘起する電界を変調して情報を伝達する電界方式などがある。本実施形態では、電流方式及び電界方式のいずれのタイプを用いることも可能である。なお、ユーザが装着装置10の電極部16aに直接接触する場合はもちろん、電極部16aとユーザとが直接接触していない場合でも、人体通信は可能である。本実施形態において、通信部16は、撮像部11が撮像した画像データやマイク14が収集した音声データをカゴ装置20に送信するものである。なお、通信部16は、他の機器と例えばBluetooth(登録商標)、RFID(Radio Frequency Identification)、TransferJet(登録商標)などの近接通信を行ってもよい。
The
なお、通信部16に代えて、もしくは通信部16と併用して無線通信部を装着装置10に持たせてもよい。この場合、画像データや音声データを無線通信によりサーバ40に直接送信するようにしてもよいし、画像データや音声データを無線通信によりカゴ装置20に送信してもよい。
Note that the mounting
制御部17は、装着装置10全体を統括的に制御する。制御部17は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備える。本実施形態では、制御部17は、撮像部11の撮像に関する制御や、表示部12の表示に関する制御などを行う。
The
なお、装着装置10は、眼鏡型の端末ではなくてもよい。例えば、体の任意の位置に装着可能な装着型端末であってもよく、その機能の一部が分離していてもよい。一例を挙げると、表示部を備えたコンタクトレンズ型の端末として、他の機能を腕時計型の端末に持たせるようにしてもよい。
Note that the mounting
(カゴ装置20)
カゴ装置20は、図1に示すように、生体センサ21、カレンダ部22、記憶部23、第1通信部24、第2通信部25、及び制御部26等を備える。
(Cage device 20)
As shown in FIG. 1, the
生体センサ21は、カゴ120のうち、ユーザがカゴ120を持つ際に手が触れる部分(持ち手部分)に設けられる。生体センサ21は、心拍数、血圧、発汗量などの体の生体情報の変化を検出するものであって、例えば、LED(light emitting diode)及びフォトセンサ、並びに、発汗センサを含む。例えば、LED及びフォトセンサを用いることで、LEDの照射する光を指に当てたときに反射する光をフォトセンサで受光することにより心拍数を検出することができる。また、発汗センサは、複数の電極により手のインピーダンスを測定することにより、発汗量を検出することができる。本実施形態においては、生体センサ21からの出力は、制御部26に送られる。そして、制御部26では、生体センサ21の出力に基づいてユーザの感情(喜怒哀楽)の変化を推定する。
The
カレンダ部22は、年、月、日、時刻といった時間情報を取得して、制御部26に対して出力する。また、カレンダ部22は計時を行う。
The
記憶部23は、例えば、フラッシュメモリ等の不揮発性の半導体メモリであり、後述するようにユーザが手にした物品に関する情報を記憶するものである。また、記憶部23は、カゴ装置20を一意に識別するためのID番号(カゴID)を記憶する。
The
第1通信部24は、他の機器と人体通信を行うものである。なお、第1通信部24は、他の機器と近接通信を行うこととしてもよい。本実施形態においては、第1通信部24は、人体通信を用いて装着装置10の通信部16及び物品装置30の通信部32と通信を行う。
The
第1通信部24は、カゴ120の持ち手部分に設けられた、ユーザの手や腕と接触可能な電極部24aと、電極部24aを介して人体通信を行う人体通信部24bと、を有する。
The
第2通信部25は、他の装置との間で無線通信を行うものである。本実施形態においてはサーバ40との間で無線通信を行い、ユーザが手に触れた物品の物品情報や、撮像部11が撮像した画像データ、マイク14が収集した音声データ、生体センサ21の検出結果をサーバ40に送信するものである。なお、本実施形態のカゴ装置20は、物品装置30とサーバ40との間における物品情報の通信、及び装着装置10とサーバ40との間における画像データや音声データの通信を中継する通信中継装置としての機能を有している。
The
制御部26は、カゴ装置20全体を制御するものであり、CPU、RAM、ROM等を備える。本実施形態では、制御部26は、物品装置30、装着装置10及びサーバ40との間における情報通信の制御を行う。
The
なお、カゴ装置20は、店舗で利用されるカートに設けることとしてもよい。この場合、生体センサ21や第1通信部24の電極部24aは、カートのグリップ部分に設けることが好ましい。
Note that the
(物品装置30)
物品装置30は、店舗等で販売される物品(商品)であって、食料品、衣服、靴、時計、アクセサリー、ゴルフクラブ、バッグ等、来店者(ユーザ)の身体に接触する物品に設けられる。本実施形態では、説明の便宜上、物品装置30は、スーパーマーケットに陳列された商品(食料品等)に設けられているものとして説明する。
(Article device 30)
The
物品装置30は、図1に示すように、記憶部31と、通信部32と、制御部33と、を備える。
The
記憶部31は、例えば、フラッシュメモリ等の不揮発性の半導体メモリであり、物品装置30が取り付けられた物品(商品)に関する情報を記憶する。具体的には、記憶部31は、物品装置30が取り付けられた物品の物品情報(商品情報)を記憶する。例えば、物品装置30が加工食品(例えば缶詰)に取り付けられている場合には、記憶部31は、物品情報として、製造者(販売者)、商品名、原材料名、賞味期限、内容量、原産国等を記憶する。
The
制御部33は、物品装置30全体を制御するものであり、CPU、RAM、ROM等を備える。本実施形態では、制御部33は、記憶部31に記憶されている物品情報のカゴ装置20への送信を制御している。なお、制御部33及び記憶部31は物品のいずれの位置に設けられても構わない。
The
通信部32は、他の機器と人体通信を行うものである。なお、通信部32は、他の機器と近接通信を行うこととしてもよい。本実施形態において、通信部32は、ユーザ(例えば手)と接触する位置に設けられる電極部32aと、電極部32aを用いて人体通信を行う人体通信部32bと、を備える。本実施形態では、図2に示すように、カゴ120を持ったユーザが物品130を手にした状態で、カゴ装置20の第1通信部24と物品装置30の通信部32との間の人体通信が成立する。これにより、記憶部31に記憶された物品情報がカゴ装置20に送信される。なお、ユーザが物品装置30の電極部32aに直接接触する場合はもちろん、電極部32aとユーザとが直接接触していない場合(手袋をしている場合など)でも、人体通信は可能である。
The
(サーバ40)
サーバ40は、図1に示すように、記憶部41と、通信部42と、OCR(Optical Character Reader)部43と、画像認識部44と、制御部46と、を備える。
(Server 40)
As shown in FIG. 1, the
記憶部41は、例えば、フラッシュメモリ等の不揮発性の半導体メモリや、ハードディスクドライブ等であり、カゴ装置20から取得した情報、すなわち、装着装置10の撮像部11が撮像した画像データやマイク14を用いて収集した音声データ、物品装置30から送信されてきた物品情報を記憶する。また、記憶部41は、店舗の従業員(店員)の顔画像データや商品画像データ、及びユーザの購入行動を分析する際に用いる各種データを記憶している。本実施形態においては、制御部46は、後述するように、画像認識部44と協働して装着装置10の撮像部11が撮像した画像データに従業員の顔や商品が含まれているかどうかを検出する。
The
通信部42は、他の機器と無線通信を行うものである。本実施形態では、通信部42は、無線通信によりカゴ装置20の第2通信部25と無線通信を行う。
The
OCR部43は、装着装置10の撮像部11が撮像した画像データに含まれる文字を認識して、テキストデータに変換する。例えば、撮像部11が、図7(b)の画像データを撮像した場合、OCR部43は、文字認識をして、テキストデータ「申し訳ございません。現在入荷待ちです。次回入荷時期は未定です。」を取得する。
The
画像認識部44は、装着装置10の撮像部11が撮像した画像データの特徴点を、例えばSURF(Speeded Up Robust Features)やSHIFT(Scale Invariant Feature Transform)といった特徴量検出アルゴリズムにより抽出し、記憶部41に記憶されている複数の認識対象の標準パターンと比較することにより画像認識を行う。本実施形態においては、画像認識部44は、記憶部41に記憶されている従業員の顔画像データや商品画像データとの比較を行って、撮像部11が撮像した画像に従業員や商品が含まれているかどうかを検出する。
The
制御部46は、サーバ40全体を制御するものであり、CPU、RAM、ROM等を備える。
The
次に、図4~図9を用いて、電子機器システム100の処理について、詳細に説明する。なお、本実施形態では、装着装置10を装着しているユーザ(買い物客)が店舗(例えば、スーパーマーケット)に来店した際に、カゴ120を保持して、買い物を行うものとする。また、ユーザは、店舗内で物品装置30が設けられた物品(商品)130を手に取ったり、カゴ120に入れたりすることで、購入する物品を決定し、レジで購入処理を行うものとする。
Next, the processing of the
(装着装置10の処理)
図4(a)には、装着装置10の処理がフローチャートにて示されている。
(Processing of mounting device 10)
FIG. 4A shows a flowchart of the processing of the mounting
図4(a)の処理では、装着装置10の制御部17は、ステップS10において、カゴ装置20との人体通信が成立するまで待機する。この場合、装着装置10を装着したユーザが店舗に入り、カゴ120を保持することでカゴ装置20にユーザの手が触れた段階で、装着装置10の通信部16とカゴ装置20の第1通信部24との間の通信が成立する。カゴ装置20との人体通信が成立すると、制御部17は、ステップS12に移行する。なお、ステップS10に代えて、ユーザが店舗に入店した後に装着装置10の電源をオンした段階でステップS12以降の処理を実行するようにしてもよい。この場合、装着装置10に、GPS(Global Positioning System)モジュールや、店舗内に設置された無線LAN(Local Area Network)基地局との通信状況に応じた位置検出が可能な位置検出装置を設け、位置検出装置の検出結果に基づいて、ユーザが店舗に入店したか否かを制御部17が判断することとしてもよい。また、これとは逆に、装着装置10は通信部16に常に電源を供給しておき、カゴ装置20との人体通信の成立により装着装置10が起動するようにしてもよい。
In the process of FIG. 4A, the
ステップS12に移行すると、制御部17は、撮像部11に指示を出し、ユーザ側からの撮像を実行する。この場合、撮像部11は、静止画及び動画のいずれを撮像してもよい。なお、本実施形態では、撮像部11は、静止画を撮像するものとして説明する。制御部17は、撮像部11によって撮像された画像(以下、視線画像と呼ぶ)を記憶部15に記憶する。なお、ステップS12では、撮像部11による視線画像の撮像に加えて、制御部17は、マイク14を用いて、ユーザの声や周辺の音を含む音声を収集し、音声データとして記憶部15に記憶してもよい。
In step S12, the
次いで、ステップS14では、制御部17は、通信部16を介して、視線画像をカゴ装置20へ送信する。なお、制御部17は、例えば装着装置10に加速度計や角速度計を設けてユーザの移動速度を計測し、ユーザの移動速度が所定の移動速度(例えば時速1Km以下)になったときに、カゴ装置20へ視線画像を送信するようにしてもよい。なお、ユーザは、買い物途中にカゴ装置20から手を離す場合もある。したがって、制御部17は、人体通信が可能である場合には、人体通信により視線画像をカゴ装置20へ送信し、人体通信が不可能な場合には、近接通信や無線通信などにより視線画像をカゴ装置20へ送信するようにしてもよい。なお、無線通信を行う場合には、装着装置10が無線通信部を備えておく必要がある。
Next, in step S14, the
次いで、ステップS16では、制御部17は、レジ端末から入力のあったカゴ装置20との人体通信が成立したか否かを判断する。ここで、レジ端末からの入力とは、ユーザがレジにカゴ120を持っていった場合に、カゴ装置20とレジ端末との間の通信により、レジ端末からカゴ装置20に対して送信される、買い物終了情報の入力を意味する。すなわち、レジ端末からの入力があったカゴ装置20と装着装置10との人体通信が成立した場合、ユーザの買い物が終了したことを意味する。したがって、買い物が終了しておらず、ステップS16の判断が否定された場合には、ステップS12に戻り、ステップS12、S14、S16の処理・判断を繰り返す。すなわち、撮像部11による視線画像の撮像と、カゴ装置20への送信が繰り返される。一方、ユーザの買い物が終了し、ステップS16の判断が肯定された場合には、図4(a)の全処理が終了する。
Next, in step S16, the
なお、ステップS16に代えて、制御部17は、ユーザ(装着装置10)が店舗から出たか否かを判断してもよい。この場合、前述のように、装着装置10には、GPS等の位置検出装置を設けておく必要がある。
Note that instead of step S16, the
(物品装置30の処理)
図4(b)には、物品装置30の処理がフローチャートにて示されている。
(Processing of article device 30)
FIG. 4(b) shows the processing of the
図4(b)の処理では、物品装置30の制御部33は、ステップS20において、カゴ装置20との人体通信が新たに成立するまで待機する。この場合、図2に示すように、カゴ120を保持するユーザが物品130を商品棚等から取り上げたタイミングで、カゴ装置20との人体通信が新たに成立し、ステップS22に移行する。
In the process of FIG. 4B, the
ステップS22に移行すると、制御部33は、通信部32に指示を出し、記憶部31に記憶されている物品情報をカゴ装置20へ送信する。
In step S22, the
その後は、ステップS20に戻り、制御部33は、ステップS20、S22の処理・判断を繰り返す。
After that, the process returns to step S20, and the
図4(b)の処理が実行されることで、カゴ120を保持するユーザが、買い物途中に手にした物品130の情報をカゴ装置20に逐一送信することが可能となる。
By executing the process shown in FIG. 4B, the user holding the
(カゴ装置20の処理)
図5には、カゴ装置20の処理がフローチャートにて示されている。
(Processing of the basket device 20)
FIG. 5 shows the processing of the
図5の処理では、ステップS30において、カゴ装置20の制御部26が、装着装置10との人体通信が成立するまで待機する。装着装置10との人体通信が成立すると、制御部26は、ステップS32に移行する。なお、ステップS32に移行するタイミングは、前述した図4(a)のステップS12に移行するタイミングと同一である。
In the process of FIG. 5, in step S30, the
ステップS32に移行すると、制御部26は、装着装置10から送信されてくる視線画像を取得し、記憶部23に記憶する。なお、例えばカゴ装置20に加速度計や角速度計を設けてユーザの移動速度を計測し、ユーザの移動速度が所定の移動速度(例えば時速1Km以下)になったときに、装着装置10から視線画像が送信されてきた画像を取得し、記憶部23に記憶することとしてもよい。
In step S<b>32 , the
次いで、ステップS34では、制御部26が、新たな物品情報を受信したか否かを判断する。ステップS34の判断が否定された場合、すなわち、新たな物品情報を受信していない場合には、ステップS38に移行する。一方、ステップS34の判断が肯定された場合、すなわち、新たな物品情報を受信した場合には、ステップS36に移行する。
Next, in step S34, the
ステップS36に移行すると、制御部26は、物品情報を取得し、記憶部23に記憶する。その後は、ステップS38に移行する。
When proceeding to step S36, the
ステップS38に移行すると、制御部26は、生体センサ21を用いた検出を実行する。なお、ステップS32、S34及びS36、S38の処理の順番は適宜入れ替えてもよく、各ステップの処理を同時並行的に実行することとしてもよい。
When proceeding to step S38, the
次いで、ステップS40では、制御部26が、生体センサ21の検出結果に基づいて、ユーザに感情の変化があったか否かを判断する。この場合、例えば、生体センサ21の検出結果から、心拍数が急激に上昇した場合や、血圧が急激に上昇した場合、発汗量が急激に増加した場合などにおいて、ユーザに感情の変化があったと判断する。なお、ユーザの感情が変化する例としては、タイムサービスが始まり商品を安く購入できるチャンスに遭遇したり、購入を予定していた商品が売り切れであったり、レジが混雑しているような場合である。ステップS40の判断が否定された場合には、ステップS44に移行するが、ステップS40の判断が肯定された場合には、ステップS42に移行する。
Next, in step S40, the
ステップS42に移行すると、制御部26は、第2通信部25に指示を出し、記憶部23に記憶されている、感情変化直前に取得された視線画像及び物品情報(以下、第1情報と呼ぶ)をサーバ40に送信する。なお、感情変化直前とは、例えば、感情変化が生じる数秒前を意味する。なお、感情変化直前に物品情報が取得されない場合もある。感情変化が物品130を保持したことに起因しない場合である。この場合には、制御部26は、視線画像を第1情報としてサーバ40に送信すればよい。
In step S42, the
ここで、感情変化直前に取得された視線画像としては、図7(a)、図7(b)、図8に示すような視線画像が想定される。図7(a)の視線画像は、ユーザがタイムサービスに遭遇したことを示す画像であり、具体的には、商品に貼付されたタイムサービスのシールをユーザが見たことを示す画像である。また、図7(b)の視線画像は、ユーザが購入しようとしていた商品が売り切れている場合の画像であり、具体的には、入荷待ちの掲示をユーザが見たことを示す画像である。また、図8の視線画像は、レジが混雑している状態をユーザが見たことを示す画像である。 Here, as the line-of-sight image acquired immediately before the emotional change, line-of-sight images as shown in FIGS. 7(a), 7(b), and 8 are assumed. The line-of-sight image in FIG. 7A is an image indicating that the user has encountered a time service, and specifically, is an image indicating that the user has seen a time service sticker attached to a product. Further, the line-of-sight image in FIG. 7B is an image when the product that the user was trying to purchase is sold out, and specifically, it is an image showing that the user has seen a notice indicating that the product is backordered. Furthermore, the line-of-sight image in FIG. 8 is an image showing that the user sees the cash register being crowded.
なお、第1情報は、カゴIDが付加された状態でサーバ40に送信される。すなわち、サーバ40では、第1情報をカゴIDを用いて管理する。
Note that the first information is transmitted to the
ステップS40が否定された後、あるいはステップS42の処理が実行された後、制御部26は、ステップS44において、レジ端末から入力があったか否かを判断する。この場合のレジ端末の入力とは、前述したように、ユーザが買い物を終了し、レジにカゴ120を持っていった場合に、カゴ装置20とレジ端末との間の通信により、レジ端末からカゴ装置20に対して送信される、買い物終了情報の入力を意味する。このステップS44の判断が否定された場合、すなわち、ユーザの買い物が終了していない場合には、ステップS32に戻り、ステップS32~S44の処理・判断を繰り返す。一方、ステップS44の判断が肯定された場合には、ステップS46に移行する。
After step S40 is negative or after the process of step S42 is executed, the
ステップS46に移行すると、制御部26は、第2通信部25に指示を出し、ステップS30以降取得された全ての視線画像、物品情報、生体情報(以下、第2情報と呼ぶ)をサーバ40に送信する。すなわち、制御部26は、第2通信部25を介して、ユーザが買い物をしている間に得られた視線画像、ユーザが手にした物品の物品情報、及びユーザが買い物をしている間に得られた感情の変化情報をサーバ40に送信する。なお、制御部26は、ユーザが買い物をしている間に装着装置10のマイク14を用いて取得された音声データをサーバ40に送信することとしてもよい。なお、制御部26から送信される各情報には、情報の取得時刻(カレンダ部22から得られる)がタイムスタンプとして付与されるものとする。また、第2情報は、カゴIDが付加された状態でサーバ40に送信される。すなわち、サーバ40では、第2情報をカゴIDを用いて管理する。その後は、制御部26は、図5の全処理を終了する。
When proceeding to step S46, the
以上のように、制御部26が図5の処理を実行することで、ユーザが買い物をしている間に感情の変化があったタイミングで、カゴ装置20からサーバ40に対して第1情報が送信され、ユーザが買い物を終了したタイミングで、カゴ装置20からサーバ40に対して第2情報が送信されるようになっている。
As described above, when the
(サーバ40の処理)
図6には、サーバ40の処理がフローチャートにて示されている。
(Processing of server 40)
FIG. 6 shows a flowchart of the processing of the
図6の処理では、サーバ40の制御部46は、ステップS50において、カゴ装置20からの入力があるまで待機する。すなわち、制御部46は、カゴ装置20において図5のステップS42又はS46が実行されることにより、第1情報又は第2情報が送信されてきた段階で、ステップS52に移行する。
In the process of FIG. 6, the
ステップS52に移行すると、制御部46は、入力された情報が第1情報であるか否かを判断する。すなわち、制御部46は、ユーザに感情の変化があった直前にカゴ装置20で取得された視線情報や物品情報が入力されたか否かを判断する。ここでの判断が肯定された場合には、ステップS54に移行する。
When proceeding to step S52, the
ステップS54に移行すると、制御部46は、第1情報に基づく感情分析を実行する。具体的には、制御部46は、感情が変化した直前に取得された視線画像をOCR部43や画像認識部44を用いて分析した結果や、感情が変化した直前に取得された物品情報を分析した結果に基づいて、ユーザの感情分析(満足か、不満かの分析)を行う。
When proceeding to step S54, the
例えば、制御部46は、視線画像が図7(a)の画像であった場合には、OCR部43を用いることで「朝市 タイムサービス 表示価格より20%引き」という文字を検出することができる。この場合、タイムサービス、20%引きといった、買い物客にとってポジティブな単語が含まれているため、制御部46は、ユーザが喜んで満足な状態(ポジティブな状態)であると分析する。なお、買い物客にとってポジティブな単語は、記憶部41に記憶されているものとする。
For example, if the line-of-sight image is the image shown in FIG. 7(a), the
また、制御部46は、視線画像が図7(b)の画像であった場合には、OCR部43を用いることで、「申し訳ございません。現在入荷待ちです。次回入荷時期は未定です。」という文字を検出することができる。この場合、申し訳ございません、入荷待ち、未定といった、買い物客にとってネガティブな単語が含まれているため、制御部46は、ユーザが哀しんで不満足な状態(ネガティブな状態)であると分析する。なお、買い物客にとってネガティブな単語は、記憶部41に記憶されているものとする。
In addition, when the line-of-sight image is the image shown in FIG. 7(b), the
また、制御部46は、視線画像が図8の画像であった場合には、画像認識部44を用いることで、レジが混雑していることや、レジ待ちしている人が不満顔である(笑顔でない)ということを検出することができる。この場合、制御部46は、ユーザが哀しんで不満足な状態(ネガティブな状態)であると判断する。
In addition, when the line-of-sight image is the image shown in FIG. 8, the
また、制御部46は、視線画像に従業員の顔の画像が含まれる場合には、従業員に起因してユーザの感情が変化したと判断する。この場合、制御部46は、画像認識部44を用いることで、従業員の顔が笑顔か否かを認識する。なお、画像認識部44は、視線画像に含まれる顔の画像が従業員の顔の画像であるか否か、笑顔であるか否かを、記憶部41に記憶されている従業員の顔画像データを用いて判断する。そして、制御部46は、従業員が笑顔でない場合には、ユーザが哀しんでいる又は怒っている不満足な状態(ネガティブな状態)であると判断し、従業員が笑顔の場合には、満足な状態(ポジティブな状態)であると判断する。
Further, if the line-of-sight image includes an image of the employee's face, the
更に、制御部46は、視線画像において物品を手に持っている状態が撮像されていた場合には、物品を見たこと、触れたことによって感情に変化が生じたと判断する。なお、制御部46は、例えば、カゴ装置20が取得した物品情報を併用することで、ユーザが喜んでいるのか哀しんでいるのかを判断することができる場合もある。例えば、物品情報に、数量限定などの情報が含まれている場合には、ユーザが喜んでいると判断することができる。また、物品情報から、賞味期限切れであることが判明した場合には、ユーザが哀しんでいると判断することができる。
Further, if the line-of-sight image captures the state in which the object is being held in the hand, the
図6に戻り、次のステップS56では、制御部46が、感情分析結果に基づいて、対応が必要か否かを判断する。具体的には、制御部46は、ユーザが哀しんでいたり怒っているなど不満足な状態の場合(ネガティブな状態にある場合)に、対応が必要であると判断する。ステップS56の判断が否定された場合には、ステップS50に戻る。一方、ステップS56の判断が肯定された場合には、ステップS58に移行する。
Returning to FIG. 6, in the next step S56, the
ステップS58に移行すると、制御部46は、感情分析結果に基づく対応処理を実行する。例えば、制御部46は、視線画像が図4(b)の場合には、記憶部41に記憶されているお詫びのメッセージや次回入荷予定などの各種メッセージを、通信部42を介して、カゴ装置20に送信する。そして、カゴ装置20の制御部26は、第1通信部24を介して、各種メッセージを装着装置10に送信する。この場合、装着装置10では、制御部17は、表示部12を用いて、各種メッセージを表示(投影)する。
When proceeding to step S58, the
また、例えば、視線画像が図8の場合には、制御部46は、レジが混雑していることに対するお詫びのメッセージを、カゴ装置20を介して装着装置10の制御部17に送信する。この場合、制御部17は、表示部12にお詫びのメッセージを表示(投影)する。なお、制御部46は、店内放送を利用して、レジの混雑に対するお詫びのメッセージを出力してもよい。また、制御部46は、店内放送を利用して、レジ打ちを行う従業員を補充すべき旨のメッセージ(レジ応援のメッセージ)を出力するようにしてもよい。あるいは、制御部46は、従業員が保持する端末に対して、レジ応援のメッセージを出力するようにしてもよい。また、制御部46は、レジが混雑している状況を見たユーザに対して、レジの進み具合(客1人当たりの処理時間)やレジを担当する店員の熟練度(見習いか、ベテランか)を報知することとしてもよい。
Further, for example, when the line-of-sight image is shown in FIG. 8, the
また、例えば、視線画像から、従業員の対応に問題があると判断された場合には、制御部46は、他の従業員や店長などが保持する端末に対して、客と従業員とのトラブルが発生した旨のメッセージを出力する。なお、カゴ装置20に無線LAN基地局との通信感度に応じて位置を検出することが可能な位置検出装置を設けておけば、制御部46は、位置検出装置の検出結果に基づいて、トラブル発生位置を他の従業員や店長などに知らせることができる。
For example, if it is determined from the line of sight image that there is a problem with the employee's response, the
更に、例えば、視線画像から、客が物品に対して哀しんでいる又は怒っていると判断された場合には、制御部46は、店内放送や従業員が保持する端末を利用して、従業員が直接対応すべき旨のメッセージを出力してもよい。この場合にも、制御部46は、従業員に客の位置を知らせるようにしてもよい。
Further, for example, if it is determined from the line of sight image that the customer is sad or angry about the item, the
なお、第1情報には、感情変化の直前にマイク14が収集した音声データが含まれていてもよい。制御部46は、音声データの分析により、音声データにユーザの怒声やため息、従業員の謝罪の言葉が含まれていた場合には、ユーザが怒っていたり、不満足な状態にある(ネガティブな状態にある)と判断することができる。
Note that the first information may include audio data collected by the
なお、上述した対応処理のパターンは、予め定められているものとし、当該パターンは、記憶部41に記憶されているものとする。
Note that it is assumed that the pattern of the above-mentioned corresponding processing is determined in advance, and that the pattern is stored in the
上記のようにしてステップS58の処理が終了した後は、ステップS50に戻る。 After the process of step S58 is completed as described above, the process returns to step S50.
一方、ステップS52の判断が否定された場合、すなわち、カゴ装置20から入力された情報が第2情報であった場合には、ステップS60に移行する。
On the other hand, if the determination in step S52 is negative, that is, if the information input from the
ステップS60に移行すると、制御部46は、第2情報に基づく、購入行動分析を実行する。この場合、制御部46は、ユーザが買い物の途中で、何を見て、何を手にとり、何を購入したかということを分析する。換言すれば、ユーザがどの商品を見なかったり、手に取らなかったかということを分析しているともいえる。
When proceeding to step S60, the
図9には、あるユーザが入店してからレジを通るまでの間に、手に取った物品の順が示されている。また、図9では、ユーザが購入した物品に下線を付している。なお、制御部46は、ユーザが購入した物品の情報として、レジ端末から取得した購入情報を利用することができる。
FIG. 9 shows the order of items picked up by a certain user from when he/she enters the store until he/she passes through the cash register. Furthermore, in FIG. 9, the items purchased by the user are underlined. Note that the
図9において、ユーザは、カレールーAとカレールーBとを手に取っているものの、最終的にはカレールーAを購入している。この場合、制御部46は、カレールーAを手に取った際の視線画像と、カレールーBを手に取った際の視線画像とを参照することで、何を判断基準として、カレールーAを購入したかを分析する。例えばユーザが注視している領域(視線画像の所定位置(ほぼ中心))に値段の情報が長時間含まれていた場合には、値段に基づいてカレールーAを購入したと判断する。また、ユーザが注視している領域に、辛さの表示や、パッケージの写真、成分表示や、賞味期限が長時間含まれていた場合には、それらの情報に基づいて、カレールーAを購入したと判断する。なお、制御部46は、ユーザが注視している領域に、値段や辛さの表示、成分や賞味期限などが含まれているか否かを、OCR部43を用いて抽出するものとする。
In FIG. 9, the user picks up curry roux A and curry roux B, but ultimately purchases curry roux A. In this case, the
なお、牛肉A,Bについても同様に、購入の際の判断基準を判断するようにすればよい。例えば、制御部46は、ユーザが注視している領域に、内容量の表示や、部位の表示、100g当たりの値段などが長時間含まれていた場合には、それらの情報に基づいて、牛肉Bを購入したと判断する。
Note that the criteria for purchasing beef A and B may be determined in the same manner. For example, if the area that the user is looking at includes a display of content amount, a display of parts, a price per 100g, etc. for a long time, the
また、制御部46は、複数のユーザにおいて取得されたデータを参照することで、ある商品を購入したユーザが比較検討をした別の商品が何であるかを集計したり、比較検討した結果購入した商品の決め手が何であったかを集計したりすることができる。なお、購入の際の判断基準の分析結果は、各商品の製造元や生産者に提供することとしてもよい。製造元や生産者は、この分析結果を今後の商品開発や商品の改善に役立てることが可能である。
In addition, by referring to data acquired by multiple users, the
また、制御部46は、図9のデータを参照することで、客が物品を手に取った順番を集計することができる。この場合、制御部46は、集計結果を利用することで、客の店舗内における動きの傾向を分析することができる。これにより、制御部46は、客の動きに基づく、物品や棚の適切な配置を求めることができる。
Furthermore, by referring to the data in FIG. 9, the
更に、制御部46は、入店から退店までの間にユーザがポジティブな状態になった回数や位置、ネガティブな状態になった回数や位置を集計することで、客の満足度や不満度を位置ごと(売り場ごと)に分析することができる。
Furthermore, the
また、制御部46は、客がネガティブな状態からポジティブな状態に変化した場合の視線画像を分析することとしてもよい。制御部46は、視線画像を分析した結果、ネガティブな状態からポジティブな状態に変化する間の視線画像に従業員の顔が含まれていた場合には、当該従業員の対応によりトラブルが解消したと分析することができる。また、ネガティブな状態からポジティブな状態に変化する間に装着装置10や店内放送を用いた対応処理を行っていた場合には、対応処理が適切であったと分析することができる。
Further, the
以上、詳細に説明したように、本第1の実施形態によると、サーバ40の制御部46及び通信部42は、ユーザの購買に関する動作情報として視線画像や物品情報を入力し、ユーザの購買に関する感情情報として生体センサ21の検出結果を入力する。これにより、制御部46は、視線画像や物品情報、生体センサ21の検出結果に基づいた購買に関する分析を行い、購買に関する有用な情報を取得・提供することが可能となる。したがって、ユーザによる使い勝手を向上することができる。この場合、ユーザの側から撮像した視線画像を用いることで、店舗の棚側から撮像した画像を用いる場合と比較して、ユーザが実際に見ている状況、すなわち、視線の先にある物品や表示、状況等を考慮した分析が可能となる。
As described above in detail, according to the first embodiment, the
ここで、従来は、装着装置10のような撮像部11が搭載された装置を装着したユーザが店舗内に入店してきた場合、店舗内の様子や商品が勝手に撮像されてしまうため、店舗側にとってメリットがあるとはいえなかった。これに対し、本第1の実施形態では、ユーザが装着装置10を装着して店舗に入るのを許容する代わりに、店舗側は、撮像部11が撮像した画像データをカゴ装置20を介してもらうこととしている。これにより、店舗は、画像データを分析することで、ユーザの商品購入までの行動や感情を分析することが可能である。
Here, conventionally, when a user wearing a device equipped with an
また、従来は、ショッピングの満足度などをユーザに対するアンケートにより収集することとしていたが、ユーザにとっては店舗のWebサイトにアクセスして、質問に回答したり、紙に回答を筆記したりする必要があり煩わしいものであった。これに対し、本第1の実施形態では、装着装置10で取得された画像データとユーザの生体情報とを紐付けて店舗側に提供することにより、ユーザが無意識のうちに、ユーザの満足度や不満度を店舗側に伝達することが可能である。
In addition, conventionally, shopping satisfaction was collected through surveys of users, but users now have to access the store's website, answer questions, and write down their answers on paper. It was quite annoying. In contrast, in the first embodiment, by linking the image data acquired by the wearing
また、本第1の実施形態では、視線画像や物品情報、生体センサ21の検出結果に基づいて、ユーザへのメッセージや従業員へのメッセージを出力する。これにより、不満足に感じたユーザに対して即時対応を行うことが可能となる。
Further, in the first embodiment, a message to the user or a message to the employee is output based on the line-of-sight image, article information, and the detection result of the
また、本第1の実施形態では、制御部46は、視線画像や物品情報からユーザが物品を保持したことを判断する。これにより、制御部46は、ユーザが物品を保持したという情報や保持した順番等を分析することで、購買に関する有用な情報を取得・提供することが可能となる。
Further, in the first embodiment, the
また、本第1の実施形態では、制御部46は、生体センサ21の検出結果を利用するため、ユーザに感情の変化が生じたか否かを簡易に判断することが可能である。また、生体センサ21の検出結果とあわせてユーザの視線画像を分析することで、ユーザの感情がポジティブになったのか、ネガティブになったのかを精度よく判断することができる。
Further, in the first embodiment, since the
また、本第1の実施形態では、装着装置10が、視線画像を撮像し、撮像した視線画像を人体通信を介してユーザに接触しているカゴ装置20に対して送信する。これにより、カゴ装置20は、カゴ120を保持しているユーザの視線画像のみを取得することが可能である。すなわち、店舗に入店したユーザの装着装置10から視線画像を確実に取得し、店舗に入店していない人(例えば店舗付近を通りがかった人)の装着装置10から視線画像を取得してしまうのを確実に防止することができる。
Furthermore, in the first embodiment, the mounting
また、本第1の実施形態では、生体センサ21の検出結果に変化があったとき、すなわち、ユーザの感情の変化があったときに、サーバ40に対して第1情報が送信される(S42)。これにより、分析が必要な情報を適切なタイミングでサーバ40に送信することができる。
Further, in the first embodiment, when there is a change in the detection result of the
なお、上記第1の実施形態では、生体センサ21をカゴ装置20が備える場合について説明したが、これに限らず、生体センサを装着装置10が備えていてもよい。この場合、装着装置10のフレームの一部やフレーム近傍に顔の一部と接触する生体センサを設けることとすればよい。また、装着装置10に耳たぶに装着可能な生体センサを接続するようにしてもよい。
In addition, although the case where the cage|
また、上記第1の実施形態では、物品装置30を物品130に設ける場合について説明した。しかしながら、これに限られるものではなく、ステップS54の感情分析やステップS60の購入行動分析において物品情報が不要な場合には、物品装置30は必ずしも物品130に設けなくてもよい。例えば、視線画像において、物品を手に持っている状態が撮像されていた場合に、画像認識を行うことで、手に持っている物品を特定できる場合などである。
Further, in the first embodiment, the case where the
なお、上記第1の実施形態では、物品装置30がカゴ装置20との間で人体通信を行う場合について説明したが、これに限らず、物品装置30は、装着装置10との間で人体通信を行うこととしてもよい。この場合、装着装置10とカゴ装置20との間で人体通信が成立した状態で、装着装置10が取得した物品情報を装着装置10からカゴ装置20に対して送信するようにすればよい。
Note that in the first embodiment, a case has been described in which the
なお、上記第1の実施形態では、生体センサ21の検出結果を利用する場合について説明したが、これに限られるものではなく、生体センサ21の検出結果を利用しないこととしてもよい。この場合、制御部46は、例えば、視線画像に基づいて、ユーザが所定時間の間、図7(a)のマークを凝視していると判断した場合に、ユーザがポジティブな状態にあると推定することとしてもよい。また、制御部46は、例えば、視線画像に基づいて、ユーザが図7(b)の張り紙や図7(c)のレジ待ち状態を所定時間凝視していると判断した場合に、ユーザがネガティブな状態にあると推定することとしてもよい。この場合、制御部46は、ユーザが見ることでポジティブ又はネガティブな状態になると予測されるマークや張り紙、状況の画像パターンを予め記憶しておき、該画像パターンと視線画像との比較を行うこととすればよい。
In the first embodiment, a case has been described in which the detection results of the
なお、上記第1の実施形態では、視線画像の所定位置を視線の中心位置とみなす場合について説明したが、これに限られるものではない。例えば、赤外線照射部と、赤外線受光部と、を有し、赤外線照射部から眼球に対して赤外線を照射し、眼球にて反射した赤外線を赤外線受光部において受光することで視線方向を検出する視線検出部を装着装置10に別途設けることとしてもよい。
Note that in the first embodiment, a case has been described in which the predetermined position of the line-of-sight image is regarded as the center position of the line-of-sight, but the present invention is not limited to this. For example, the line of sight includes an infrared irradiation section and an infrared reception section, and the line of sight is detected by emitting infrared rays from the infrared irradiation section to the eyeball, and receiving the infrared rays reflected by the eyeball at the infrared reception section. The detection section may be provided separately in the mounting
なお、サーバ40は、複数の店舗における客の満足度や不満足度などを集計して、1つのWebサイトにおいて各店舗のユーザ評価として公表することとしてもよい。この場合、例えば、各店舗の評価を星の数や満足度の点数などで公表することができる。
Note that the
《第2の実施形態》
次に、第2の実施形態に係る電子機器システム100’について、図10~図14に基づいて、詳細に説明する。
《Second embodiment》
Next, the electronic device system 100' according to the second embodiment will be described in detail based on FIGS. 10 to 14.
図10には、電子機器システム100’の構成がブロック図にて示されている。図10では、電子機器システム100’のうち、第1の実施形態の電子機器システム100と異なる構成を太線枠にて示している。
FIG. 10 shows a block diagram of the configuration of an electronic device system 100'. In FIG. 10, the configurations of the electronic device system 100' that are different from the
図10に示すように、電子機器システム100’においては、装着装置10’がスピーカ18を備え、カゴ装置20’が重量センサ27を備え、物品装置30’が発光部34を備えている。なお、サーバ40’の構成は、第1の実施形態のサーバ40と同様である。
As shown in FIG. 10, in the electronic device system 100', the mounting device 10' includes the
スピーカ18は、装着装置10’を装着するユーザに音声情報を提供するために用いられる。スピーカ18としては、イヤホンやヘッドホンのほか、指向性があり、装着装置10’を装着するユーザにのみ音声情報を提供することが可能なスピーカなどを採用することができる。なお、装着装置10’の記憶部15には、後述する物品装置30’の発光部34の発光パターンに対応する物品情報を格納しているものとする。
The
重量センサ27は、カゴ装置20’の一部に設けられ、カゴ120の内容量の変化を検出するためのセンサである。
The weight sensor 27 is provided in a part of the car device 20' and is a sensor for detecting a change in the content of the
発光部34は、LED(Light Emitting Diode)等の発光素子を含み、物品ごとに予め定められた発光パターンで、発光を行う。なお、発光部34の発光は、制御部33により制御される。装着装置10’の制御部17は、撮像部11による動画撮影において、画角の所定範囲内で発光パターンを撮像した場合に、ユーザがその発光パターンに対応する物品を見たと推定する。なお、発光部34による発光のオン・オフ切り替えタイミング(発光パターンの点滅間隔)は、撮像部11のフレームレートに合わせて設定されているものとする。なお、発光部34として可視光LEDを用いても赤外線LEDを用いてもよく、赤外線LEDを用いる場合には、撮像部11に赤外線撮像素子を用いればよい。
The
次に、本第2の実施形態における電子機器システム100’の処理について、図11~図13のフローチャートに沿って、その他図面を適宜参照しつつ詳細に説明する。なお、本第2の実施形態においても、電子機器システム100’が、スーパーマーケットで利用される場合について説明する。 Next, the processing of the electronic device system 100' in the second embodiment will be described in detail along the flowcharts of FIGS. 11 to 13 and with appropriate reference to other drawings. In the second embodiment as well, a case will be described in which the electronic device system 100' is used in a supermarket.
(装着装置10’の処理)
図11(a)には、装着装置10’の処理がフローチャートにて示されている。なお、図11(a)においては、第1の実施形態の装着装置10の処理(図4(a))と異なるステップを太線枠にて示している。
(Processing of mounting device 10')
FIG. 11A shows a flowchart of the processing of the mounting device 10'. Note that in FIG. 11(a), steps that are different from the processing of the mounting
図11(a)の処理では、装着装置10’の制御部17は、ステップS10において、カゴ装置20’との人体通信が成立するまで待機する。カゴ装置20’との人体通信が成立すると、制御部17は、ステップS110に移行する。
In the process of FIG. 11A, the
ステップS110に移行すると、制御部17は、撮像部11に指示を出し、ユーザ側からの撮像(動画)を実行する。
In step S110, the
次いで、ステップS112では、制御部17は、画角の所定範囲内において発光部34の発光を撮像したか否かを判断する。すなわち、ユーザが物品装置30’が設けられている物品を見たか否かを判断する。このステップS112における判断が否定された場合には、ステップS116に移行するが、ステップS112の判断が肯定された場合には、ステップS114に移行する。
Next, in step S112, the
ステップS114に移行すると、制御部17は、ユーザが見た物品情報をカゴ装置20’に送信する。具体的には、制御部17は、撮像部11の画角の所定範囲内において検出された発光パターンに対応する物品情報を記憶部15から取得し、通信部16を介してカゴ装置20’の第1通信部24に対して送信する。
In step S114, the
ステップS112の判断が否定された後、あるいはステップS114の処理が行われた後、ステップS116に移行すると、制御部17は、カゴ装置20’から情報を受信したか否かを判断する。なお、カゴ装置20’から受信する情報とは、サーバ40’から送信されてくる物品や店舗のサービスに関する情報である。ここでの判断が否定された場合には、ステップS16に移行するが、肯定された場合には、ステップS118に移行する。
After the determination in step S112 is negative or after the process in step S114 is performed, the process proceeds to step S116, and the
ステップS118に移行すると、制御部17は、カゴ装置20’から受信した情報を出力する。なお、本ステップS118の処理の詳細については、後述する。
In step S118, the
ステップS116の判断が否定された後、あるいはステップS118の処理が行われた後、ステップS16に移行すると、制御部17は、レジ端末から入力のあったカゴ装置20’との人体通信が成立したか否かを判断する。ここで、レジ端末からの入力とは、ユーザが買い物を終了し、レジにカゴ120を持っていった場合に、カゴ装置20’とレジ端末との間の通信により、レジ端末からカゴ装置20’に対して送信される、買い物終了情報の入力を意味する。すなわち、レジ端末からの入力があったカゴ装置20’と装着装置10’との人体通信が成立した場合、ユーザの買い物が終了したことを意味する。したがって、買い物が終了しておらず、ステップS16の判断が否定された場合には、ステップS112に戻り、ステップS112~S16の処理・判断を繰り返す。一方、ユーザの買い物が終了し、ステップS16の判断が肯定された場合には、図11(a)の全処理が終了する。
After the determination in step S116 is negative or after the process in step S118 is performed, the
(物品装置30’の処理)
図11(b)には、物品装置30’の処理がフローチャートにて示されている。なお、図11(b)においては、第1の実施形態の物品装置30の処理(図4(b))と異なるステップを太線枠にて示している。
(Processing of article device 30')
FIG. 11(b) shows a flowchart of the processing of the article device 30'. Note that in FIG. 11(b), steps that are different from the processing of the
図11(b)に示すように、物品装置30’では、ステップS120において、制御部33が、発光部34を用いた発光を行う。この場合、制御部33は、物品装置30’が設けられる物品に対応する発光パターンで、発光部34を発光させる。その他の処理は、図4(b)と同様である。
As shown in FIG. 11(b), in the article device 30', in step S120, the
(カゴ装置20’の処理)
図12には、カゴ装置20’の処理がフローチャートにて示されている。図12の処理では、ステップS130において、制御部26は、装着装置10’との人体通信が成立するまで待機する。装着装置10’との人体通信が成立して、ステップS132に移行すると、制御部26は、装着装置10’から物品情報を受信したか否かを判断する。
(Processing of the cage device 20')
FIG. 12 shows a flowchart of the processing of the car device 20'. In the process of FIG. 12, in step S130, the
ステップS132の判断が肯定された場合には、ステップS134に移行し、制御部26は、装着装置10’から受信した物品情報を、見た物品の物品情報としてサーバ40’に送信し、ステップS136に移行する。一方、ステップS132の判断が否定された場合には、ステップS134を経ずにステップS136に移行する。
If the determination in step S132 is affirmative, the process moves to step S134, where the
ステップS136に移行すると、制御部26は、物品装置30’から物品情報を受信したか否かを判断する。ステップS136の判断が肯定された場合には、ステップS138に移行し、制御部26は、物品装置30’から受信した物品情報を、触れた物品の物品情報としてサーバ40’に送信し、ステップS140に移行する。一方、ステップS136の判断が否定された場合には、ステップS138を経ずにステップS140に移行する。
In step S136, the
ステップS140に移行すると、制御部26は、重量センサ27の検出値が変化したか否かを判断する。ここで、重量センサ27の検出値が変化した場合とは、物品がカゴ120内に新たに入れられたことを意味する。なお、カゴ120内の物品が取り出された場合も重量センサ27の検出値は変化するが、ここでは、説明の便宜上、カゴ120内から物品は取り出されないものとして説明する。ステップS140の判断が肯定された場合には、ステップS142に移行し、制御部26は、直前に触れていた物品の物品情報を、カゴに入れた物品の物品情報、すなわちユーザが購入予定の商品の情報としてサーバ40’に送信する。一方、ステップS140の判断が否定された場合には、ステップS142を経ずにステップS144に移行する。
In step S140, the
ステップS144に移行すると、制御部26は、サーバ40’から情報を受信したか否かを判断する。なお、サーバ40’から受信する情報とは、物品や店舗のサービスに関する情報である。このステップS144の判断が肯定された場合には、ステップS146に移行し、制御部26は、サーバ40’から受信した情報を装着装置10’に送信し、ステップS148に移行する。一方、ステップS144の判断が否定された場合には、ステップS146を経ずに、ステップS148に移行する。
Proceeding to step S144, the
ステップS148に移行すると、制御部26は、レジ端末から入力があったか否かを判断する。ここで、レジ端末からの入力とは、前述したように、買い物終了情報の入力を意味する。
When proceeding to step S148, the
ステップS148の判断が否定された場合には、ステップS132に移行し、ステップS132~S148の処理・判断を繰り返すが、ステップS148の判断が肯定された場合には、制御部26は、図12の全処理を終了する。
If the determination in step S148 is negative, the process moves to step S132, and the processes and determinations in steps S132 to S148 are repeated. However, if the determination in step S148 is affirmative, the
(サーバ40’の処理)
図13には、サーバ40’の処理がフローチャートにて示されている。
(Processing of server 40')
FIG. 13 shows a flowchart of the processing of the server 40'.
図13の処理では、ステップS150において、制御部46は、カゴ装置20’から物品情報を受信するまで待機する。すなわち、ユーザが見た物品の物品情報、ユーザが触れた物品の物品情報、カゴ120に入れた物品の物品情報のいずれかが入力された段階で、制御部46は、ステップS152に移行する。
In the process of FIG. 13, in step S150, the
ステップS152に移行すると、制御部46は、記憶部41に格納されている買い物DBを更新する。ここで、買い物DBは、図14(a)に示すようなデータ構造を有している。図14(a)に示すように、物品名、見た、手に触れた、カゴに入れた、の各欄を有する。制御部46は、ユーザが見た物品の物品情報を受信した場合、当該物品の見たの欄に○を格納し、ユーザが触れた物品の物品情報を受信した場合、当該物品の触れたの欄に○を格納し、ユーザがカゴに入れた物品の物品情報を受信した場合、当該物品のカゴに入れたの欄に○を格納する。
When proceeding to step S152, the
次いで、ステップS154では、制御部46は、買い物DBを分析する。例えば、制御部46は、図14(a)の買い物DBを参照して、牛肉Aを手に持ってから所定時間経過したような場合(新たな物品情報を所定時間受信しないような場合)には、牛肉Aと比較対照となり得る物品(例えば、牛肉B)の情報をユーザが必要としている可能性があると分析することができる。また、制御部46は、例えば、カゴに入れた物品から、ユーザがカレーを作ることを推定できるため、カレーを作る際に必要な牛肉の量(4皿分ならXg、8皿分ならYgなど)の情報をユーザが必要としている可能性があると分析することができる。また、制御部46は、カレーの付け合せ(福神漬けやロースカツ、デザートなど)のお買い得情報や、店舗のキャンペーン情報(あとZ円買えば、クジが引けるなど)の情報をユーザが必要としている可能性があると分析することができる。
Next, in step S154, the
次いで、ステップS156では、制御部46は、ステップS154の分析の結果、ユーザに通知する情報が存在するか否かを判断する。ここでの判断が否定された場合には、ステップS150に戻るが、肯定された場合には、ステップS158に移行する。なお、同一の物品にユーザが複数回触れた場合や、以前触れた物品と類似する物品にユーザが触れた場合などにおいては、過去に通知した情報と同一の情報が、ユーザに通知する情報と判断される場合もある。したがって、制御部46は、過去に通知した情報と同一の情報については、ユーザに通知すべき情報ではないとして、通知を制限してもよい。すなわち、制御部46は、同一の物品に複数回触れた場合又は複数回見た場合、あるいは以前触れた又は見た物品と類似する物品に触れた又は見た場合に、通知される情報を制限することとしてもよい。このようにすることで、同一のユーザに同一の情報が繰り返し通知されるのを防止することができる。
Next, in step S156, the
なお、制御部46は、同じ物品に触れた回数や同じ物品を見た回数に応じて、通知すべき情報を変更することとしてもよい。例えば、制御部46は、1回目には物品そのものの情報、2回目にはその物品の比較対照となる物品の情報、3回目には物品に関連するお得情報、を通知すべき情報とすることとしてもよい。このようにすることで、物品の購入に迷っている客が当該物品を購入する可能性を向上することが可能となる。これに代えて、ユーザが同一の物品に触れた時間に応じて、2回目以降はユーザに通知していない情報からユーザに通知するようにしてもよい。
Note that the
ステップS156の判断が肯定された場合、制御部46は、ステップS158に移行し、ユーザに通知する情報をカゴ装置20’に送信する。なお、ステップS158の処理が行われた場合、図12の処理では、ステップS144の判断が肯定され、ステップS146の処理(サーバから受信した情報を装着装置10’に送信する処理)が実行される。また、図12においてステップS146の処理が実行された場合、図11(a)のステップS116の判断が肯定され、ステップS118の処理(受信した情報を出力する処理)が実行される。ステップS118では、制御部17は、表示部12を用いて、ユーザに通知する情報を表示したり、スピーカ18を用いて、ユーザに通知する情報を出力したりする。なお、ステップS158の後は、ステップS150に戻り、ステップS150~S158の処理を繰り返す。
If the determination in step S156 is affirmative, the
なお、制御部46は、買い物が終了したユーザの買い物DB(例えば、図14(b))に基づいて、各種分析を行うこととしてもよい。この場合、制御部46は、例えば、図14(b)に基づいて、カレールーAとカレールーB、及び牛肉Aと牛肉Bが比較され、カレールーB、牛肉Bが購入されたことを分析することができる。また、制御部46は、店内を歩く順番、購入の順番などを分析することもできる。また、制御部46は、商品を見ただけで購入しなかった物品、手に取ったけど購入しなかった物品を特定し、分析することができる。制御部46は、分析結果を商品の製造元、販売元等に提供することとしてもよい。
Note that the
以上、詳細に説明したように、本第2の実施形態によると、制御部46は、物品をユーザが手にしたこと、及び物品がユーザの視野内の所定範囲に入ったことの少なくとも一方に応じて、物品の物品情報を入力し(S150:肯定)、入力した物品情報に関する通知を行う(S158)。したがって、本第2の実施形態では、ユーザが手に触れた物品やユーザが見た物品に関連した有用な情報を、ユーザに対して報知することができる。これにより、ユーザの使い勝手を向上することができる。
As described above in detail, according to the second embodiment, the
また、本第2の実施形態では、制御部46は、物品情報としてカゴ120内に入れられたユーザが購入予定の商品の情報を入力し、入力した商品に応じた通知を行う。これにより、ユーザが購入予定の商品に関連した有用な情報を、ユーザに対して報知することができる。また、制御部46は、買い物時に使用されるカゴ装置20’から購入予定の商品の情報を入力するので、購入予定の商品の情報として正確な情報を入力することができる。
Furthermore, in the second embodiment, the
また、本第2の実施形態では、ユーザへの情報の通知を装着装置10’の表示部12や指向性のあるスピーカ18から行うので、他のユーザに知られることなく、ユーザごとにユーザの購買行動に応じた通知を行うことができる。
In addition, in the second embodiment, since information is notified to the user from the
なお、上記第2の実施形態では、制御部46は、ユーザがある物品を手に持ちながら、別の物品を見ている場合に、両商品を比較検討していると判断してもよい。
Note that in the second embodiment, the
なお、上記第2の実施形態では、スーパーマーケットにおいて電子機器システム100’を利用する例について説明したが、これに限らず、衣料品店等において電子機器システム100’を利用することとしてもよい。例えば、制御部46は、ユーザが服を手に取ったときに、色違い、サイズ違いなどの在庫の有無の情報、類似商品でセール中の商品があるか否かの情報、あと1着買うと値引き、あと2000円以上買うと値引きなどの値引き情報等を表示部12やスピーカ18を用いて報知することにより、他のユーザに知られることなく、特定のユーザ(店舗の会員などのお得意様)だけに通知することができる。また、サーバ40’は、店舗の会員のユーザが誕生日に来店した際に、装着装置10’に値引き情報、プレゼント情報、お祝いのメッセージを送信するようにしてもよい。
Although the second embodiment described above describes an example in which the electronic device system 100' is used in a supermarket, the present invention is not limited to this, and the electronic device system 100' may be used in a clothing store or the like. For example, when the user picks up a piece of clothing, the
なお、上記第2の実施形態では、制御部17は、装着装置10’において取得された物品情報をカゴ装置20’を経由してサーバ40’に送信する場合について説明したが、これに限られるものではない。例えば、装着装置10’が無線通信可能な通信部を有している場合には、無線通信により、装着装置10’からサーバ40’に情報を送信するようにしてもよい。
In the second embodiment, the
なお、上記第2の実施形態では、物品装置30’が発光部34を有する場合について説明したが、これに限らず、物品装置30’は発光部34を有していなくてもよい。この場合、制御部17は、撮像部11が撮像した画像を解析することで、ユーザが見た物品を特定するようにすればよい。例えば、制御部17は、表示に含まれる文字(例えば商品タグやPOP広告の文字)を認識して、ユーザが見た物品を特定することとしてもよい。
Note that, in the second embodiment, a case has been described in which the article device 30' includes the
なお、上記第1、第2の実施形態においては、制御部46は、情報を分析する際に、ユーザの種別を考慮することとしてもよい。ユーザの種別は店舗の会員であれば、登録されている情報(名前、生年月日、住所、買物履歴)から把握できる。この場合、ユーザの性別や年代ごとに、ユーザの購買行動を分析することとしてもよい。
Note that in the first and second embodiments described above, the
上述した各実施形態は本発明の好適な実施の例であり、適宜組み合わせることができる。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。 The embodiments described above are preferred embodiments of the present invention, and can be combined as appropriate. However, the present invention is not limited to this, and various modifications can be made without departing from the gist of the present invention.
10 装着装置
11 撮像部
12 表示部
16 通信部
17 制御部
18 スピーカ
20 カゴ装置
42 通信部
46 制御部
110 フレーム
120 カゴ
10
Claims (1)
前記店舗内で撮像された情報が入力され、前記店舗内にある物品を認識する画像認識部と、
前記画像認識部により認識された前記物品に関する情報を取得する取得部と、
前記取得部が取得した前記物品に関する情報を、前記ユーザの前記所持装置に表示させるための情報を送信する送信部と、を備えた電子機器システム。 a detection unit that detects the user's entry into the store based on information from a device owned by the user;
an image recognition unit into which information captured in the store is input and which recognizes articles in the store;
an acquisition unit that acquires information regarding the article recognized by the image recognition unit;
An electronic equipment system comprising: a transmitting unit that transmits information for displaying information regarding the article acquired by the acquiring unit on the device owned by the user.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023188606A JP2024009011A (en) | 2020-09-11 | 2023-11-02 | Electronic device system |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020152613A JP7063360B2 (en) | 2020-09-11 | 2020-09-11 | Electronic device system and transmission method |
JP2022068596A JP2022097524A (en) | 2020-09-11 | 2022-04-19 | Electronic apparatus system and transmission method |
JP2023188606A JP2024009011A (en) | 2020-09-11 | 2023-11-02 | Electronic device system |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022068596A Division JP2022097524A (en) | 2020-09-11 | 2022-04-19 | Electronic apparatus system and transmission method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024009011A true JP2024009011A (en) | 2024-01-19 |
Family
ID=73837481
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020152613A Active JP7063360B2 (en) | 2020-09-11 | 2020-09-11 | Electronic device system and transmission method |
JP2022068596A Pending JP2022097524A (en) | 2020-09-11 | 2022-04-19 | Electronic apparatus system and transmission method |
JP2023188606A Pending JP2024009011A (en) | 2020-09-11 | 2023-11-02 | Electronic device system |
Family Applications Before (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020152613A Active JP7063360B2 (en) | 2020-09-11 | 2020-09-11 | Electronic device system and transmission method |
JP2022068596A Pending JP2022097524A (en) | 2020-09-11 | 2022-04-19 | Electronic apparatus system and transmission method |
Country Status (1)
Country | Link |
---|---|
JP (3) | JP7063360B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023112519A1 (en) * | 2021-12-17 | 2023-06-22 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Wearable device, information processing method, information processing program, and information providing system |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001344661A (en) | 2000-05-30 | 2001-12-14 | Sharp Corp | Information providing device |
US20040001616A1 (en) | 2002-06-27 | 2004-01-01 | Srinivas Gutta | Measurement of content ratings through vision and speech recognition |
JP2004258928A (en) | 2003-02-25 | 2004-09-16 | Toppan Printing Co Ltd | Article information providing device, shopping cart, server, and article information providing system, method and program |
US7830259B2 (en) | 2005-10-11 | 2010-11-09 | Nanonation Incorporated | Method and apparatus for RFID initiated interactive retail merchandising |
AU2007233199B2 (en) | 2006-03-31 | 2011-06-09 | Checkpoint Systems, Inc. | System and method for securing and displaying items for merchandising |
JP4972491B2 (en) * | 2007-08-20 | 2012-07-11 | 株式会社構造計画研究所 | Customer movement judgment system |
JP5548042B2 (en) * | 2010-06-23 | 2014-07-16 | ソフトバンクモバイル株式会社 | User terminal device and shopping system |
-
2020
- 2020-09-11 JP JP2020152613A patent/JP7063360B2/en active Active
-
2022
- 2022-04-19 JP JP2022068596A patent/JP2022097524A/en active Pending
-
2023
- 2023-11-02 JP JP2023188606A patent/JP2024009011A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2022097524A (en) | 2022-06-30 |
JP7063360B2 (en) | 2022-05-09 |
JP2020205098A (en) | 2020-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220005095A1 (en) | Augmented reality devices, systems and methods for purchasing | |
JP4824793B2 (en) | Wearable terminal device and program | |
US10467672B2 (en) | Displaying an electronic product page responsive to scanning a retail item | |
US20190005536A1 (en) | Sales promotion system, sales promotion method, non-transitory computer readable medium, and shelf system | |
US20210233103A1 (en) | Sales promotion system and sales promotion method | |
US20160203499A1 (en) | Customer behavior analysis system, customer behavior analysis method, non-transitory computer readable medium, and shelf system | |
US20110161136A1 (en) | Customer mapping using mobile device with an accelerometer | |
JP2012088878A (en) | Customer special treatment management system | |
KR20060053214A (en) | Shopping pattern analysis system and method based on rfid | |
JP2024009011A (en) | Electronic device system | |
JP6412577B2 (en) | Presentation device (ICS connection) | |
JP2011048462A (en) | Sales support device and program | |
JP2018005691A (en) | Information processing system, information processing device and information processing method | |
CN104254861A (en) | Method for assisting in locating an item in a storage location | |
JP2015111358A (en) | Electronic apparatus | |
JP5166365B2 (en) | Wearable terminal device and program | |
WO2015083495A1 (en) | Electronic device | |
JP6504279B2 (en) | Electronic equipment system | |
JP6508367B2 (en) | Electronic device system and notification method | |
WO2018230356A1 (en) | Information presentation system | |
JP2015111357A (en) | Electronic apparatus | |
WO2021240904A1 (en) | Information processing device, information processing method, and program | |
JP2019114293A (en) | Electronic apparatus | |
JP5919114B2 (en) | Product purchase support device, virtual try-on device, and product purchase support program | |
WO2023112519A1 (en) | Wearable device, information processing method, information processing program, and information providing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231102 |