JP6589038B1 - ウェアラブル端末、情報処理端末、プログラム及び商品情報表示方法 - Google Patents

ウェアラブル端末、情報処理端末、プログラム及び商品情報表示方法 Download PDF

Info

Publication number
JP6589038B1
JP6589038B1 JP2018237226A JP2018237226A JP6589038B1 JP 6589038 B1 JP6589038 B1 JP 6589038B1 JP 2018237226 A JP2018237226 A JP 2018237226A JP 2018237226 A JP2018237226 A JP 2018237226A JP 6589038 B1 JP6589038 B1 JP 6589038B1
Authority
JP
Japan
Prior art keywords
product
gesture
unit
user
wearable terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018237226A
Other languages
English (en)
Other versions
JP2020098535A (ja
Inventor
慧 ▲柳▼澤
慧 ▲柳▼澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercari Inc
Original Assignee
Mercari Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mercari Inc filed Critical Mercari Inc
Priority to JP2018237226A priority Critical patent/JP6589038B1/ja
Priority to US16/525,825 priority patent/US11694242B2/en
Application granted granted Critical
Publication of JP6589038B1 publication Critical patent/JP6589038B1/ja
Publication of JP2020098535A publication Critical patent/JP2020098535A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Multimedia (AREA)
  • Economics (AREA)
  • Development Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】ユーザが視認した商品に関する情報を使用した取引を実行できるウェアラブル端末を提供する。【解決手段】ウェアラブル端末130は、撮像部141と、撮像部141により撮像された画像内で、ユーザによる商品を特定するための第1ジェスチャを認識する認識部142と、認識部142により第1ジェスチャが認識された場合、第1ジェスチャが認識された画像を用いて特定された商品の商品情報を取得する取得部143と、ユーザに視認可能に商品情報を出力制御する出力制御部144と、商品について、電子商取引に関する所定の処理を行う処理部146と、を備える。【選択図】図6

Description

本発明は、ウェアラブル端末、情報処理端末、プログラム及び商品情報表示方法に関する。
従来から、ユーザの頭部に装着して使用するメガネ型のウェアラブル端末が存在する。メガネ型のウェアラブル端末は、レンズに相当する部分が情報を表示するディスプレイとなっており、ユーザはディスプレイ越しに現実の景観を視認しつつ、ディスプレイに表示された情報を確認することができる。
例えば、特許文献1には、ウェアラブル端末を装着したユーザが駅名の記載された路線図を視認した状態で、出発地と到着地とを指で指し示すと、出発地から目的地までの経路探索を行えることが開示されている。
特開2018−22453号公報
しかしながら、特許文献1に記載のウェアラブル端末のディスプレイに情報を表示するためには、ユーザが指し示す物体に文字等のテキストが含まれている必要がある。そのため、例えば、ウェアラブル端末を装着したユーザが、テキストが含まれない又は認識できないような商品に対してジェスチャを行っても、商品に関する情報は得られない。そのため、ユーザは、視認した商品に関する情報を使用して各種取引を実行することができなかった。
そこで、本発明は、ユーザが視認した商品に関する情報を使用した取引を実行できるウェアラブル端末を提供することを目的とする。
本発明の一態様に係るウェアラブル端末は、撮像部と、撮像部により撮像された画像内で、ユーザによる商品を特定するための第1ジェスチャを認識する認識部と、認識部により第1ジェスチャが認識された場合、第1ジェスチャが認識された画像を用いて特定された商品の商品情報を取得する取得部と、ユーザに視認可能に商品情報を出力制御する出力制御部と、商品ついて、電子商取引に関する所定の処理を行う処理部と、を備える。
この態様によれば、ユーザは、テキストが含まれない商品であっても、商品を特定するためのジェスチャを行うだけで直感的に商品情報を取得することができる。また、取得した商品情報を用いて電子商取引に関する処理が自動で実行されるため、ユーザの作業負担が軽減する。
本発明によれば、ユーザが視認した商品に関する情報を使用した取引を実行できるウェアラブル端末を提供することができる。
本発明の実施形態に係る通信システムを示す図である。 サーバのハードウェア構成の一例を示す図である。 端末のハードウェア構成の一例を示す図である。 ウェアラブル端末のハードウェア構成の一例を示す図である。 ウェアラブル端末の外観の一例を示す図である。 ウェアラブル端末の機能ブロック構成の一例を示す図である。 サーバの機能ブロック構成の一例を示す図である。 通信システムによる処理の一例を示すシーケンス図である。 ウェアラブル端末の出力制御部による商品情報の出力の一例を示す図である。 ウェアラブル端末による商品の出品処理の一例を示すフローチャートである。 商品の出品処理の際の出力制御部による出力の一例を示す図である。 ウェアラブル端末による商品の購入処理の一例を示すフローチャートである。 商品の購入処理の際の出力制御部による出力の一例を示す図である。 ウェアラブル端末による商品のお気に入りリストへの登録処理の一例を示すフローチャートである。 お気に入りリストへの登録処理の際の出力制御部による出力の一例を示す図である。 ウェアラブル端末による商品の3Dモデルの回転表示処理の一例を示すフローチャートである。 回転表示処理の際の出力制御部による出力の一例を示す図である。
添付図面を参照して、本発明の実施形態について説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。
図1は、本実施形態に係る通信システム1を示す図である。通信システム1は、ユーザが行ったジェスチャに基づいて特定した商品の商品情報をユーザが装着するウェアラブル端末130に表示するシステムである。また、通信システム1は、ジェスチャで特定された商品について電子商取引に関する所定の処理を実行可能である。例えば、通信システム1は、ユーザが指で指示した商品の商品情報をウェアラブル端末130が備えるディスプレイに表示した後、当該商品を電子商取引プラットフォームへ出品する出品処理等を実行する。
ここで、商品情報とは、商品に関する各種情報である。商品情報は、例えば、商品の名称、価格、型番、色、状態、製造メーカ又は電子商取引プラットフォームにおける商品に対する評価情報、後述するお気に入り登録をしたか否かの情報等を含んでいてもよい。なお、商品は、無生物に限らずペット等の生物であってもよい。また、商品は、建造物等の不動産であってもよい。
通信システム1は、サーバ110、端末120及びウェアラブル端末130を備える。サーバ110、端末120及びウェアラブル端末130は、インターネットや無線LAN、Bluetooth(登録商標)、有線通信等の通信ネットワークNを介して互いに通信可能に接続される。なお、通信システム1が備えるサーバ110、端末120及びウェアラブル端末130の数は一つに限られず、複数備えてもよい。また、サーバ110は、1つの機器から構成されてもよいし、複数の機器から構成されてもよいし、クラウド上で実現されるサーバであってもよい。
端末120は、例えば、スマートフォン、タブレット端末、携帯電話機、パーソナルコンピュータ(PC)、携帯情報端末(PDA:Personal Digital Assistant)、家庭用ゲーム機器等であってもよい。
ウェアラブル端末130は、ユーザが装着する電子デバイスである。ウェアラブル端末130は、例えば、メガネ型端末(スマートグラス)、コンタクトレンズ型端末(スマートコンタクトレンズ)、拡張現実(AR: Augmented Reality)技術を用いたヘッドマウントディスプレイ、義眼等であってもよい。本実施形態においては、ウェアラブル端末130がメガネ型端末(スマートグラス)である場合を例に説明する。
図2は、サーバ110のハードウェア構成の一例を示す図である。サーバ110は、CPU(Central Processing Unit)111、記憶装置112及び通信IF(Interface)113を有する。これらの各構成は、相互にデータ送受信可能に接続される。
CPU111は、記憶装置112に記憶されたプログラムの実行に関する制御やデータの演算、加工を行う制御部である。CPU111は、通信IF113からデータを受け取り、データの演算結果を出力デバイスに出力したり、記憶装置112に記憶したりしてもよい。
記憶装置112は、各種情報を記憶するデバイスである。記憶装置112は、データの書き換えが可能な揮発性の記憶媒体やデータの読み出しのみが可能な不揮発性の記憶媒体であってもよい。
通信IF113は、サーバ110を通信ネットワークNに接続するデバイスである。通信IF113は、サーバ110の外部に設けられてもよい。その場合、通信IF113は、例えばUSB(Universal Serial Bus)等のインタフェースを介してサーバ110に接続される。
図3は、端末120のハードウェア構成の一例を示す図である。端末120は、CPU121、記憶装置122、通信IF123、入力デバイス124、出力デバイス125及び撮像部126を有する。これらの各構成は、相互にデータ送受信可能に接続される。図3に示すCPU121、記憶装置122及び通信IF123は、図2に示すサーバ110が備えるCPU111、記憶装置112及び通信IF113と同様の構成を有するため説明を省略する。
入力デバイス124は、ユーザから情報の入力を受け付けるためのデバイスである。入力デバイス124は、例えばタッチパネル、ボタン、キーボード、マウス及びマイク等であってもよい。
出力デバイス125は、情報を出力するためのデバイスである。例えば、出力デバイス125は、液晶ディスプレイ、有機EL(Electronic Luminescent)ディスプレイ、スピーカ及び物体表面や空間、網膜上に情報を投影するプロジェクタ等であってもよい。
撮像部126は、画像(静止画像及び動画像を含む)を撮像するためのデバイスである。例えば、撮像部126は、CCDイメージセンサ、CMOSイメージセンサ、レンズ等の撮像素子を含んでいてもよい。
図4は、ウェアラブル端末130のハードウェア構成の一例を示す図である。ウェアラブル端末130は、CPU131、記憶装置132、通信IF133、出力デバイス134及び撮像部135を有する。これらの各構成は、相互にデータ送受信可能に接続される。ウェアラブル端末130が備えるCPU131、記憶装置132、通信IF133、出力デバイス134及び撮像部135は、図3に示す端末120が備えるCPU121、記憶装置122、通信IF123、出力デバイス125及び撮像部126と同様の構成を有するため説明を省略する。
図5は、ウェアラブル端末130の外観の一例を示す図である。ウェアラブル端末130は、撮像部135、ディスプレイ136、フレーム137、ヒンジ部138及びテンプル139を備える。
上述したように、撮像部135は、画像を撮像するためのデバイスである。撮像部135は、図示しないCCDイメージセンサ、CMOSイメージセンサ、レンズ等の撮像素子等を含んでいてもよい。
ディスプレイ136は、後述する出力制御部144の制御に基づいて、商品情報等の各種情報を表示する出力デバイスである。ディスプレイ136は、ウェアラブル端末130を装着したユーザが現実空間の景観を視認可能なように可視光を透過させる部材で形成されていてもよい。例えば、ディスプレイ136は、透明基板を用いた液晶ディスプレイや有機ELディスプレイであってもよい。
フレーム137は、ディスプレイ136の外周を囲むように設けられ、ディスプレイ136を衝撃等から保護する。フレーム137は、ディスプレイ136の外周全域にわたって設けられていてもよいし、一部に設けられていてもよい。フレーム137は、例えば、金属や樹脂等で形成されていてもよい。
ヒンジ部138は、テンプル139をフレーム137に対して回動可能に接続する。テンプル139は、フレーム137の両端から延在する蔓であり、例えば、金属や樹脂等で形成されていてもよい。ウェアラブル端末130は、フレーム137から離間するように開かれたテンプル139がユーザのこめかみ付近に位置するように装着される。
テンプル139は、一部が窪んだ係止部139aを有している。係止部139aは、ウェアラブル端末130が装着された状態でユーザの耳に係るように位置し、ウェアラブル端末130がユーザの頭部から脱落することを防止する。
図6は、ウェアラブル端末130の機能ブロック構成の一例を示す図である。ウェアラブル端末130は、通信部140、撮像部141、認識部142、取得部143、出力制御部144、記憶部145及び処理部146を備える。通信部140、撮像部141、認識部142、取得部143、出力制御部144、記憶部145及び処理部146は、ウェアラブル端末130のCPU131が、記憶装置132に記憶されたプログラムを実行することにより実現することができる。当該プログラムは、サーバ110からダウンロードされてウェアラブル端末130にインストール可能なプログラム(アプリケーション)であってもよい。
通信部140は、通信ネットワークNを介してサーバ110又は端末120と情報の送受信を行う。例えば、通信部140は、撮像部141が撮像した画像をサーバ110に送信してもよいし、サーバ110から商品情報を受信してもよい。
撮像部141は、画像の撮像を行う。撮像部141は、図5に示す撮像部135に相当する。撮像部141により撮像された画像は、認識部142や記憶部145に出力されてもよい。また、ウェアラブル端末130が深度センサを備える場合、当該深度センサがユーザの所定の動きを検知した場合に、撮像部141は撮像を開始してもよい。また、例えば、ウェアラブル端末130が神経信号を取得するセンサを備える場合、当該神経信号センサがユーザの所定の動き(例えば、所定の角度での指差しジェスチャを所定の時間以上維持したこと等)を検知した場合に、撮像部141は撮像を開始してもよい。
認識部142は、撮像部141により撮像された画像内で、ユーザによるジェスチャを認識する。ここで、ジェスチャとは、ユーザによる動作であり、例えば、商品を指で指し示す動作や商品を指で囲む動作等であってもよい。また、ユーザによるジェスチャは必ずしも指で行われなくともよい。例えば、ジェスチャは、ユーザの腕や脚といった他の部位、又は、指示棒等の物体を用いて行われてもよい。なお、本実施形態においては、ユーザの指を用いてジェスチャが行われる場合を例に説明する。
認識部142は、ジェスチャに用いる物体(本実施形態においては、ユーザの指)の特徴に基づいて画像内での指の位置や指の形状を特定し、ユーザが行ったジェスチャを認識してもよい。例えば、認識部142は、パターンマッチングを用いて撮像された画像からユーザの指等を特定しジェスチャを認識してもよい。このとき、指の形状や色彩等を記憶部145に特定パターンとして予め記憶しておき、認識部142は撮像された画像から当該特定パターンと一致するパターンを特定することにより、画像内での指の位置や形状を取得してもよい。なお、認識部142は3D空間データを用いて物体を認識してもよい。
また、認識部142は、複数の種類のジェスチャを区別して認識してもよい。このとき、ジェスチャの種類に対して予め所定の処理が対応付けられており、認識部142がジェスチャを認識すると、ジェスチャの種類に応じた所定の処理が実行されてもよい。例えば、認識部142が特定のジェスチャを認識した場合にディスプレイ136に商品情報が表示されてもよいし、認識部142が他のジェスチャを認識したことをトリガとして後述する処理部146が商品を電子商取引プラットフォームへ出品する出品処理を実行してもよい。
取得部143は、認識部142により第1ジェスチャが認識された場合に、商品の商品情報を取得するための処理を実行する。ここで、第1ジェスチャとは、ユーザによる商品を特定するための動作であり、本実施形態においては、図9(b)に示すようなユーザが商品を指し示す動作であるとする。
例えば、取得部143は、認識部142により第1ジェスチャが認識されると、撮像された画像と画像内における指の位置情報とを、通信部140を介してサーバ110に送信する。サーバ110の特定部116は、画像と指の位置情報に基づいてユーザが指し示す商品を特定する。その後、サーバ110の取得部117は、特定した商品の商品情報を記憶部118から取得する。取得された商品情報は、サーバ110の通信部115からウェアラブル端末130に送信される。なお、通信部140は、第1ジェスチャが認識された画像をサーバ110に送信し、サーバ110の特定部116が、受信された画像内の指の位置を特定するようにしてもよい。
なお、取得部143は、サーバ110を介さずに商品情報の取得を行ってもよい。例えば、記憶部145に商品の形状や色彩といった商品の特徴及び商品情報が記憶されているとする。このとき、取得部143は商品の特徴に基づいて、画像から商品を特定する。その後、取得部143は、特定した商品に対応する商品情報を、記憶部145に記憶された商品情報から取得してもよい。取得部143による商品の特定処理は、図7を用いて後述するサーバ110の特定部116によって実行される特定処理と同様の処理を実行してもよい。
出力制御部144は、出力デバイス134を制御し各種情報を出力する。本実施形態においては、出力制御部144は、取得部143が取得した商品情報をディスプレイ136に表示する制御を行う。出力制御部144は、ジェスチャに用いるユーザの指が撮像部141の撮像した画像に含まれる場合や、画像の所定領域(例えば、画像の略中央領域)に指が位置する場合に限り商品情報を表示する制御を行い、指が画像内に含まれていない場合や所定領域内に位置していない場合には、商品情報を非表示にする制御を実行してもよい。そうすることで、ユーザは商品情報の表示と非表示との切り替えを容易に行うことができる。
記憶部145は、各種情報を記憶する。例えば、記憶部145は、ジェスチャに使用するユーザの指の特徴を記憶していてもよい。また、記憶部145は、商品情報等やユーザ情報を記憶していてもよい。ここで、ユーザ情報とは、通信システム1を利用するユーザに関する情報であり、例えば、ユーザ識別子、ユーザの氏名、性別、住所、ユーザが過去に行った電子商取引に関する情報等が含まれていてもよい。
処理部146は、画像内の商品(例えばジェスチャにより特定された商品)について電子商取引に関する処理を実行する。例えば、処理部146は、ユーザが指示する商品を電子商取引プラットフォームへ出品する出品処理を実行してもよい。このとき、処理部146は、取得部143が取得した商品情報等を用いて出品処理を実行してもよい。具体的には、商品情報に基づいて、電子商取引プラットフォームへ商品を出品する際の商品説明文を生成してもよい。
また、処理部146は、撮像部141が撮像した商品の画像を電子商取引プラットフォームへ商品を出品する際の画像に用いてもよい。このとき、処理部146は、撮像部141が撮像した複数の画像から電子商取引プラットフォームへの出品に適した画像(商品全体が含まれている画像等)をピックアップして出品処理に用いてもよい。また、処理部146は、画像に加工(トリミングや明るさの変更等)を施した後、当該画像を出品処理に用いてもよい。また、処理部146は、認識部142がユーザによる第2ジェスチャを認識したことをトリガとして出品処理を実行してもよい。第2ジェスチャの内容及び第2ジェスチャをトリガとした出品処理については、図10及び図11を用いて後述する。
処理部146は、ユーザが指示する商品を電子商取引プラットフォームにおいて購入する購入処理を実行してもよい。このとき、処理部146は、取得部143が取得した商品情報や記憶部145に記憶されたユーザ情報に基づいて購入処理を実行してもよい。例えば、処理部146は、購入処理において、記憶部145に記憶されたユーザの住所情報に基づいて商品の配送先を決定してもよい。また、処理部146は、認識部142がユーザによる第3ジェスチャを認識したことをトリガとして購入処理を実行してもよい。第3ジェスチャの内容及び第3ジェスチャをトリガとした購入処理については、図12及び図13を用いて後述する。
さらに、処理部146は、認識部142が第4ジェスチャを認識した場合に、商品を所定のリストへ登録する処理を実行してもよい。所定のリストとは、例えば、ユーザが選択した商品をまとめたリストであってもよい。本実施形態においては、所定のリストをお気に入りリストと称することとする。例えば、ユーザは購入を検討している商品等をお気に入りリストに登録することで、再度商品の情報を閲覧したい場合に、リストから容易に商品情報を呼び出すことができる。なお、リストに登録可能な商品は、必ずしも購入を検討している商品に限らずユーザは任意の商品をリストに登録することができる。お気に入りリストは、記憶部145に記憶されていてもよい。
図7は、サーバ110の機能ブロック構成の一例を示す図である。サーバ110は、通信部115、特定部116、取得部117及び記憶部118を備える。通信部115、特定部116、取得部117及び記憶部118は、サーバ110のCPU111が、記憶装置112に記憶されたプログラムを実行することにより実現することができる。
通信部115は、通信ネットワークNを介して端末120又はウェアラブル端末130と情報の送受信を行う。例えば、通信部115は、ウェアラブル端末130が撮像した画像を受信してもよい。また、通信部115は、ウェアラブル端末130へ商品情報を送信してもよい。
特定部116は、ウェアラブル端末130から受信した画像から商品を特定する。例えば、特定部116は、パターンマッチングを用いて撮像された画像から商品の特定を行ってもよい。このとき、商品の形状や色彩等を記憶部118に特定パターンとして予め記憶しておき、特定部116は、撮像された画像から特定パターンと一致するパターンを特定することにより、画像に含まれる商品を特定してもよい。
なお、商品の特定は、上述した方法に限られない。例えば、サイズや向きが異なる商品の画像を教師データとして学習させた学習済みモデルを用意し、特定部116は、入力された画像に対し、当該学習済みモデルを用いて商品の特定を行ってもよい。学習済みモデルは、サーバ110が備えていてもよいし、ウェアラブル端末130又は端末120が備えていてもよい。
なお、画像内に複数の商品が存在する場合、特定部116は、ジェスチャに用いられる物体の端部(本実施形態においては、指の先端)に最も位置が近い商品をユーザが指示する商品として特定してもよい。
取得部117は、特定部116が特定した商品に関する商品情報を記憶部118に記憶された商品情報のうちから取得する。
記憶部118は、各種情報を記憶する。例えば、記憶部118は、商品情報やユーザ情報等を記憶してもよい。また、記憶部118は、特定部116が商品を特定するための商品の特徴やウェアラブル端末130から受信した画像を記憶してもよい。
図8は、通信システム1による処理の一例を示すシーケンス図である。図8を用いてユーザが指し示した商品の商品情報をウェアラブル端末130のディスプレイ136に表示する処理を説明する。
まず、ウェアラブル端末130の撮像部141は、撮像を行う(ステップS100)。
その後、ウェアラブル端末130の認識部142は、撮像部141が撮像した画像内で、ユーザによる第1ジェスチャを認識する(ステップS101)。このとき、認識部142は、記憶部145に記憶されたユーザの指の特徴等に基づいて画像内での指の位置や形状を特定し、第1ジェスチャの認識を行ってもよい。
その後、ウェアラブル端末130の通信部140は、撮像部141が撮像した画像と認識部142が取得した指の位置情報とをサーバ110に送信する(ステップS102)。
サーバ110の通信部115がウェアラブル端末130から画像と指の位置情報とを受信すると、サーバ110の特定部116は商品の特定を行う(ステップS103)。このとき、特定部116は、記憶部118に記憶された商品の特徴等に基づいて画像に含まれる商品の特定を行ってもよい。また、画像内に商品が複数存在する場合、特定部116は、指に最も位置が近い商品を指の位置情報に基づいて特定し、ユーザが指示する商品としてもよい。
次に、サーバ110の取得部117は、特定部116が特定した商品の商品情報を記憶部118から取得する(ステップS104)。
その後、サーバ110の通信部115は、取得部117が取得した商品情報をウェアラブル端末130に送信する(ステップS105)。
ウェアラブル端末130の通信部140がサーバ110から商品情報を受信すると、ウェアラブル端末130の出力制御部144は、商品情報をディスプレイ136に表示する(ステップS106)。ここで、図9を用いて商品情報の出力態様について説明する。
図9は、商品情報がテキストIとしてウェアラブル端末130のディスプレイ136に表示される様子を示す図である。図9は、ウェアラブル端末130を装着したユーザによって視認される映像を示している。図9(a)は、ディスプレイ136にテキストIが表示されていない状態の図であり、図9(b)は、ディスプレイ136にテキストIが表示されている状態の図である。
上述したように、ディスプレイ136は、可視光を透過する部材で形成されている。そのため、図9(a)に示すように、ユーザはディスプレイ136を介して椅子Cを視認することができる。この状態で、ユーザが第1ジェスチャ(本実施形態においては、椅子Cを指し示す動作)を行うと、図9(b)に示すように、ディスプレイ136に椅子Cの商品情報がテキストIとして表示される。本実施形態においては、商品の名称、メーカ及び商品価格が、それぞれ「アームチェア」、「A社の商品です。」及び「19,000円」といった文章で表示されている。商品価格は、電子商取引プラットフォームにおける商品の平均価格や最高価格又は最低価格であってもよい。なお、テキストIとしてディスプレイ136に表示される商品情報はこれらに限られない。例えば、商品のタイトル(名称)や型番、色、サイズ、状態等の情報が表示されてもよい。また、電子商取引プラットフォームにおいて評価が高いユーザが出品している商品の商品説明文に基づいて、ディスプレイ136にテキストIが表示されてもよい。例えば、評価が高いユーザが出品している商品の商品説明文が簡潔な文章で記載されている場合には、テキストIはディスプレイ136に簡潔な文章で表示されてもよい。
また、出力制御部144は、図9(b)に示す位置に限らず、例えば、椅子Cと重畳する位置にテキストIを表示してもよい。また、出力制御部144は、テキストIを特定の位置に固定して表示しなくてもよく、例えば、ユーザが視認する向きが変化した場合、テキストIを椅子Cに追従するように移動させつつ表示してもよい。さらに、出力制御部144は、ディスプレイ136の少なくとも一部の領域にフィルタをかけ、当該フィルタと重畳するようにテキストIを表示してもよい。例えば、出力制御部144は、ディスプレイ136の一部に白色のフィルタをかけ、当該フィルタと重畳するようにテキストIを黒色文字で表示してもよい。このように文字と背景とのコントラストを調整することにより、ユーザはテキストIを視認しやすくなる。
また、ウェアラブル端末130がプロジェクタを備える場合、出力制御部144は、プロジェクタを用いて物体の表面又は空間上にテキストIを投影してもよい。また、ウェアラブル端末130がスピーカを備える場合、出力制御部144は、商品情報を音声情報に変換した後、スピーカを用いて音声出力してもよい。
図8に戻り説明を続ける。出力制御部144によりディスプレイ136に商品情報がテキストIとして表示された後(ステップS106)、処理部146は、商品について電子商取引に関する処理を実行する(ステップS107)。例えば、処理部146は、電子商取引プラットフォームにおいて商品を出品する出品処理や、商品を購入する購入処理を実行してもよい。
本実施形態に係るウェアラブル端末130によれば、ユーザは、テキストが含まれない商品等であっても、商品を特定するための第1ジェスチャを行うだけで直感的に商品情報を取得することができる。また、処理部146により商品情報を用いた電子商取引に関する処理が自動で実行される。
図8を用いて上述したサーバ110が実行する各種処理の少なくとも一部は、ウェアラブル端末130が実行してもよい。例えば、ウェアラブル端末130は、サーバ110に画像を送信することなく、画像に含まれる商品の特定を行い、記憶部145に記憶された商品情報に基づいてディスプレイ136に商品情報を表示してもよい。
また、上述したウェアラブル端末130による処理は、端末120が実行してもよい。例えば、端末120は、搭載された撮像部126が撮像した画像から商品を特定し、当該商品の商品情報をディスプレイ等の出力デバイス125に表示してもよい。
次に、ウェアラブル端末130によって実行される商品の出品処理について図10及び図11を用いて説明する。図10は、ウェアラブル端末130による商品の出品処理の一例を示すフローチャートである。図11は、ユーザによる第2ジェスチャ及び出力制御部144による出力の一例を示す図である。本実施形態においては、ユーザによって第2ジェスチャが行われたことをトリガとして商品の出品処理が実行される場合を例に説明する。
まず、図11(a)に示すように、ユーザによって第1ジェスチャ(椅子Cを指し示すジェスチャ)が行われると、ディスプレイ136に椅子Cの商品情報がテキストIとして表示される(ステップS110)。なお、商品情報を表示するまでの処理は、図8を用いて説明したステップS100〜ステップS106までの処理と同様であるため説明を省略する。本実施形態においては、図11(a)に示すように、椅子Cの商品名、メーカ及び商品価格が表示される。
次に、認識部142は、撮像部141により撮像された画像内で、ユーザによる第2ジェスチャを認識したか否かを判定する(ステップS111)。ここで、第2ジェスチャとは、処理部146による出品処理を開始するためのトリガとなるジェスチャである。本実施形態において、第2ジェスチャは、図11(b)及び(c)に示すように、椅子Cを指示している指を椅子Cから離すようにスライドした後、クリックするジェスチャである。なお、第2ジェスチャの内容はこれに限られず、ユーザが任意に設定可能であってもよい。
認識部142がユーザによる第2ジェスチャを認識した場合(ステップS111:Yes)、出力制御部144は、確認ダイアログDをディスプレイ136に表示する(ステップS112)。認識部142がユーザによる第2ジェスチャを認識しない場合(ステップS111:No)、認識部142は判定処理を再度実行する(ステップS111)。ここで、確認ダイアログDとは、処理部146による処理を実行するか否かの確認をユーザに対して行うための表示である。本実施形態においては、図11(d)に示すように、「19,000円で出品しますか?」という出品価格を含む文章がディスプレイ136に表示される。ここで、出品価格とは、商品(本実施形態においては椅子C)を電子商取引プラットフォームに出品する際に商品に設定される価格である。
出品価格は、テキストIに含まれる商品価格と同額であってもよいし、異なっていてもよい。また、処理部146は、撮像された画像に基づいて椅子Cの商品状態(傷や汚れ具合等)を判断し、判断結果に基づいて出品価格を算出してもよい。このとき、撮像角度の異なる商品画像が多いほど、処理部146が出品価格の算出をより適切に行うことができる。そのため、ユーザは商品を様々な角度から視認し、撮像部141が多くの角度から商品の画像を撮像することが好ましい。なお、出品価格は、ユーザによって任意の価格に変更可能であってもよい。
その後、認識部142は、ユーザによる承認ジェスチャを認識する(ステップS113)。ここで、承認ジェスチャとは、確認ダイアログDに対するユーザの回答であり、処理部146による処理を承認するジェスチャである。本実施形態において、承認ジェスチャは、図11(d)に示すように、親指を立てるジェスチャである。なお、承認ジェスチャの内容はこれに限られず、ユーザが任意に設定可能であってもよい。
認識部142が承認ジェスチャを認識すると、処理部146は、商品を電子商取引プラットフォームへ出品する(ステップS114)。このとき、処理部146は、商品情報や記憶部145に記憶されているユーザ情報に基づいて出品を行ってもよい。以上で、ウェアラブル端末130による処理は終了する。なお、確認ダイアログDの表示処理(ステップS112)及び承認ジェスチャの認識処理(ステップS113)は省略可能であり、これらの処理を経ずに処理部146は商品を出品してもよい。
次に、ウェアラブル端末130によって実行される商品の購入処理について図12及び図13を用いて説明する。図12は、ウェアラブル端末130による商品の購入処理の一例を示すフローチャートである。図13は、ユーザによる第3ジェスチャ及び出力制御部144による出力の一例を示す図である。本実施形態においては、ユーザによって第3ジェスチャが行われたことをトリガとして商品の購入処理が実行される場合を例に説明する。
まず、図13(a)に示すように、ユーザによって第1ジェスチャ(椅子Cを指し示すジェスチャ)が行われると、ディスプレイ136に椅子Cの商品情報がテキストIとして表示される(ステップS120)。なお、商品情報を表示するまでの処理は、図8を用いて説明したステップS100〜ステップS106までの処理と同様であるため説明を省略する。本実施形態においては、図13(a)に示すように、椅子Cの商品名、メーカ及び商品価格が表示される。
次に、認識部142は、ユーザによる第3ジェスチャを認識したか否かを判定する(ステップS121)。ここで、第3ジェスチャとは、処理部146による購入処理を開始するためのトリガとなるジェスチャである。本実施形態において、第3ジェスチャは、図13(b)及び(c)に示すように、手を広げた後、椅子Cを手で掴むジェスチャである。なお、第3ジェスチャの内容はこれに限られず、ユーザが任意に設定可能であってもよい。
認識部142がユーザによる第3ジェスチャを認識した場合(ステップS121:Yes)、出力制御部144は、確認ダイアログDをディスプレイ136に表示する(ステップS122)。認識部142がユーザによる第3ジェスチャを認識しない場合(ステップS121:No)、認識部142は判定処理を再度実行する(ステップS121)。本実施形態においては、図13(d)に示すように、「19,000円で購入しますか?」という購入価格を含む文章が確認ダイアログとしてディスプレイ136に表示される。ここで、購入価格とは、商品(本実施形態においては椅子C)を購入するための対価額である。購入価格は、例えば、電子商取引プラットフォームにおける椅子Cの価格であってもよい。
その後、認識部142は、ユーザによる承認ジェスチャを認識する(ステップS123)。本実施形態において、承認ジェスチャは、図13(d)に示すように、親指を立てるジェスチャである。なお、承認ジェスチャの内容はこれに限られず、ユーザが任意に設定可能であってもよい。
認識部142が承認ジェスチャを認識すると、処理部146は、電子商取引プラットフォームにおいて商品を購入する(ステップS114)。このとき、処理部146は、記憶部145に記憶されているユーザ情報等に基づいて商品の購入処理を行ってもよい。例えば、処理部146は、商品の配送先をユーザの住所情報に基づいて設定してもよい。以上で、ウェアラブル端末130による処理は終了する。なお、確認ダイアログDの表示処理(ステップS122)及び承認ジェスチャの認識処理(ステップS123)は省略可能であり、これらの処理を経ずに処理部146は商品の購入を行ってもよい。
本実施形態に係るウェアラブル端末130によれば、商品情報が表示されるのみならず、商品について電子商取引に関する処理(出品処理や購入処理等)が自動で実行される。そのため、電子商取引に関する処理におけるユーザの作業負担が軽減される。
次に、ウェアラブル端末130によって実行されるお気に入りリストへの商品の登録処理について図14及び図15を用いて説明する。図14は、ウェアラブル端末130によるお気に入りリストへの商品の登録処理の一例を示すフローチャートである。図15は、ユーザによる第4ジェスチャ及び出力制御部144による出力の一例を示す図である。
まず、図15(a)に示すように、ユーザによって第1ジェスチャ(椅子Cを指し示すジェスチャ)が行われると、ディスプレイ136に椅子Cの商品情報がテキストIとして表示される(ステップS130)。なお、商品情報を表示するまでの処理は、図8を用いて説明したステップS100〜ステップS106までの処理と同様であるため説明を省略する。本実施形態においては、図15(a)に示すように、椅子Cの商品名、メーカ、商品価格が表示される。
次に、認識部142は、ユーザによる第4ジェスチャを認識したか否かを判定する(ステップS131)。ここで、第4ジェスチャとは、処理部146による登録処理を開始するためのトリガとなるジェスチャである。本実施形態において、第4ジェスチャは、図15(b)に示すように、テキストIが表示された状態で親指を立てるジェスチャである。なお、第4ジェスチャの内容はこれに限られず、ユーザが任意に設定可能であってもよい。例えば親指でお気に入り登録したい商品を指差すジェスチャでもよい。
認識部142がユーザによる第4ジェスチャを認識した場合(ステップS131:Yes)、処理部146は、商品をお気に入りリストに登録する登録処理を実行する(ステップS132)。具体的には、処理部146は、記憶部145に記憶されたお気に入りリストに椅子Cの商品情報を追加する処理を実行する。
認識部142がユーザによる第4ジェスチャを認識しない場合(ステップS131:No)、認識部142は判定処理を再度実行する(ステップS131)。
その後、出力制御部144は、登録処理が完了したことを示す表示をディスプレイ136に行う(ステップS133)。本実施形態においては、図15(a)に示すようにハートマークがテキストIと共に表示されており、椅子Cがお気に入りリストに登録されると図15(b)に示すようにハートマークが黒く塗りつぶされた表示に変更される。また、図15(b)に示すように「お気に入りリストに登録しました。」という文章がディスプレイ136に表示される。以上で、ウェアラブル端末130による処理は終了する。
<その他の実施形態>
図16及び図17を参照して本発明のその他の実施形態を説明する。本実施形態では、サーバ110は記憶部118において、商品情報に商品の3Dモデルを含めて記憶している。この場合、ウェラブル端末130は商品情報をディスプレイ136に表示する際に、商品画像と重畳させて3Dモデルを表示させることが好ましい。
図16は、ウェアラブル端末130による商品の3Dモデルの回転処理の一例を示すフローチャートである。図17は、ユーザによる第5ジェスチャ及び出力制御部144による出力の一例を示す図である。なお、図17においては説明のため、椅子Cを破線で、3DモデルMを実線で示している。
図17(a)に示すように、ユーザによって第1ジェスチャ(椅子Cを指し示すジェスチャ)が行われると、ディスプレイ136に椅子Cの商品情報(テキストI及び商品の3DモデルM)が表示される(ステップS140)。なお、商品情報(テキストI及び3DモデルM)を表示するまでの処理は、図8を用いて説明したステップS100〜ステップS106までの処理と同様であるため説明を省略する。また、本実施形態では、テキストIは必ずしも表示されなくてもよい。
次に、認識部142は、ユーザによる第5ジェスチャを認識したか否かを判定する(ステップS141)。ここで、第5ジェスチャとは、処理部146による3DモデルMの表示回転処理を開始するためのトリガとなるジェスチャである。本実施形態において、第5ジェスチャは、図17(b)に示すように、3DモデルMが椅子Cに重畳表示された状態で3DモデルMを2本の指で指し、回転させたい方向に2本の指先を動かすジェスチャである。例えば回転速度に応じて回転させる角度が決定されてもよい。また、第5ジェスチャはフリック入力でもよいし、スワイプ入力でもよいし、指を指し示すだけでもよい。なお、第5ジェスチャの内容はこれに限らず、ユーザが任意に設定可能であってもよい。
認識部142がユーザによる第5ジェスチャを認識した場合(ステップS141:Yes)、処理部146は、3DモデルMをユーザに指定された方向・角度に回転させる表示回転処理を実行する(ステップS142)。
認識部142がユーザによる第5ジェスチャを認識しない場合(ステップS141:No)、認識部142は判定処理を再度実行する(ステップS141)。以上で、ウェアラブル端末130による処理は終了する。
なお、回転表示処理は上述の例に限定されず、例えばステップS140では商品情報のうちテキストIのみを表示させ、2本の指で椅子Cが指し示された場合に3DモデルMを表示させてもよい。
以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。上述した実施形態において、商品の出品処理の場合、必ずしも商品情報を出力しなくてもよい。例えば、第1ジェスチャの認識により、画像内の商品が特定され、第2ジェスチャの認識により、特定された商品が電子商取引プラットフォームに出品されるようにしてもよい。
また例えば、第1ジェスチャの認識により、画像内の商品が特定され、商品情報が表示された際に、ジェスチャを認識する代わりに、音声を認識することによって、処理部146が出品や購入、承認、お気に入り登録、回転表示等の処理を行う構成でもよい。この場合、第2乃至第4ジェスチャ、及び承認ジェスチャは以下のような音声に代替されてよい。
・第2ジェスチャ: Sell、売る、売ります、出品するよ
・第3ジェスチャ: Buy、買う、買います、これを買うよ
・第4ジェスチャ: Favorite、 お気に入りに登録、これいいね
・承認ジェスチャ: Yes、 No、 はい、いいえ
1…通信システム、110…サーバ、111…CPU、112…記憶装置、113…通信IF、115…通信部、116…特定部、117…取得部、118…記憶部、120…端末、121…CPU、122…記憶装置、123…通信IF、124…入力デバイス、125…出力デバイス、126…撮像部、130…ウェアラブル端末、131…CPU、132…記憶装置、133…通信IF、134…出力デバイス、135…撮像部、136…ディスプレイ、137…フレーム、138…ヒンジ部、139…テンプル、139a…係止部、140…通信部、141…撮像部、142…認識部、143…取得部、144…出力制御部、145…記憶部、146…処理部

Claims (11)

  1. 撮像部と、
    前記撮像部により撮像された画像内で、ユーザによる商品を特定するための第1ジェスチャを認識する認識部と、
    前記認識部により前記第1ジェスチャが認識された場合、前記第1ジェスチャが認識された画像を用いて特定された前記商品の商品情報を取得する取得部と、
    前記ユーザに視認可能に前記商品情報を出力制御する出力制御部と、
    前記商品について、電子商取引に関する所定の処理に含まれる、電子商取引プラットフォームにおいて前記商品を出品する出品処理を行う処理部と、を備えるウェアラブル端末。
  2. 前記処理部は、前記認識部が前記ユーザによる第2ジェスチャを認識した場合に、前記出品処理を実行する、
    請求項に記載のウェアラブル端末。
  3. 前記所定の処理は、電子商取引プラットフォームにおいて前記商品を購入する購入処理を含む
    請求項1に記載のウェアラブル端末。
  4. 前記処理部は、前記認識部が前記ユーザによる第3ジェスチャを認識した場合に、前記購入処理を実行する、
    請求項に記載のウェアラブル端末。
  5. 前記処理部は、前記認識部が前記ユーザによる第4ジェスチャを認識した場合に、前記商品を所定のリストへ登録する処理を実行する、
    請求項1からのいずれか一項に記載のウェアラブル端末。
  6. 前記取得部は、前記第1ジェスチャに用いられた物体の端部に最も近い商品の商品情報を取得する、
    請求項1からのいずれか一項に記載のウェアラブル端末。
  7. 前記物体は、前記ユーザの指である、
    請求項に記載のウェアラブル端末。
  8. 前記出力制御部は、前記撮像部により撮像された画像の所定領域内に前記物体が位置しなくなった場合に、前記商品情報を出力しない制御を実行する、
    請求項又はに記載のウェアラブル端末。
  9. 撮像部と、
    前記撮像部により撮像された画像内で、ユーザによる商品を特定するための第1ジェスチャを認識する認識部と、
    前記認識部により前記第1ジェスチャが認識された場合、前記第1ジェスチャが認識された画像を用いて特定された前記商品の商品情報を取得する取得部と、
    前記ユーザに視認可能に前記商品情報を出力制御する出力制御部と、
    前記商品について、電子商取引に関する所定の処理に含まれる、電子商取引プラットフォームにおいて前記商品を出品する出品処理を実行する処理部と、を備える情報処理端末。
  10. 情報処理装置に、
    撮像するステップと、
    撮像した画像内で、ユーザによる商品を特定するための第1ジェスチャを認識するステップと、
    前記第1ジェスチャが認識された場合、前記第1ジェスチャが認識された画像を用いて特定された前記商品の商品情報を取得するステップと、
    前記ユーザに視認可能に前記商品情報を出力制御するステップと、
    前記商品について、電子商取引に関する所定の処理に含まれる、電子商取引プラットフォームにおいて前記商品を出品する出品処理を行うステップと、を実行させるプログラム。
  11. 情報処理装置が、
    撮像するステップと、
    撮像した画像内で、ユーザによる商品を特定するための第1ジェスチャを認識するステップと、
    前記第1ジェスチャが認識された場合、前記第1ジェスチャが認識された画像を用いて特定された前記商品の商品情報を取得するステップと、
    前記ユーザに視認可能に前記商品情報を出力制御するステップと、
    前記商品について、電子商取引に関する所定の処理に含まれる、電子商取引プラットフォームにおいて前記商品を出品する出品処理を行うステップと、を実行する商品情報表示方法。
JP2018237226A 2018-12-19 2018-12-19 ウェアラブル端末、情報処理端末、プログラム及び商品情報表示方法 Active JP6589038B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018237226A JP6589038B1 (ja) 2018-12-19 2018-12-19 ウェアラブル端末、情報処理端末、プログラム及び商品情報表示方法
US16/525,825 US11694242B2 (en) 2018-12-19 2019-07-30 Wearable terminal, information processing terminal, and product information display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018237226A JP6589038B1 (ja) 2018-12-19 2018-12-19 ウェアラブル端末、情報処理端末、プログラム及び商品情報表示方法

Publications (2)

Publication Number Publication Date
JP6589038B1 true JP6589038B1 (ja) 2019-10-09
JP2020098535A JP2020098535A (ja) 2020-06-25

Family

ID=68159715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018237226A Active JP6589038B1 (ja) 2018-12-19 2018-12-19 ウェアラブル端末、情報処理端末、プログラム及び商品情報表示方法

Country Status (2)

Country Link
US (1) US11694242B2 (ja)
JP (1) JP6589038B1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021077200A (ja) * 2019-11-12 2021-05-20 株式会社メルカリ 情報処理方法、プログラム、及び情報処理装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200080047A (ko) * 2018-12-26 2020-07-06 삼성전자주식회사 진정 사용자의 손을 식별하는 방법 및 이를 위한 웨어러블 기기
JP6839324B1 (ja) * 2020-08-06 2021-03-03 株式会社キューブシステム 入力システム、入力プログラムおよび入力方法
JP7076521B1 (ja) * 2020-11-27 2022-05-27 楽天グループ株式会社 情報処理システム、情報処理方法およびプログラム
JP2022161247A (ja) * 2021-04-08 2022-10-21 日本電気株式会社 情報提供システム、情報提供方法及びプログラム
WO2024024421A1 (ja) * 2022-07-28 2024-02-01 日本電気株式会社 取引支援システム、取引支援方法及び記録媒体

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7995770B1 (en) * 2007-02-02 2011-08-09 Jeffrey Franklin Simon Apparatus and method for aligning and controlling reception of sound transmissions at locations distant from the sound source
US10223710B2 (en) * 2013-01-04 2019-03-05 Visa International Service Association Wearable intelligent vision device apparatuses, methods and systems
US20150012426A1 (en) * 2013-01-04 2015-01-08 Visa International Service Association Multi disparate gesture actions and transactions apparatuses, methods and systems
US9262780B2 (en) * 2012-01-09 2016-02-16 Google Inc. Method and apparatus for enabling real-time product and vendor identification
US9898742B2 (en) * 2012-08-03 2018-02-20 Ebay Inc. Virtual dressing room
US20140214628A1 (en) * 2013-01-31 2014-07-31 Wal-Mart Stores, Inc. Gesture-Based Product Wishlist And Shared Social Networking
US10546204B1 (en) * 2013-03-05 2020-01-28 Amazon Technologies, Inc. Item information discovery with a wearable device
CA2921374C (en) * 2013-08-13 2021-05-25 Charles Lin Applications for wearable devices
JP6851133B2 (ja) * 2014-01-03 2021-03-31 ハーマン インターナショナル インダストリーズ インコーポレイテッド ユーザに方向付けられた個人情報アシスタント
WO2015107625A1 (ja) * 2014-01-15 2015-07-23 日立マクセル株式会社 情報表示端末、情報表示システム及び情報表示方法
US11328334B1 (en) * 2014-04-30 2022-05-10 United Services Automobile Association (Usaa) Wearable electronic devices for automated shopping and budgeting with a wearable sensor
US9916010B2 (en) * 2014-05-16 2018-03-13 Visa International Service Association Gesture recognition cloud command platform, system, method, and apparatus
US9959675B2 (en) * 2014-06-09 2018-05-01 Microsoft Technology Licensing, Llc Layout design using locally satisfiable proposals
US20160070439A1 (en) * 2014-09-04 2016-03-10 International Business Machines Corporation Electronic commerce using augmented reality glasses and a smart watch
US20160189268A1 (en) * 2014-12-31 2016-06-30 Saumil Ashvin Gandhi Wearable device for interacting with media-integrated vendors
KR20160128119A (ko) * 2015-04-28 2016-11-07 엘지전자 주식회사 이동 단말기 및 이의 제어방법
EP3314564A1 (en) * 2015-06-24 2018-05-02 Magic Leap, Inc. Augmented reality devices, systems and methods for purchasing
US10922733B2 (en) * 2015-10-26 2021-02-16 Sk Planet Co., Ltd. Payment information providing system using wearable device and payment information providing method using the same
KR20170049996A (ko) * 2015-10-29 2017-05-11 에스케이플래닛 주식회사 디바이스를 이용한 상품 결제 방법 및 서버
US10733446B2 (en) * 2016-01-06 2020-08-04 Orcam Technologies Ltd. Wearable apparatus and methods for causing a paired device to execute selected functions
JP6256497B2 (ja) * 2016-03-04 2018-01-10 日本電気株式会社 情報処理システム、情報処理装置、制御方法、及びプログラム
JP6561938B2 (ja) 2016-08-05 2019-08-21 京セラドキュメントソリューションズ株式会社 印刷物処理システム
US20180329209A1 (en) * 2016-11-24 2018-11-15 Rohildev Nattukallingal Methods and systems of smart eyeglasses
US10262036B2 (en) * 2016-12-29 2019-04-16 Microsoft Technology Licensing, Llc Replacing pronouns with focus-specific objects in search queries
US10362233B2 (en) * 2017-09-12 2019-07-23 Ebay Inc. Digital image capture session and metadata association
US10949667B2 (en) * 2017-09-14 2021-03-16 Ebay Inc. Camera platform and object inventory control
US20190156377A1 (en) * 2017-11-17 2019-05-23 Ebay Inc. Rendering virtual content based on items recognized in a real-world environment
US11282133B2 (en) * 2017-11-21 2022-03-22 International Business Machines Corporation Augmented reality product comparison
US10885536B2 (en) * 2018-02-01 2021-01-05 Ebay Inc. Garnering interest on potential listing in a photo or video
US11847128B2 (en) * 2018-05-16 2023-12-19 Ebay Inc. Flexibly managing records in a database to match searches
US11170085B2 (en) * 2018-06-03 2021-11-09 Apple Inc. Implementation of biometric authentication

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021077200A (ja) * 2019-11-12 2021-05-20 株式会社メルカリ 情報処理方法、プログラム、及び情報処理装置
JP7504577B2 (ja) 2019-11-12 2024-06-24 株式会社メルカリ 情報処理方法、プログラム、及び情報処理装置

Also Published As

Publication number Publication date
US11694242B2 (en) 2023-07-04
JP2020098535A (ja) 2020-06-25
US20200202397A1 (en) 2020-06-25

Similar Documents

Publication Publication Date Title
JP6589038B1 (ja) ウェアラブル端末、情報処理端末、プログラム及び商品情報表示方法
US20160070439A1 (en) Electronic commerce using augmented reality glasses and a smart watch
CN103176690B (zh) 显示控制设备、显示控制方法和程序
CN110456907A (zh) 虚拟画面的控制方法、装置、终端设备及存储介质
US9304646B2 (en) Multi-user content interactions
CN110192386B (zh) 信息处理设备和信息处理方法
US20190012717A1 (en) Appratus and method of providing online sales information of offline product in augmented reality
EP3198377A1 (en) Systems, apparatuses, and methods for gesture recognition and interaction
JP6720385B1 (ja) プログラム、情報処理方法、及び情報処理端末
US9213420B2 (en) Structured lighting based content interactions
US20130254066A1 (en) Shared user experiences
CN106127552B (zh) 一种虚拟场景显示方法、装置及系统
JP6177998B2 (ja) 情報表示方法および情報表示端末
US20130254647A1 (en) Multi-application content interactions
WO2018135246A1 (ja) 情報処理システム及び情報処理装置
KR20190101827A (ko) 디스플레이를 통해 표시된 제 1 콘텐트에 대해 제 2 콘텐트를 외부 객체의 움직임에 따라 제공하기 위한 전자 장치 및 그의 동작 방법
CN105122290A (zh) 实物和虚拟产品的购买
US20230219003A1 (en) Advertising display system
KR20200139934A (ko) 증강현실을 이용한 의류 착용 서비스 장치 및 방법
JP2017156514A (ja) 電子看板システム
CN111614924B (zh) 计算机系统、资源发送方法、装置、设备及介质
KR20180075099A (ko) Hmd 장치 및 그의 제어 방법
CN110832525A (zh) 在对象上的增强现实广告
KR102539052B1 (ko) 회전 부재를 포함하는 전자 장치 및 그 전자 장치의 동작 방법
WO2015159550A1 (ja) 情報処理システム、制御方法、及びプログラム記録媒体

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20190117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190528

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190528

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190913

R150 Certificate of patent or registration of utility model

Ref document number: 6589038

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250