JP2020119177A - Wearable search system, search method, and search program - Google Patents
Wearable search system, search method, and search program Download PDFInfo
- Publication number
- JP2020119177A JP2020119177A JP2019009093A JP2019009093A JP2020119177A JP 2020119177 A JP2020119177 A JP 2020119177A JP 2019009093 A JP2019009093 A JP 2019009093A JP 2019009093 A JP2019009093 A JP 2019009093A JP 2020119177 A JP2020119177 A JP 2020119177A
- Authority
- JP
- Japan
- Prior art keywords
- information
- target object
- mobile terminal
- user
- server
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、ウェアラブル検索システム、検索方法、及び、検索プログラムに関する。 The present invention relates to a wearable search system, a search method, and a search program.
特許文献1には、ユーザが所定のジェスチャを行ったか否かを検出するウェアラブル動作センサと、メガネタイプの透過型HMD(Head Mounted Display)と、当該透過型HMDに内蔵されたカメラとを備えるウェアラブル検索システムが記載されている。特許文献1に記載のウェアラブル検索システムでは、ユーザが検索するために所定のジェスチャを行うと、ウェアラブル動作センサが当該ジェスチャを検出し、カメラがユーザの視界方向のカメラ撮影を行う。そして、カメラによって撮影された画像から検索対象が抽出され、抽出された検索対象の画像が画像認識サーバへ送信され、当該画像認識サーバにおいて検索が実行される。また、検索結果は、透過型HMD上に表示される。 In Patent Document 1, a wearable motion sensor that detects whether or not a user has made a predetermined gesture, a glasses-type transmissive HMD (Head Mounted Display), and a wearable camera that is built in the transmissive HMD. A search system is described. In the wearable search system described in Patent Document 1, when the user makes a predetermined gesture for searching, the wearable motion sensor detects the gesture and the camera takes a picture of the camera in the visual field direction of the user. Then, the search target is extracted from the image captured by the camera, the extracted search target image is transmitted to the image recognition server, and the search is executed in the image recognition server. In addition, the search result is displayed on the transparent HMD.
しかし、特許文献1に記載されているウェアラブル検索システムでは、ユーザによる検索のための動作、例えば、機器操作、対象物の指定、及びジェスチャ等が必要であった。すなわち、ユーザの「検索する」という目的意識がないと、検索を行うことができない。そのため、ユーザが無意識に「見ている」対象についての情報を提供することができないという問題があった。 However, the wearable search system described in Patent Document 1 requires a search operation by the user, such as device operation, designation of an object, and gesture. That is, unless the user has a sense of purpose of “searching”, the search cannot be performed. Therefore, there is a problem that the user cannot unknowingly provide the information about the object “looking”.
本発明の目的は、検索のためのユーザの動作が不要なウェアラブル検索システム、検索方法、及び、検索プログラムを提供することである。 An object of the present invention is to provide a wearable search system, a search method, and a search program that do not require a user's operation for search.
本発明の第1の態様に係るウェアラブル検索システムは、ユーザの焦点を検出するとともに、前記ユーザの前記焦点上に存在する対象物を撮影するカメラ付メガネと、前記ユーザが携帯する携帯端末と、前記カメラ付メガネ及び前記携帯端末と通信ネットワークによって接続されたサーバと、を備え、前記カメラ付メガネは、撮影した前記対象物の画像情報とともに、前記ユーザの前記焦点に関する焦点情報及び前記ユーザの位置情報を前記対象物の位置情報として前記サーバに送信し、前記サーバは、前記対象物の前記画像情報と、前記対象物の位置情報と、前記対象物に関する対象物情報とが対応付けられたデータテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報を抽出し、抽出した前記対象物情報を前記携帯端末に送信し、前記携帯端末は、前記対象物情報を前記携帯端末の表示部に表示する。 A wearable search system according to a first aspect of the present invention detects a user's focus, and wears camera-equipped glasses for photographing an object existing on the focus of the user, and a mobile terminal carried by the user, The camera-equipped glasses and a server connected to the mobile terminal via a communication network, the camera-equipped glasses together with image information of the photographed object, focus information regarding the focus of the user, and the position of the user. Data in which information is transmitted to the server as position information of the object, and the server associates the image information of the object, the position information of the object, and the object information about the object with each other. The table is searched based on the image information and the position information of the object transmitted from the glasses with the camera to specify the object and extract the object information, and the extracted object The information is transmitted to the mobile terminal, and the mobile terminal displays the object information on the display unit of the mobile terminal.
本発明の第2の態様に係る検索方法は、ユーザに着用されるカメラ付メガネと、前記ユーザが携帯する携帯端末と、前記カメラ付メガネ及び前記携帯端末と通信ネットワークによって接続されたサーバと、を備えるウェアラブル検索システムにおいて実施される検索方法であって、前記カメラ付メガネが、前記ユーザの焦点を検出するとともに、前記ユーザの前記焦点上に存在する対象物を撮影し、撮影した前記対象物の画像情報とともに、前記ユーザの前記焦点に関する焦点情報及び前記ユーザの位置情報を前記対象物の位置情報として前記サーバに送信し、前記サーバが、前記対象物の前記画像情報と、前記対象物の位置情報と、前記対象物に関する対象物情報とが対応付けられたデータテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報を抽出し、抽出した前記対象物情報を前記携帯端末に送信し、前記携帯端末が、前記対象物情報を前記携帯端末の表示部に表示する。 A search method according to a second aspect of the present invention is a pair of glasses with a camera worn by a user, a mobile terminal carried by the user, a server connected to the glasses with a camera and the mobile terminal by a communication network, A wearable search system including a search method, wherein the camera-equipped glasses detect a focus of the user, photograph an object existing on the focus of the user, and photograph the object. Together with the image information of the user, focus information regarding the focus of the user and position information of the user are transmitted to the server as position information of the target object, and the server sends the image information of the target object and the target object. By searching a data table in which position information and target object information regarding the target object are associated with each other based on the image information and the position information of the target object transmitted from the glasses with camera, the target The object is specified, the object information is extracted, the extracted object information is transmitted to the mobile terminal, and the mobile terminal displays the object information on the display unit of the mobile terminal.
本発明の第3の態様に係る検索プログラムは、ユーザに着用されるカメラ付メガネと、前記ユーザが携帯する携帯端末と、前記カメラ付メガネ及び前記携帯端末と通信ネットワークによって接続されたサーバと、を備えるウェアラブル検索システムにおいて実行される検索プログラムであって、前記カメラ付メガネに、前記ユーザの焦点を検出するとともに、前記ユーザの前記焦点上に存在する対象物を撮影し、撮影した前記対象物の画像情報とともに、前記ユーザの前記焦点に関する焦点情報及び前記ユーザの位置情報を前記対象物の位置情報として前記サーバに送信する処理を実行させ、前記サーバに、前記対象物の前記画像情報と、前記対象物の位置情報と、前記対象物に関する対象物情報とが対応付けられたデータテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報を抽出し、抽出した前記対象物情報を前記携帯端末に送信する処理を実行させ、前記携帯端末に、前記対象物情報を前記携帯端末の表示部に表示する処理を実行させる。 A search program according to a third aspect of the present invention is a pair of glasses with a camera worn by a user, a mobile terminal carried by the user, a server with the glasses with a camera and the mobile terminal connected by a communication network, A search program executed in a wearable search system comprising: the camera-attached glasses that detect the focus of the user, photograph an object existing on the focus of the user, and photograph the object. Together with the image information of, the focus information regarding the focus of the user and the position information of the user are transmitted to the server as the position information of the target object, and the server performs the image information of the target object, Retrieving a data table in which the position information of the target object and the target object information regarding the target object are associated with each other based on the image information and the position information of the target object transmitted from the glasses with a camera. To specify the target object, extract the target object information, and execute a process of transmitting the extracted target object information to the mobile terminal, and display the target object information on the mobile terminal on the mobile terminal. Causes the process displayed on the department to be executed.
検索のためのユーザの動作が不要なウェアラブル検索システム、検索方法、及び、検索プログラムを提供することができる。 A wearable search system, a search method, and a search program that do not require a user's operation for search can be provided.
実施の形態1
以下、図面を参照して本発明の実施の形態1について説明する。
図1は、本発明の実施の形態1に係るウェアラブル検索システム100の一例を示す図である。図1に示すように、ウェアラブル検索システム100は、ユーザUに着用されるカメラ付メガネ200、ユーザUが携帯する携帯端末300、及びサーバ400を備える。また、サーバ400は、カメラ付メガネ200及び携帯端末300と通信ネットワークNによって接続されている。
Embodiment 1
Hereinafter, Embodiment 1 of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing an example of
カメラ付メガネ200は、カメラが搭載されたメガネであり、図示しない制御部を備える。制御部は、図示しないCPU(Central Processing Unit)及び図示しない記憶部等を備える。そして、CPUが記憶部に格納されたプログラムを実行することにより、制御部における全ての処理が実現する。
また、制御部のそれぞれの記憶部に格納されるプログラムは、CPUに実行されることにより、制御部のそれぞれにおける処理を実現するためのコードを含む。なお、記憶部は、例えば、このプログラムや、制御部における処理に利用される各種情報を格納することができる任意の記憶装置を含んで構成される。記憶装置は、例えば、メモリ等である。
The camera-equipped
In addition, the program stored in each storage unit of the control unit includes a code that is executed by the CPU to realize the processing in each of the control units. The storage unit is configured to include, for example, an arbitrary storage device capable of storing this program and various kinds of information used for processing in the control unit. The storage device is, for example, a memory or the like.
カメラ付メガネ200は、ユーザUの眼の焦点を検出する。カメラ付メガネ200によるユーザUの眼の焦点の検出は、既知の技術を用いて実現することができる。具体的には、カメラ付メガネ200は、例えば、ユーザUの眼に赤外光によるマーカーを照射して眼屈折力を測定し、焦点を検出してもよい。ここで、ユーザUの眼の焦点を検出するとは、カメラ付メガネ200から、ユーザUの眼の焦点までの距離(以下、焦点距離とも称する。)を検出することを意味する。
The camera-equipped
また、カメラ付メガネ200は、ユーザUの焦点上に存在する対象物Sを撮影する。具体的には、カメラ付メガネは、当該カメラ付メガネに搭載されたカメラの焦点位置をユーザUの眼の焦点の位置に合わせて撮影する。
Moreover, the camera-equipped
また、カメラ付メガネ200は、ユーザUの位置情報を取得する。具体的には、カメラ付メガネ200は、例えば、GPS(Global Positioning System)衛星から信号を受信し、ユーザUの位置情報を取得する。また、携帯端末300が、同様に、ユーザUの位置情報を取得可能である場合、カメラ付メガネ200は、携帯端末300からユーザUの位置情報を通信ネットワークN経由で受信してもよい。
Further, the camera-equipped
また、カメラ付メガネ200は、撮影した対象物Sの画像情報を前記サーバに送信する。また、カメラ付メガネ200は、対象物Sの画像情報とともに、対象物Sの位置情報として、検出したユーザUの眼の焦点距離に関する焦点情報及びユーザUの位置情報をサーバ400に送信する。
The camera-equipped
サーバ400は、ウェアラブル検索システム100における検索処理を担う部分であり、図示しない制御部を備える。制御部は、図示しないCPU(Central Processing Unit)及び図示しない記憶部等を備える。そして、CPUが記憶部に格納されたプログラムを実行することにより、制御部における全ての処理が実現する。
また、制御部のそれぞれの記憶部に格納されるプログラムは、CPUに実行されることにより、制御部のそれぞれにおける処理を実現するためのコードを含む。なお、記憶部は、例えば、このプログラムや、制御部における処理に利用される各種情報を格納することができる任意の記憶装置を含んで構成される。記憶装置は、例えば、メモリ等である。
The
In addition, the program stored in each storage unit of the control unit includes a code that is executed by the CPU to realize the processing in each of the control units. The storage unit is configured to include, for example, an arbitrary storage device capable of storing this program and various kinds of information used for processing in the control unit. The storage device is, for example, a memory or the like.
サーバ400は、カメラ付メガネ200から送信された、対象物Sの画像情報及び対象物Sの位置情報に基づいて、対象物Sの画像情報と、対象物Sの位置情報と、対象物Sに関する対象物情報と、対象物Sに関連する関連情報とが対応付けられたデータテーブルを検索する。具体的には、当該データテーブルから、カメラ付メガネ200から送信された対象物Sの画像情報及び位置情報に一致する対象物Sの画像情報及び位置情報の対象物情報及び関連情報を抽出する。これにより、サーバ400は、対象物Sを特定するとともに、対象物Sの対象物情報と関連情報とを抽出する。ここで、対象物Sの対象物情報とは、例えば、対象物Sがビル等である場合、当該ビルの名称等である。また、対象物Sの関連情報とは、例えば、対象物Sがビル等である場合、当該ビルに入居している店舗の名前や種類等である。ここで、店舗の種類とは、薬局、家具店、雑貨店、被服店、装飾用品店、専門道具店等である。なお、当該データテーブルはサーバ400の記憶部に格納されていてもよいし、外部の記憶装置に格納されていてもよい。
また、サーバ400がカメラ付メガネ200から送信された対象物Sの画像情報と当該データテーブルに格納されている対象物Sの画像情報との比較を行う際、サーバ400は、カメラ付メガネ200から送信された対象物Sの画像情報及び当該データテーブルに格納されている対象物Sの画像情報に対して、特徴点の抽出等の種々の画像処理を行う。これにより、サーバ400は、当該データテーブルから、カメラ付メガネ200から送信された対象物Sの画像情報と一致する対象物Sの画像情報を検出する。
また、サーバ400は、抽出した対象物Sの対象物情報及び関連情報をユーザUの携帯端末300に送信する。
The
In addition, when the
Further, the
携帯端末300は、ユーザUに対して、サーバ400の検索結果の提示を行う部分であり、図示しない制御部を備える。制御部は、図示しないCPU(Central Processing Unit)及び図示しない記憶部等を備える。そして、CPUが記憶部に格納されたプログラムを実行することにより、制御部における全ての処理が実現する。
また、制御部のそれぞれの記憶部に格納されるプログラムは、CPUに実行されることにより、制御部のそれぞれにおける処理を実現するためのコードを含む。なお、記憶部は、例えば、このプログラムや、制御部における処理に利用される各種情報を格納することができる任意の記憶装置を含んで構成される。記憶装置は、例えば、メモリ等である。
The
In addition, the program stored in each storage unit of the control unit includes a code that is executed by the CPU to realize the processing in each of the control units. The storage unit is configured to include, for example, an arbitrary storage device capable of storing this program and various kinds of information used for processing in the control unit. The storage device is, for example, a memory or the like.
携帯端末300は、表示部301を備え、サーバ400から送信された対象物Sの対象物情報及び関連情報を、当該表示部301に表示する。
また、携帯端末300は、当該携帯端末300における検索履歴に基づいて、サーバ400から送信された関連情報から、ユーザUにとって有益な関連情報を選択し、選択した関連情報を対象物情報とともに表示部301に表示してもよい。具体的には、携帯端末300は、サーバ400から送信された関連情報から、当該携帯端末300の検索履歴のうち検索回数が所定回数より多い検索結果と関連性の高い関連情報を選択する。例えば、当該携帯端末300の検索履歴に、家具についての検索回数が所定回数より多い場合に、携帯端末300は、対象物Sの関連情報に家具店の情報があれば、当該家具店の情報を表示部301に表示する。
The
In addition, the
また、携帯端末300は、サーバ400からの対象物情報及び関連情報の送信を停止する停止命令をサーバ400に送信する。具体的には、ユーザUによって携帯端末300が操作されることによって、配信停止が設定された場合に、携帯端末300は、配信停止命令をサーバ400に送信する。
The
次に、図2及び図3を参照しながら、ウェアラブル検索システム100において実施される検索方法について説明する。
まず、カメラ付メガネ200は、ユーザUの眼の焦点を検出し、焦点距離に関する焦点情報を取得する(ステップS101)。
Next, a search method implemented in the
First, the camera-equipped
次に、カメラ付メガネ200は、ユーザUの焦点上に存在する対象物Sを撮影し、対象物Sの画像情報を取得する(ステップS102)。
Next, the camera-equipped
次に、カメラ付メガネ200は、GPS衛星から信号を受信し、ユーザUの位置情報を取得する(ステップS103)。なお、カメラ付メガネ200は、携帯端末300からユーザUの位置情報を取得してもよい。
Next, the camera-equipped
次に、カメラ付メガネ200は、対象物Sの画像情報とともに、対象物Sの位置情報として、検出したユーザUの焦点情報及びユーザUの位置情報をサーバ400に送信する(ステップS104)。なお、ステップS101〜ステップS103において情報を取得することができなかった場合や、ステップS104においてサーバ400に情報を送信することができなかった場合、カメラ付メガネ200は、携帯端末300にその旨を送信してもよい。この場合、携帯端末300は、表示部301に「検索不可」と表示してもよい。
Next, the camera-equipped
次に、サーバ400は、カメラ付メガネ200から送信された、対象物Sの画像情報、対象物Sの位置情報(ユーザUの焦点情報及びユーザUの位置情報)を受信する(ステップS105)。
Next, the
次に、サーバ400は、カメラ付メガネ200から送信された対象物Sの画像情報及び当該データテーブルに格納されている対象物Sの画像情報に対して、特徴点の抽出等の種々の画像処理を行う(ステップS106)。
Next, the
次に、サーバ400は、ステップS106によって得られた情報及び対象物Sの位置情報に基づいて、当該データテーブルから、カメラ付メガネ200から送信された対象物Sの画像情報及び位置情報と一致する対象物Sの画像情報及び位置情報を検出する。これにより、サーバ400は、対象物Sの特定を行う(ステップS107)。なお、ステップS107において、対象物Sの特定ができなかった場合、サーバ400は、携帯端末300にその旨を送信してもよい。この場合、携帯端末300は、表示部301に「検索不可」と表示してもよい。
Next, the
次に、サーバ400は、当該データテーブルから、ステップS107において特定した対象物Sの対象物情報と関連情報とを抽出する(ステップS108)。
Next, the
次に、サーバ400は、ステップS108において抽出した対象物Sの対象物情報及び関連情報を携帯端末300に送信する(ステップS109)。
Next, the
次に、携帯端末300は、サーバ400から送信された対象物Sの対象物情報及び関連情報を受信する(ステップS110)。
Next, the
次に、携帯端末300は、当該携帯端末300における検索履歴に基づいて、サーバ400から送信された関連情報から、ユーザUにとって有益な関連情報を選択し(ステップS111)、選択した関連情報を対象物情報とともに表示部301に表示する(ステップS112)。
Next, the
次に、携帯端末300は、ユーザUによって携帯端末300が操作されることによって、配信停止が設定されたか否かと判断する(ステップS113)。
ステップS113において、ユーザUによって携帯端末300が操作されることによって、配信停止が設定されていない場合(ステップS113;No)、本処理を繰り返す。
ステップS113において、ユーザUによって携帯端末300が操作されることによって、配信停止が設定されている場合(ステップS113;Yes)、携帯端末300は、配信停止命令をサーバ400に送信する(ステップS114)。
Next, the
In step S113, when the distribution stop is not set by the user U operating the mobile terminal 300 (step S113; No), this process is repeated.
In step S113, when the distribution stop is set by the user U operating the mobile terminal 300 (step S113; Yes), the
次に、サーバ400は、携帯端末300から配信停止命令を受信し(ステップS115)、携帯端末300への対象物情報及び関連情報の送信を停止する(ステップS116)。
Next, the
以上に説明した実施の形態1に係るウェアラブル検索システム100、検索方法、及び、検索プログラムによれば、カメラ付メガネ200が自動でユーザUの焦点上に位置する対象物Sの画像情報を取得し、当該対象物Sの画像情報とともに、対象物Sの位置情報(ユーザUの位置情報及び焦点情報)を送信し、サーバ400がカメラ付メガネ200から送信された対象物Sの画像情報及び位置情報に基づいて、データテーブルから対象物Sの対象物情報及び関連情報を検索し、携帯端末300の表示部301に当該対象物情報及び関連情報が表示される。すなわち、ユーザUが「検索する」という目的意識を持たなくても、ユーザUの焦点上に存在する対象物Sについて検索を行うことができる。これにより、検索のためのユーザUの動作が不要なウェアラブル検索システム100、検索方法、及び、検索プログラムを提供することができる。
According to the
また、サーバ400によって、対象物Sの対象物情報だけでなく関連情報も検索されるため、対象物Sが特定されるだけでなく、特定された対象物Sの関連情報もユーザUに提示することができる。
Further, since the
また、携帯端末300によって、サーバ400から送信された関連情報からユーザUにとって有益な関連情報が選択されるため、ユーザUにとって有益な関連情報を提示することができる。
Further, since the
また、携帯端末300がユーザUによって操作されることにより、携帯端末300は、サーバ400からの対象物情報及び関連情報の送信を停止する配信停止命令をサーバ400に送信するため、対象物情報及び関連情報の配信が不要な場合には、その配信を停止することができる。
Further, when the
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上記の実施の形態1において、カメラ付メガネ200は、透過型HMDであってもよい。この場合、サーバ400から対象物Sの対象物情報及び関連情報がカメラ付メガネ200に送信され、カメラ付メガネ200に当該対象物情報及び関連情報が表示されてもよい。
The present invention is not limited to the above-mentioned embodiment, and can be modified as appropriate without departing from the spirit of the present invention. For example, in Embodiment 1 above, the camera-equipped
また、上述の実施の形態では、本発明をハードウェアの構成として説明したが、本発明は、これに限定されるものではない。本発明は、図2及び図3のフローチャートに記載の処理手順を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。
また、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non−transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
Further, although the present invention has been described as a hardware configuration in the above-described embodiments, the present invention is not limited to this. The present invention can also be realized by causing a CPU (Central Processing Unit) to execute a computer program, the processing procedure described in the flowcharts of FIGS. 2 and 3.
In addition, the program described above can be stored using various types of non-transitory computer readable mediums and supplied to the computer. Non-transitory computer readable media include various types of tangible storage media. Examples of the non-transitory computer-readable medium are magnetic recording media (for example, flexible disk, magnetic tape, hard disk drive), magneto-optical recording media (for example, magneto-optical disk), CD-ROM (Read Only Memory) CD-R, CD. -R/W, semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)) are included. In addition, the program may be supplied to the computer by various types of transitory computer readable medium. Examples of transitory computer-readable media include electrical signals, optical signals, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.
上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
ユーザの焦点を検出するとともに、前記ユーザの前記焦点上に存在する対象物を撮影するカメラ付メガネと、
前記ユーザが携帯する携帯端末と、
前記カメラ付メガネ及び前記携帯端末と通信ネットワークによって接続されたサーバと、
を備え、
前記カメラ付メガネは、撮影した前記対象物の画像情報とともに、前記ユーザの前記焦点に関する焦点情報及び前記ユーザの位置情報を前記対象物の位置情報として前記サーバに送信し、
前記サーバは、前記対象物の前記画像情報と、前記対象物の位置情報と、前記対象物に関する対象物情報とが対応付けられたデータテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報を抽出し、抽出した前記対象物情報を前記携帯端末に送信し、
前記携帯端末は、前記対象物情報を前記携帯端末の表示部に表示する、ウェアラブル検索システム。
(付記2)
前記データテーブルにおいて、前記対象物の前記画像情報と、前記対象物の前記位置情報と、前記対象物に関する前記対象物情報と、前記対象物に関連する関連情報とが対応付けられており、
前記サーバは、前記データテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報及び前記関連情報を抽出し、抽出した前記対象物情報及び前記関連情報を前記携帯端末に送信し、
前記携帯端末は、前記対象物情報及び前記関連情報を前記携帯端末の表示部に表示する、付記1に記載のウェアラブル検索システム。
(付記3)
前記携帯端末は、当該携帯端末における検索履歴に基づいて、前記サーバから送信された前記関連情報から、前記ユーザにとって有益な前記関連情報を選択し、選択した前記関連情報を前記対象物情報とともに前記表示部に表示する、付記2に記載のウェアラブル検索システム。
(付記4)
前記携帯端末は、前記サーバからの前記対象物情報及び前記関連情報の送信を停止する停止命令を前記サーバに送信する、付記2又は3に記載のウェアラブル検索システム。
(付記5)
ユーザに着用されるカメラ付メガネと、前記ユーザが携帯する携帯端末と、前記カメラ付メガネ及び前記携帯端末と通信ネットワークによって接続されたサーバと、を備えるウェアラブル検索システムにおいて実施される検索方法であって、
前記カメラ付メガネが、前記ユーザの焦点を検出するとともに、前記ユーザの前記焦点上に存在する対象物を撮影し、撮影した前記対象物の画像情報とともに、前記ユーザの前記焦点に関する焦点情報及び前記ユーザの位置情報を前記対象物の位置情報として前記サーバに送信し、
前記サーバが、前記対象物の前記画像情報と、前記対象物の位置情報と、前記対象物に関する対象物情報とが対応付けられたデータテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報を抽出し、抽出した前記対象物情報を前記携帯端末に送信し、
前記携帯端末が、前記対象物情報を前記携帯端末の表示部に表示する、検索方法。
(付記6)
前記データテーブルにおいて、前記対象物の前記画像情報と、前記対象物の前記位置情報と、前記対象物に関する前記対象物情報と、前記対象物に関連する関連情報とが対応付けられており、
前記サーバが、前記データテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報及び前記関連情報を抽出し、抽出した前記対象物情報及び前記関連情報を前記携帯端末に送信し、
前記携帯端末が、前記対象物情報及び前記関連情報を前記携帯端末の表示部に表示する、付記5に記載の検索方法。
(付記7)
前記携帯端末が、当該携帯端末における検索履歴に基づいて、前記サーバから送信された前記関連情報から、前記ユーザにとって有益な前記関連情報を選択し、選択した前記関連情報を前記対象物情報とともに前記表示部に表示する、付記6に記載の検索方法。
(付記8)
前記携帯端末が、前記サーバからの前記対象物情報及び前記関連情報の送信を停止する停止命令を前記サーバに送信する、付記6又は7に記載の検索方法。
(付記9)
ユーザに着用されるカメラ付メガネと、前記ユーザが携帯する携帯端末と、前記カメラ付メガネ及び前記携帯端末と通信ネットワークによって接続されたサーバと、を備えるウェアラブル検索システムにおいて実行される検索プログラムであって、
前記カメラ付メガネに、前記ユーザの焦点を検出するとともに、前記ユーザの前記焦点上に存在する対象物を撮影し、撮影した前記対象物の画像情報とともに、前記ユーザの前記焦点に関する焦点情報及び前記ユーザの位置情報を前記対象物の位置情報として前記サーバに送信する処理を実行させ、
前記サーバに、前記対象物の前記画像情報と、前記対象物の位置情報と、前記対象物に関する対象物情報とが対応付けられたデータテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報を抽出し、抽出した前記対象物情報を前記携帯端末に送信する処理を実行させ、
前記携帯端末に、前記対象物情報を前記携帯端末の表示部に表示する処理を実行させる、検索プログラム。
(付記10)
前記データテーブルにおいて、前記対象物の前記画像情報と、前記対象物の前記位置情報と、前記対象物に関する前記対象物情報と、前記対象物に関連する関連情報とが対応付けられており、
前記サーバに、前記データテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報及び前記関連情報を抽出し、抽出した前記対象物情報及び前記関連情報を前記携帯端末に送信する処理を実行させ、
前記携帯端末に、前記対象物情報及び前記関連情報を前記携帯端末の表示部に表示する処理を実行させる、付記9に記載の検索プログラム。
(付記11)
前記携帯端末に、当該携帯端末における検索履歴に基づいて、前記サーバから送信された前記関連情報から、前記ユーザにとって有益な前記関連情報を選択し、選択した前記関連情報を前記対象物情報とともに前記表示部に表示する処理を実行させる、付記10に記載の検索プログラム。
(付記12)
前記携帯端末に、前記サーバからの前記対象物情報及び前記関連情報の送信を停止する停止命令を前記サーバに送信する処理を実行させる、付記10又は11に記載の検索プログラム。
The whole or part of the exemplary embodiments disclosed above can be described as, but not limited to, the following supplementary notes.
(Appendix 1)
Detecting the focus of the user, and camera-equipped glasses for photographing an object existing on the focus of the user,
A mobile terminal carried by the user,
A server connected to the camera-equipped glasses and the mobile terminal by a communication network,
Equipped with
The camera-equipped glasses, together with the image information of the imaged object, transmits focus information regarding the focus of the user and position information of the user to the server as position information of the object,
The server transmits a data table in which the image information of the target object, the position information of the target object, and the target object information regarding the target object are associated with each other. By searching on the basis of the image information and the position information, the target object is identified and the target object information is extracted, and the extracted target object information is transmitted to the mobile terminal,
The wearable search system, wherein the mobile terminal displays the object information on a display unit of the mobile terminal.
(Appendix 2)
In the data table, the image information of the target object, the position information of the target object, the target object information regarding the target object, and related information related to the target object are associated with each other,
The server identifies the target object by searching the data table based on the image information and the position information of the target object transmitted from the glasses with camera, and at the same time, the target object information and the relation Extracting information, transmitting the extracted object information and the related information to the mobile terminal,
The wearable search system according to appendix 1, wherein the mobile terminal displays the object information and the related information on a display unit of the mobile terminal.
(Appendix 3)
The mobile terminal selects the related information useful for the user from the related information transmitted from the server based on a search history of the mobile terminal, and selects the selected related information together with the object information. The wearable search system according to appendix 2, which is displayed on the display unit.
(Appendix 4)
4. The wearable search system according to appendix 2 or 3, wherein the mobile terminal transmits a stop command for stopping transmission of the object information and the related information from the server to the server.
(Appendix 5)
A search method implemented in a wearable search system, comprising: glasses with a camera worn by a user, a mobile terminal carried by the user, and a server connected to the glasses with the camera and the mobile terminal via a communication network. hand,
The camera-equipped glasses detect the focus of the user, photograph an object existing on the focus of the user, and together with image information of the photographed object, focus information regarding the focus of the user and the Transmitting the user's position information to the server as the position information of the object,
The server transmits a data table in which the image information of the target object, the position information of the target object, and the target object information related to the target object are associated with each other. By searching on the basis of the image information and the position information, the target object is identified and the target object information is extracted, and the extracted target object information is transmitted to the mobile terminal,
The search method, wherein the mobile terminal displays the object information on a display unit of the mobile terminal.
(Appendix 6)
In the data table, the image information of the target object, the position information of the target object, the target object information regarding the target object, and related information related to the target object are associated with each other,
The server identifies the target object by searching the data table based on the image information and the position information of the target object transmitted from the glasses with camera, and at the same time, the target object information and the relation. Extracting information, transmitting the extracted object information and the related information to the mobile terminal,
6. The search method according to appendix 5, wherein the mobile terminal displays the object information and the related information on a display unit of the mobile terminal.
(Appendix 7)
The mobile terminal selects the related information useful for the user from the related information transmitted from the server based on the search history of the mobile terminal, and selects the selected related information together with the object information. The search method according to appendix 6, which is displayed on the display unit.
(Appendix 8)
8. The search method according to appendix 6 or 7, wherein the mobile terminal transmits a stop command for stopping transmission of the object information and the related information from the server to the server.
(Appendix 9)
It is a search program executed in a wearable search system comprising: glasses with a camera worn by a user, a mobile terminal carried by the user, and a server connected to the glasses with the camera and the mobile terminal via a communication network. hand,
The camera-attached glasses detect the focus of the user, photograph an object existing on the focus of the user, and together with image information of the photographed object, focus information regarding the focus of the user and the Causing a process of transmitting the position information of the user to the server as the position information of the object,
A data table in which the image information of the target object, position information of the target object, and target object information related to the target object are associated with the server, and the target object transmitted from the camera-equipped glasses is displayed. By performing a search based on the image information and the position information, the target object is specified and the target object information is extracted, and a process of transmitting the extracted target object information to the mobile terminal is executed,
A search program that causes the mobile terminal to execute a process of displaying the object information on a display unit of the mobile terminal.
(Appendix 10)
In the data table, the image information of the target object, the position information of the target object, the target object information regarding the target object, and related information related to the target object are associated with each other,
The server is searched for the data table based on the image information and the position information of the object transmitted from the glasses with a camera to specify the object and the object information and the relation. Extracting information, and executing a process of transmitting the extracted object information and the related information to the mobile terminal,
10. The search program according to appendix 9, which causes the mobile terminal to execute a process of displaying the object information and the related information on a display unit of the mobile terminal.
(Appendix 11)
In the mobile terminal, based on the search history in the mobile terminal, from the related information transmitted from the server, the related information useful for the user is selected, and the selected related information together with the object information The search program according to appendix 10, which causes the display unit to execute the processing to be displayed.
(Appendix 12)
12. The search program according to supplementary note 10 or 11, which causes the mobile terminal to execute a process of transmitting a stop instruction to the server to stop transmission of the object information and the related information from the server.
100 ウェアラブル検索システム
200 カメラ付メガネ
300 携帯端末
301 表示部
400 サーバ
S 対象物
U ユーザ
100
Claims (10)
前記ユーザが携帯する携帯端末と、
前記カメラ付メガネ及び前記携帯端末と通信ネットワークによって接続されたサーバと、
を備え、
前記カメラ付メガネは、撮影した前記対象物の画像情報とともに、前記ユーザの前記焦点に関する焦点情報及び前記ユーザの位置情報を前記対象物の位置情報として前記サーバに送信し、
前記サーバは、前記対象物の前記画像情報と、前記対象物の位置情報と、前記対象物に関する対象物情報とが対応付けられたデータテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報を抽出し、抽出した前記対象物情報を前記携帯端末に送信し、
前記携帯端末は、前記対象物情報を前記携帯端末の表示部に表示する、ウェアラブル検索システム。 Detecting the focus of the user, and camera-equipped glasses for photographing an object existing on the focus of the user,
A mobile terminal carried by the user,
A server connected to the camera-equipped glasses and the mobile terminal by a communication network,
Equipped with
The camera-equipped glasses, together with the image information of the imaged object, transmits focus information regarding the focus of the user and position information of the user to the server as position information of the object,
The server transmits a data table in which the image information of the target object, the position information of the target object, and the target object information regarding the target object are associated with each other. By searching on the basis of the image information and the position information, the target object is identified and the target object information is extracted, and the extracted target object information is transmitted to the mobile terminal,
The wearable search system, wherein the mobile terminal displays the object information on a display unit of the mobile terminal.
前記サーバは、前記データテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報及び前記関連情報を抽出し、抽出した前記対象物情報及び前記関連情報を前記携帯端末に送信し、
前記携帯端末は、前記対象物情報及び前記関連情報を前記携帯端末の表示部に表示する、請求項1に記載のウェアラブル検索システム。 In the data table, the image information of the target object, the position information of the target object, the target object information regarding the target object, and related information related to the target object are associated with each other,
The server identifies the target object by searching the data table based on the image information and the position information of the target object transmitted from the glasses with camera, and at the same time, the target object information and the relation Extracting information, transmitting the extracted object information and the related information to the mobile terminal,
The wearable search system according to claim 1, wherein the mobile terminal displays the object information and the related information on a display unit of the mobile terminal.
前記カメラ付メガネが、前記ユーザの焦点を検出するとともに、前記ユーザの前記焦点上に存在する対象物を撮影し、撮影した前記対象物の画像情報とともに、前記ユーザの前記焦点に関する焦点情報及び前記ユーザの位置情報を前記対象物の位置情報として前記サーバに送信し、
前記サーバが、前記対象物の前記画像情報と、前記対象物の位置情報と、前記対象物に関する対象物情報とが対応付けられたデータテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報を抽出し、抽出した前記対象物情報を前記携帯端末に送信し、
前記携帯端末が、前記対象物情報を前記携帯端末の表示部に表示する、検索方法。 A search method implemented in a wearable search system, comprising: glasses with a camera worn by a user, a mobile terminal carried by the user, and a server connected to the glasses with the camera and the mobile terminal via a communication network. hand,
The camera-equipped glasses detect the focus of the user, photograph an object existing on the focus of the user, and together with image information of the photographed object, focus information regarding the focus of the user and the Transmitting the user's position information to the server as the position information of the object,
The server transmits a data table in which the image information of the target object, the position information of the target object, and the target object information related to the target object are associated with each other. By searching on the basis of the image information and the position information, the target object is identified and the target object information is extracted, and the extracted target object information is transmitted to the mobile terminal,
The search method, wherein the mobile terminal displays the object information on a display unit of the mobile terminal.
前記サーバが、前記データテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報及び前記関連情報を抽出し、抽出した前記対象物情報及び前記関連情報を前記携帯端末に送信し、
前記携帯端末が、前記対象物情報及び前記関連情報を前記携帯端末の表示部に表示する、請求項5に記載の検索方法。 In the data table, the image information of the target object, the position information of the target object, the target object information regarding the target object, and related information related to the target object are associated with each other,
The server identifies the target object by searching the data table based on the image information and the position information of the target object transmitted from the glasses with camera, and at the same time, the target object information and the relation. Extracting information, transmitting the extracted object information and the related information to the mobile terminal,
The search method according to claim 5, wherein the mobile terminal displays the object information and the related information on a display unit of the mobile terminal.
前記カメラ付メガネに、前記ユーザの焦点を検出するとともに、前記ユーザの前記焦点上に存在する対象物を撮影し、撮影した前記対象物の画像情報とともに、前記ユーザの前記焦点に関する焦点情報及び前記ユーザの位置情報を前記対象物の位置情報として前記サーバに送信する処理を実行させ、
前記サーバに、前記対象物の前記画像情報と、前記対象物の位置情報と、前記対象物に関する対象物情報とが対応付けられたデータテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報を抽出し、抽出した前記対象物情報を前記携帯端末に送信する処理を実行させ、
前記携帯端末に、前記対象物情報を前記携帯端末の表示部に表示する処理を実行させる、検索プログラム。 It is a search program executed in a wearable search system comprising: glasses with a camera worn by a user, a mobile terminal carried by the user, and a server connected to the glasses with the camera and the mobile terminal via a communication network. hand,
The camera-attached glasses detect the focus of the user, photograph an object existing on the focus of the user, and together with image information of the photographed object, focus information regarding the focus of the user and the Causing a process of transmitting the position information of the user to the server as the position information of the object,
A data table in which the image information of the target object, position information of the target object, and target object information related to the target object are associated with the server, and the target object transmitted from the camera-equipped glasses is displayed. By performing a search based on the image information and the position information, the target object is specified and the target object information is extracted, and a process of transmitting the extracted target object information to the mobile terminal is executed,
A search program that causes the mobile terminal to execute a process of displaying the object information on a display unit of the mobile terminal.
前記サーバに、前記データテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報及び前記関連情報を抽出し、抽出した前記対象物情報及び前記関連情報を前記携帯端末に送信する処理を実行させ、
前記携帯端末に、前記対象物情報及び前記関連情報を前記携帯端末の表示部に表示する処理を実行させる、請求項9に記載の検索プログラム。 In the data table, the image information of the target object, the position information of the target object, the target object information regarding the target object, and related information related to the target object are associated with each other,
The server is searched for the data table based on the image information and the position information of the object transmitted from the glasses with a camera to specify the object and the object information and the relation. Extracting information, and executing a process of transmitting the extracted object information and the related information to the mobile terminal,
The search program according to claim 9, which causes the mobile terminal to execute a process of displaying the object information and the related information on a display unit of the mobile terminal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019009093A JP6601894B1 (en) | 2019-01-23 | 2019-01-23 | Wearable search system, search method, and search program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019009093A JP6601894B1 (en) | 2019-01-23 | 2019-01-23 | Wearable search system, search method, and search program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019182021A Division JP2020119495A (en) | 2019-10-02 | 2019-10-02 | Wearable search system, search method, and search program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6601894B1 JP6601894B1 (en) | 2019-11-06 |
JP2020119177A true JP2020119177A (en) | 2020-08-06 |
Family
ID=68462398
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019009093A Active JP6601894B1 (en) | 2019-01-23 | 2019-01-23 | Wearable search system, search method, and search program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6601894B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010044580A (en) * | 2008-08-12 | 2010-02-25 | Nikon Corp | Camera and retrieval system |
JP2018097581A (en) * | 2016-12-13 | 2018-06-21 | 富士ゼロックス株式会社 | Information processing device and program |
WO2018220856A1 (en) * | 2017-06-02 | 2018-12-06 | 秀敏 櫻井 | Street viewer system |
-
2019
- 2019-01-23 JP JP2019009093A patent/JP6601894B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010044580A (en) * | 2008-08-12 | 2010-02-25 | Nikon Corp | Camera and retrieval system |
JP2018097581A (en) * | 2016-12-13 | 2018-06-21 | 富士ゼロックス株式会社 | Information processing device and program |
WO2018220856A1 (en) * | 2017-06-02 | 2018-12-06 | 秀敏 櫻井 | Street viewer system |
Also Published As
Publication number | Publication date |
---|---|
JP6601894B1 (en) | 2019-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102354428B1 (en) | Wearable apparatus and methods for analyzing images | |
US10554829B2 (en) | Information processing device, photographing device, image sharing system, and method of information processing | |
US10178291B2 (en) | Obtaining information from an environment of a user of a wearable camera system | |
WO2016180285A1 (en) | Smart glasses | |
JP2020170569A (en) | Authentication system, authentication method, and program | |
EP3584745A1 (en) | Live body detection method and apparatus, system, electronic device, and storage medium | |
CN107113354A (en) | Communication system including headset equipment | |
US9536159B2 (en) | Smart glasses and method for recognizing and prompting face using smart glasses | |
US20180053055A1 (en) | Integrating augmented reality content and thermal imagery | |
CN109815409B (en) | Information pushing method and device, wearable device and storage medium | |
US10445577B2 (en) | Information display method and information display terminal | |
CN115512534B (en) | Discovery and connection of remote devices | |
JP6105180B1 (en) | Work support device, work support method and program | |
JP2017182838A (en) | Display system, management device, and information processing method and program | |
JP6275087B2 (en) | Head mounted display, data output method, and head mounted display program. | |
JP2017162103A (en) | Inspection work support system, inspection work support method, and inspection work support program | |
CN113066195A (en) | Power equipment inspection method and device, AR glasses and storage medium | |
CN108351689B (en) | Method and system for displaying a holographic image of an object in a predefined area | |
JP2020119495A (en) | Wearable search system, search method, and search program | |
JP2015233204A (en) | Image recording device and image recording method | |
JP2015191554A (en) | Electronic apparatus | |
JP6601894B1 (en) | Wearable search system, search method, and search program | |
CN110458052B (en) | Target object identification method, device, equipment and medium based on augmented reality | |
JP2020013594A (en) | Information processing method, program, and information processing device | |
CN108896035B (en) | Method and equipment for realizing navigation through image information and navigation robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190123 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190910 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191003 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6601894 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |