JP2020119177A - Wearable search system, search method, and search program - Google Patents

Wearable search system, search method, and search program Download PDF

Info

Publication number
JP2020119177A
JP2020119177A JP2019009093A JP2019009093A JP2020119177A JP 2020119177 A JP2020119177 A JP 2020119177A JP 2019009093 A JP2019009093 A JP 2019009093A JP 2019009093 A JP2019009093 A JP 2019009093A JP 2020119177 A JP2020119177 A JP 2020119177A
Authority
JP
Japan
Prior art keywords
information
target object
mobile terminal
user
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019009093A
Other languages
Japanese (ja)
Other versions
JP6601894B1 (en
Inventor
利里子 宮崎
Ririko Miyazaki
利里子 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Platforms Ltd
Original Assignee
NEC Platforms Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Platforms Ltd filed Critical NEC Platforms Ltd
Priority to JP2019009093A priority Critical patent/JP6601894B1/en
Application granted granted Critical
Publication of JP6601894B1 publication Critical patent/JP6601894B1/en
Publication of JP2020119177A publication Critical patent/JP2020119177A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a wearable search system, a search method and a search program which do not require user operation for a search.SOLUTION: A wearable search system 100 comprises: camera-equipped eyeglasses 200 to detect the focus of a user U and photograph an object S present on the focus of the user U; a portable terminal 300 carried by the user U; and a server 400 connected to the camera-equipped eyeglasses 200 and the portable terminal 300 over a communications network N. The camera-equipped eyeglasses 200 transmit image information and location information of the object S (focus information and location information of the user U) to the server 400. The server 400 searches a data table on the basis of the image information and location information of the object S transmitted from the camera-equipped eyeglasses 200, thereby identifying the object S and extracting object information, and transmits the extracted object information to the portable terminal 300. The portable terminal 300 displays the object information on a display unit 301.SELECTED DRAWING: Figure 1

Description

本発明は、ウェアラブル検索システム、検索方法、及び、検索プログラムに関する。 The present invention relates to a wearable search system, a search method, and a search program.

特許文献1には、ユーザが所定のジェスチャを行ったか否かを検出するウェアラブル動作センサと、メガネタイプの透過型HMD(Head Mounted Display)と、当該透過型HMDに内蔵されたカメラとを備えるウェアラブル検索システムが記載されている。特許文献1に記載のウェアラブル検索システムでは、ユーザが検索するために所定のジェスチャを行うと、ウェアラブル動作センサが当該ジェスチャを検出し、カメラがユーザの視界方向のカメラ撮影を行う。そして、カメラによって撮影された画像から検索対象が抽出され、抽出された検索対象の画像が画像認識サーバへ送信され、当該画像認識サーバにおいて検索が実行される。また、検索結果は、透過型HMD上に表示される。 In Patent Document 1, a wearable motion sensor that detects whether or not a user has made a predetermined gesture, a glasses-type transmissive HMD (Head Mounted Display), and a wearable camera that is built in the transmissive HMD. A search system is described. In the wearable search system described in Patent Document 1, when the user makes a predetermined gesture for searching, the wearable motion sensor detects the gesture and the camera takes a picture of the camera in the visual field direction of the user. Then, the search target is extracted from the image captured by the camera, the extracted search target image is transmitted to the image recognition server, and the search is executed in the image recognition server. In addition, the search result is displayed on the transparent HMD.

特開2016−115125号公報JP, 2016-115125, A

しかし、特許文献1に記載されているウェアラブル検索システムでは、ユーザによる検索のための動作、例えば、機器操作、対象物の指定、及びジェスチャ等が必要であった。すなわち、ユーザの「検索する」という目的意識がないと、検索を行うことができない。そのため、ユーザが無意識に「見ている」対象についての情報を提供することができないという問題があった。 However, the wearable search system described in Patent Document 1 requires a search operation by the user, such as device operation, designation of an object, and gesture. That is, unless the user has a sense of purpose of “searching”, the search cannot be performed. Therefore, there is a problem that the user cannot unknowingly provide the information about the object “looking”.

本発明の目的は、検索のためのユーザの動作が不要なウェアラブル検索システム、検索方法、及び、検索プログラムを提供することである。 An object of the present invention is to provide a wearable search system, a search method, and a search program that do not require a user's operation for search.

本発明の第1の態様に係るウェアラブル検索システムは、ユーザの焦点を検出するとともに、前記ユーザの前記焦点上に存在する対象物を撮影するカメラ付メガネと、前記ユーザが携帯する携帯端末と、前記カメラ付メガネ及び前記携帯端末と通信ネットワークによって接続されたサーバと、を備え、前記カメラ付メガネは、撮影した前記対象物の画像情報とともに、前記ユーザの前記焦点に関する焦点情報及び前記ユーザの位置情報を前記対象物の位置情報として前記サーバに送信し、前記サーバは、前記対象物の前記画像情報と、前記対象物の位置情報と、前記対象物に関する対象物情報とが対応付けられたデータテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報を抽出し、抽出した前記対象物情報を前記携帯端末に送信し、前記携帯端末は、前記対象物情報を前記携帯端末の表示部に表示する。 A wearable search system according to a first aspect of the present invention detects a user's focus, and wears camera-equipped glasses for photographing an object existing on the focus of the user, and a mobile terminal carried by the user, The camera-equipped glasses and a server connected to the mobile terminal via a communication network, the camera-equipped glasses together with image information of the photographed object, focus information regarding the focus of the user, and the position of the user. Data in which information is transmitted to the server as position information of the object, and the server associates the image information of the object, the position information of the object, and the object information about the object with each other. The table is searched based on the image information and the position information of the object transmitted from the glasses with the camera to specify the object and extract the object information, and the extracted object The information is transmitted to the mobile terminal, and the mobile terminal displays the object information on the display unit of the mobile terminal.

本発明の第2の態様に係る検索方法は、ユーザに着用されるカメラ付メガネと、前記ユーザが携帯する携帯端末と、前記カメラ付メガネ及び前記携帯端末と通信ネットワークによって接続されたサーバと、を備えるウェアラブル検索システムにおいて実施される検索方法であって、前記カメラ付メガネが、前記ユーザの焦点を検出するとともに、前記ユーザの前記焦点上に存在する対象物を撮影し、撮影した前記対象物の画像情報とともに、前記ユーザの前記焦点に関する焦点情報及び前記ユーザの位置情報を前記対象物の位置情報として前記サーバに送信し、前記サーバが、前記対象物の前記画像情報と、前記対象物の位置情報と、前記対象物に関する対象物情報とが対応付けられたデータテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報を抽出し、抽出した前記対象物情報を前記携帯端末に送信し、前記携帯端末が、前記対象物情報を前記携帯端末の表示部に表示する。 A search method according to a second aspect of the present invention is a pair of glasses with a camera worn by a user, a mobile terminal carried by the user, a server connected to the glasses with a camera and the mobile terminal by a communication network, A wearable search system including a search method, wherein the camera-equipped glasses detect a focus of the user, photograph an object existing on the focus of the user, and photograph the object. Together with the image information of the user, focus information regarding the focus of the user and position information of the user are transmitted to the server as position information of the target object, and the server sends the image information of the target object and the target object. By searching a data table in which position information and target object information regarding the target object are associated with each other based on the image information and the position information of the target object transmitted from the glasses with camera, the target The object is specified, the object information is extracted, the extracted object information is transmitted to the mobile terminal, and the mobile terminal displays the object information on the display unit of the mobile terminal.

本発明の第3の態様に係る検索プログラムは、ユーザに着用されるカメラ付メガネと、前記ユーザが携帯する携帯端末と、前記カメラ付メガネ及び前記携帯端末と通信ネットワークによって接続されたサーバと、を備えるウェアラブル検索システムにおいて実行される検索プログラムであって、前記カメラ付メガネに、前記ユーザの焦点を検出するとともに、前記ユーザの前記焦点上に存在する対象物を撮影し、撮影した前記対象物の画像情報とともに、前記ユーザの前記焦点に関する焦点情報及び前記ユーザの位置情報を前記対象物の位置情報として前記サーバに送信する処理を実行させ、前記サーバに、前記対象物の前記画像情報と、前記対象物の位置情報と、前記対象物に関する対象物情報とが対応付けられたデータテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報を抽出し、抽出した前記対象物情報を前記携帯端末に送信する処理を実行させ、前記携帯端末に、前記対象物情報を前記携帯端末の表示部に表示する処理を実行させる。 A search program according to a third aspect of the present invention is a pair of glasses with a camera worn by a user, a mobile terminal carried by the user, a server with the glasses with a camera and the mobile terminal connected by a communication network, A search program executed in a wearable search system comprising: the camera-attached glasses that detect the focus of the user, photograph an object existing on the focus of the user, and photograph the object. Together with the image information of, the focus information regarding the focus of the user and the position information of the user are transmitted to the server as the position information of the target object, and the server performs the image information of the target object, Retrieving a data table in which the position information of the target object and the target object information regarding the target object are associated with each other based on the image information and the position information of the target object transmitted from the glasses with a camera. To specify the target object, extract the target object information, and execute a process of transmitting the extracted target object information to the mobile terminal, and display the target object information on the mobile terminal on the mobile terminal. Causes the process displayed on the department to be executed.

検索のためのユーザの動作が不要なウェアラブル検索システム、検索方法、及び、検索プログラムを提供することができる。 A wearable search system, a search method, and a search program that do not require a user's operation for search can be provided.

本発明の実施の形態1に係るウェアラブル検索システムの一例を示す図である。It is a figure which shows an example of the wearable search system which concerns on Embodiment 1 of this invention. 本発明の実施の形態1に係るウェアラブル検索システムにおいて実施される検索方法の一例を示すフローチャートである。5 is a flowchart showing an example of a search method implemented in the wearable search system according to the first embodiment of the present invention. 本発明の実施の形態1に係るウェアラブル検索システムにおいて実施される検索方法の一例を示すフローチャートである。5 is a flowchart showing an example of a search method implemented in the wearable search system according to the first embodiment of the present invention.

実施の形態1
以下、図面を参照して本発明の実施の形態1について説明する。
図1は、本発明の実施の形態1に係るウェアラブル検索システム100の一例を示す図である。図1に示すように、ウェアラブル検索システム100は、ユーザUに着用されるカメラ付メガネ200、ユーザUが携帯する携帯端末300、及びサーバ400を備える。また、サーバ400は、カメラ付メガネ200及び携帯端末300と通信ネットワークNによって接続されている。
Embodiment 1
Hereinafter, Embodiment 1 of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing an example of wearable search system 100 according to Embodiment 1 of the present invention. As shown in FIG. 1, the wearable search system 100 includes camera-equipped glasses 200 worn by a user U, a mobile terminal 300 carried by the user U, and a server 400. Further, the server 400 is connected to the glasses with camera 200 and the mobile terminal 300 by the communication network N.

カメラ付メガネ200は、カメラが搭載されたメガネであり、図示しない制御部を備える。制御部は、図示しないCPU(Central Processing Unit)及び図示しない記憶部等を備える。そして、CPUが記憶部に格納されたプログラムを実行することにより、制御部における全ての処理が実現する。
また、制御部のそれぞれの記憶部に格納されるプログラムは、CPUに実行されることにより、制御部のそれぞれにおける処理を実現するためのコードを含む。なお、記憶部は、例えば、このプログラムや、制御部における処理に利用される各種情報を格納することができる任意の記憶装置を含んで構成される。記憶装置は、例えば、メモリ等である。
The camera-equipped glasses 200 are glasses equipped with a camera and include a control unit (not shown). The control unit includes a CPU (Central Processing Unit) (not shown), a storage unit (not shown), and the like. Then, the CPU executes the program stored in the storage unit to implement all the processes in the control unit.
In addition, the program stored in each storage unit of the control unit includes a code that is executed by the CPU to realize the processing in each of the control units. The storage unit is configured to include, for example, an arbitrary storage device capable of storing this program and various kinds of information used for processing in the control unit. The storage device is, for example, a memory or the like.

カメラ付メガネ200は、ユーザUの眼の焦点を検出する。カメラ付メガネ200によるユーザUの眼の焦点の検出は、既知の技術を用いて実現することができる。具体的には、カメラ付メガネ200は、例えば、ユーザUの眼に赤外光によるマーカーを照射して眼屈折力を測定し、焦点を検出してもよい。ここで、ユーザUの眼の焦点を検出するとは、カメラ付メガネ200から、ユーザUの眼の焦点までの距離(以下、焦点距離とも称する。)を検出することを意味する。 The camera-equipped glasses 200 detect the focus of the eye of the user U. The detection of the focus of the eye of the user U by the camera-equipped glasses 200 can be realized by using a known technique. Specifically, the camera-equipped glasses 200 may detect the focus by irradiating the eye of the user U with a marker by infrared light to measure the eye refractive power. Here, detecting the focus of the eye of the user U means detecting a distance from the camera-equipped glasses 200 to the focus of the eye of the user U (hereinafter, also referred to as a focal length).

また、カメラ付メガネ200は、ユーザUの焦点上に存在する対象物Sを撮影する。具体的には、カメラ付メガネは、当該カメラ付メガネに搭載されたカメラの焦点位置をユーザUの眼の焦点の位置に合わせて撮影する。 Moreover, the camera-equipped glasses 200 capture an image of the object S existing on the focus of the user U. Specifically, the camera-equipped eyeglasses capture an image by aligning the focus position of the camera mounted on the camera-equipped eyeglass with the focus position of the eye of the user U.

また、カメラ付メガネ200は、ユーザUの位置情報を取得する。具体的には、カメラ付メガネ200は、例えば、GPS(Global Positioning System)衛星から信号を受信し、ユーザUの位置情報を取得する。また、携帯端末300が、同様に、ユーザUの位置情報を取得可能である場合、カメラ付メガネ200は、携帯端末300からユーザUの位置情報を通信ネットワークN経由で受信してもよい。 Further, the camera-equipped glasses 200 acquire the position information of the user U. Specifically, the camera-equipped glasses 200 receive a signal from, for example, a GPS (Global Positioning System) satellite, and acquire position information of the user U. Similarly, when the mobile terminal 300 can acquire the position information of the user U, the camera-equipped glasses 200 may receive the position information of the user U from the mobile terminal 300 via the communication network N.

また、カメラ付メガネ200は、撮影した対象物Sの画像情報を前記サーバに送信する。また、カメラ付メガネ200は、対象物Sの画像情報とともに、対象物Sの位置情報として、検出したユーザUの眼の焦点距離に関する焦点情報及びユーザUの位置情報をサーバ400に送信する。 The camera-equipped glasses 200 also send the image information of the photographed object S to the server. In addition, the camera-equipped glasses 200 transmit, to the server 400, as the position information of the target S, the focus information regarding the detected focal length of the eye of the user U and the position information of the user U together with the image information of the target S.

サーバ400は、ウェアラブル検索システム100における検索処理を担う部分であり、図示しない制御部を備える。制御部は、図示しないCPU(Central Processing Unit)及び図示しない記憶部等を備える。そして、CPUが記憶部に格納されたプログラムを実行することにより、制御部における全ての処理が実現する。
また、制御部のそれぞれの記憶部に格納されるプログラムは、CPUに実行されることにより、制御部のそれぞれにおける処理を実現するためのコードを含む。なお、記憶部は、例えば、このプログラムや、制御部における処理に利用される各種情報を格納することができる任意の記憶装置を含んで構成される。記憶装置は、例えば、メモリ等である。
The server 400 is a part responsible for a search process in the wearable search system 100, and includes a control unit (not shown). The control unit includes a CPU (Central Processing Unit) (not shown), a storage unit (not shown), and the like. Then, the CPU executes the program stored in the storage unit to implement all the processes in the control unit.
In addition, the program stored in each storage unit of the control unit includes a code that is executed by the CPU to realize the processing in each of the control units. The storage unit is configured to include, for example, an arbitrary storage device capable of storing this program and various kinds of information used for processing in the control unit. The storage device is, for example, a memory or the like.

サーバ400は、カメラ付メガネ200から送信された、対象物Sの画像情報及び対象物Sの位置情報に基づいて、対象物Sの画像情報と、対象物Sの位置情報と、対象物Sに関する対象物情報と、対象物Sに関連する関連情報とが対応付けられたデータテーブルを検索する。具体的には、当該データテーブルから、カメラ付メガネ200から送信された対象物Sの画像情報及び位置情報に一致する対象物Sの画像情報及び位置情報の対象物情報及び関連情報を抽出する。これにより、サーバ400は、対象物Sを特定するとともに、対象物Sの対象物情報と関連情報とを抽出する。ここで、対象物Sの対象物情報とは、例えば、対象物Sがビル等である場合、当該ビルの名称等である。また、対象物Sの関連情報とは、例えば、対象物Sがビル等である場合、当該ビルに入居している店舗の名前や種類等である。ここで、店舗の種類とは、薬局、家具店、雑貨店、被服店、装飾用品店、専門道具店等である。なお、当該データテーブルはサーバ400の記憶部に格納されていてもよいし、外部の記憶装置に格納されていてもよい。
また、サーバ400がカメラ付メガネ200から送信された対象物Sの画像情報と当該データテーブルに格納されている対象物Sの画像情報との比較を行う際、サーバ400は、カメラ付メガネ200から送信された対象物Sの画像情報及び当該データテーブルに格納されている対象物Sの画像情報に対して、特徴点の抽出等の種々の画像処理を行う。これにより、サーバ400は、当該データテーブルから、カメラ付メガネ200から送信された対象物Sの画像情報と一致する対象物Sの画像情報を検出する。
また、サーバ400は、抽出した対象物Sの対象物情報及び関連情報をユーザUの携帯端末300に送信する。
The server 400 relates to the image information of the target S, the position information of the target S, and the target S based on the image information of the target S and the position information of the target S transmitted from the glasses 200 with camera. The data table in which the target object information and the related information related to the target object S are associated with each other is searched. Specifically, from the data table, the image information and the position information of the target S that match the image information and the position information of the target S transmitted from the camera-equipped glasses 200 are extracted. As a result, the server 400 identifies the target S and extracts target information and related information of the target S. Here, the object information of the object S is, for example, the name of the building when the object S is a building or the like. Further, the related information of the target object S is, for example, when the target object S is a building or the like, the name and type of the store occupying the building. Here, the type of store includes a pharmacy, a furniture store, a general store, a clothing store, a decorative article store, a specialized tool store, and the like. The data table may be stored in the storage unit of the server 400 or may be stored in an external storage device.
In addition, when the server 400 compares the image information of the target S transmitted from the glasses with camera 200 with the image information of the target S stored in the data table, the server 400 uses Various image processing such as extraction of feature points is performed on the transmitted image information of the object S and the image information of the object S stored in the data table. As a result, the server 400 detects the image information of the target S that matches the image information of the target S transmitted from the glasses with camera 200 from the data table.
Further, the server 400 transmits the extracted object information of the object S and the related information to the mobile terminal 300 of the user U.

携帯端末300は、ユーザUに対して、サーバ400の検索結果の提示を行う部分であり、図示しない制御部を備える。制御部は、図示しないCPU(Central Processing Unit)及び図示しない記憶部等を備える。そして、CPUが記憶部に格納されたプログラムを実行することにより、制御部における全ての処理が実現する。
また、制御部のそれぞれの記憶部に格納されるプログラムは、CPUに実行されることにより、制御部のそれぞれにおける処理を実現するためのコードを含む。なお、記憶部は、例えば、このプログラムや、制御部における処理に利用される各種情報を格納することができる任意の記憶装置を含んで構成される。記憶装置は、例えば、メモリ等である。
The mobile terminal 300 is a part that presents the search result of the server 400 to the user U, and includes a control unit (not shown). The control unit includes a CPU (Central Processing Unit) (not shown), a storage unit (not shown), and the like. Then, the CPU executes the program stored in the storage unit to implement all the processes in the control unit.
In addition, the program stored in each storage unit of the control unit includes a code that is executed by the CPU to realize the processing in each of the control units. The storage unit is configured to include, for example, an arbitrary storage device capable of storing this program and various kinds of information used for processing in the control unit. The storage device is, for example, a memory or the like.

携帯端末300は、表示部301を備え、サーバ400から送信された対象物Sの対象物情報及び関連情報を、当該表示部301に表示する。
また、携帯端末300は、当該携帯端末300における検索履歴に基づいて、サーバ400から送信された関連情報から、ユーザUにとって有益な関連情報を選択し、選択した関連情報を対象物情報とともに表示部301に表示してもよい。具体的には、携帯端末300は、サーバ400から送信された関連情報から、当該携帯端末300の検索履歴のうち検索回数が所定回数より多い検索結果と関連性の高い関連情報を選択する。例えば、当該携帯端末300の検索履歴に、家具についての検索回数が所定回数より多い場合に、携帯端末300は、対象物Sの関連情報に家具店の情報があれば、当該家具店の情報を表示部301に表示する。
The mobile terminal 300 includes a display unit 301, and displays the target object information and the related information of the target object S transmitted from the server 400 on the display unit 301.
In addition, the mobile terminal 300 selects related information useful for the user U from the related information transmitted from the server 400 based on the search history of the mobile terminal 300, and displays the selected related information together with the object information on the display unit. It may be displayed on 301. Specifically, the mobile terminal 300 selects, from the related information transmitted from the server 400, related information that is highly related to the search result of which the number of searches is greater than the predetermined number of times in the search history of the mobile terminal 300. For example, when the number of times furniture is searched in the search history of the mobile terminal 300 is more than a predetermined number of times, the mobile terminal 300, if the related information of the object S includes the information of the furniture store, displays the information of the furniture store. It is displayed on the display unit 301.

また、携帯端末300は、サーバ400からの対象物情報及び関連情報の送信を停止する停止命令をサーバ400に送信する。具体的には、ユーザUによって携帯端末300が操作されることによって、配信停止が設定された場合に、携帯端末300は、配信停止命令をサーバ400に送信する。 The mobile terminal 300 also transmits to the server 400 a stop command for stopping the transmission of the object information and the related information from the server 400. Specifically, when the distribution stop is set by the user U operating the mobile terminal 300, the mobile terminal 300 transmits a distribution stop command to the server 400.

次に、図2及び図3を参照しながら、ウェアラブル検索システム100において実施される検索方法について説明する。
まず、カメラ付メガネ200は、ユーザUの眼の焦点を検出し、焦点距離に関する焦点情報を取得する(ステップS101)。
Next, a search method implemented in the wearable search system 100 will be described with reference to FIGS. 2 and 3.
First, the camera-equipped glasses 200 detect the focus of the eye of the user U and acquire focus information regarding the focal length (step S101).

次に、カメラ付メガネ200は、ユーザUの焦点上に存在する対象物Sを撮影し、対象物Sの画像情報を取得する(ステップS102)。 Next, the camera-equipped glasses 200 capture an image of the object S existing on the focus of the user U and acquire image information of the object S (step S102).

次に、カメラ付メガネ200は、GPS衛星から信号を受信し、ユーザUの位置情報を取得する(ステップS103)。なお、カメラ付メガネ200は、携帯端末300からユーザUの位置情報を取得してもよい。 Next, the camera-equipped glasses 200 receive signals from GPS satellites and acquire the position information of the user U (step S103). Note that the camera-equipped glasses 200 may acquire the position information of the user U from the mobile terminal 300.

次に、カメラ付メガネ200は、対象物Sの画像情報とともに、対象物Sの位置情報として、検出したユーザUの焦点情報及びユーザUの位置情報をサーバ400に送信する(ステップS104)。なお、ステップS101〜ステップS103において情報を取得することができなかった場合や、ステップS104においてサーバ400に情報を送信することができなかった場合、カメラ付メガネ200は、携帯端末300にその旨を送信してもよい。この場合、携帯端末300は、表示部301に「検索不可」と表示してもよい。 Next, the camera-equipped glasses 200 transmit the detected focus information of the user U and the position information of the user U to the server 400 as the position information of the target S together with the image information of the target S (step S104). If the information cannot be obtained in steps S101 to S103, or if the information cannot be transmitted to the server 400 in step S104, the camera-equipped glasses 200 informs the mobile terminal 300 to that effect. You may send it. In this case, the mobile terminal 300 may display “Not searchable” on the display unit 301.

次に、サーバ400は、カメラ付メガネ200から送信された、対象物Sの画像情報、対象物Sの位置情報(ユーザUの焦点情報及びユーザUの位置情報)を受信する(ステップS105)。 Next, the server 400 receives the image information of the target S and the position information of the target S (focus information of the user U and position information of the user U) transmitted from the glasses 200 with camera (step S105).

次に、サーバ400は、カメラ付メガネ200から送信された対象物Sの画像情報及び当該データテーブルに格納されている対象物Sの画像情報に対して、特徴点の抽出等の種々の画像処理を行う(ステップS106)。 Next, the server 400 performs various image processing such as extraction of feature points on the image information of the object S transmitted from the glasses with camera 200 and the image information of the object S stored in the data table. Is performed (step S106).

次に、サーバ400は、ステップS106によって得られた情報及び対象物Sの位置情報に基づいて、当該データテーブルから、カメラ付メガネ200から送信された対象物Sの画像情報及び位置情報と一致する対象物Sの画像情報及び位置情報を検出する。これにより、サーバ400は、対象物Sの特定を行う(ステップS107)。なお、ステップS107において、対象物Sの特定ができなかった場合、サーバ400は、携帯端末300にその旨を送信してもよい。この場合、携帯端末300は、表示部301に「検索不可」と表示してもよい。 Next, the server 400 matches the image information and the position information of the target S transmitted from the camera-equipped glasses 200 from the data table, based on the information obtained in step S106 and the position information of the target S. The image information and the position information of the object S are detected. As a result, the server 400 identifies the target S (step S107). If the target S cannot be specified in step S107, the server 400 may send a message to that effect to the mobile terminal 300. In this case, the mobile terminal 300 may display “Not searchable” on the display unit 301.

次に、サーバ400は、当該データテーブルから、ステップS107において特定した対象物Sの対象物情報と関連情報とを抽出する(ステップS108)。 Next, the server 400 extracts the object information and the related information of the object S identified in step S107 from the data table (step S108).

次に、サーバ400は、ステップS108において抽出した対象物Sの対象物情報及び関連情報を携帯端末300に送信する(ステップS109)。 Next, the server 400 transmits the target object information and the related information of the target object S extracted in step S108 to the mobile terminal 300 (step S109).

次に、携帯端末300は、サーバ400から送信された対象物Sの対象物情報及び関連情報を受信する(ステップS110)。 Next, the mobile terminal 300 receives the target object information and the related information of the target object S transmitted from the server 400 (step S110).

次に、携帯端末300は、当該携帯端末300における検索履歴に基づいて、サーバ400から送信された関連情報から、ユーザUにとって有益な関連情報を選択し(ステップS111)、選択した関連情報を対象物情報とともに表示部301に表示する(ステップS112)。 Next, the mobile terminal 300 selects related information useful for the user U from the related information transmitted from the server 400 based on the search history of the mobile terminal 300 (step S111) and targets the selected related information. It is displayed on the display unit 301 together with the object information (step S112).

次に、携帯端末300は、ユーザUによって携帯端末300が操作されることによって、配信停止が設定されたか否かと判断する(ステップS113)。
ステップS113において、ユーザUによって携帯端末300が操作されることによって、配信停止が設定されていない場合(ステップS113;No)、本処理を繰り返す。
ステップS113において、ユーザUによって携帯端末300が操作されることによって、配信停止が設定されている場合(ステップS113;Yes)、携帯端末300は、配信停止命令をサーバ400に送信する(ステップS114)。
Next, the mobile terminal 300 determines whether the distribution stop is set by the user U operating the mobile terminal 300 (step S113).
In step S113, when the distribution stop is not set by the user U operating the mobile terminal 300 (step S113; No), this process is repeated.
In step S113, when the distribution stop is set by the user U operating the mobile terminal 300 (step S113; Yes), the mobile terminal 300 transmits a distribution stop command to the server 400 (step S114). ..

次に、サーバ400は、携帯端末300から配信停止命令を受信し(ステップS115)、携帯端末300への対象物情報及び関連情報の送信を停止する(ステップS116)。 Next, the server 400 receives the distribution stop command from the mobile terminal 300 (step S115), and stops the transmission of the object information and the related information to the mobile terminal 300 (step S116).

以上に説明した実施の形態1に係るウェアラブル検索システム100、検索方法、及び、検索プログラムによれば、カメラ付メガネ200が自動でユーザUの焦点上に位置する対象物Sの画像情報を取得し、当該対象物Sの画像情報とともに、対象物Sの位置情報(ユーザUの位置情報及び焦点情報)を送信し、サーバ400がカメラ付メガネ200から送信された対象物Sの画像情報及び位置情報に基づいて、データテーブルから対象物Sの対象物情報及び関連情報を検索し、携帯端末300の表示部301に当該対象物情報及び関連情報が表示される。すなわち、ユーザUが「検索する」という目的意識を持たなくても、ユーザUの焦点上に存在する対象物Sについて検索を行うことができる。これにより、検索のためのユーザUの動作が不要なウェアラブル検索システム100、検索方法、及び、検索プログラムを提供することができる。 According to the wearable search system 100, the search method, and the search program according to the first embodiment described above, the camera-equipped glasses 200 automatically acquire the image information of the target object S located on the focus of the user U. , The image information of the target S and the position information of the target S (position information and focus information of the user U) are transmitted, and the server 400 transmits the image information and the position information of the target S transmitted from the glasses with camera 200. Based on the above, the target object information and the related information of the target object S are searched from the data table, and the target object information and the related information are displayed on the display unit 301 of the mobile terminal 300. That is, even if the user U does not have the purpose of “searching”, the object S existing on the focus of the user U can be searched. Accordingly, it is possible to provide the wearable search system 100, the search method, and the search program that do not require the operation of the user U for the search.

また、サーバ400によって、対象物Sの対象物情報だけでなく関連情報も検索されるため、対象物Sが特定されるだけでなく、特定された対象物Sの関連情報もユーザUに提示することができる。 Further, since the server 400 retrieves not only the target information of the target S but also the related information, not only the target S is specified but also the related information of the specified target S is presented to the user U. be able to.

また、携帯端末300によって、サーバ400から送信された関連情報からユーザUにとって有益な関連情報が選択されるため、ユーザUにとって有益な関連情報を提示することができる。 Further, since the portable terminal 300 selects the relevant information useful for the user U from the relevant information transmitted from the server 400, the relevant information useful for the user U can be presented.

また、携帯端末300がユーザUによって操作されることにより、携帯端末300は、サーバ400からの対象物情報及び関連情報の送信を停止する配信停止命令をサーバ400に送信するため、対象物情報及び関連情報の配信が不要な場合には、その配信を停止することができる。 Further, when the mobile terminal 300 is operated by the user U, the mobile terminal 300 transmits a distribution stop command to the server 400 to stop the transmission of the target object information and related information from the server 400. When the related information does not need to be distributed, the distribution can be stopped.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上記の実施の形態1において、カメラ付メガネ200は、透過型HMDであってもよい。この場合、サーバ400から対象物Sの対象物情報及び関連情報がカメラ付メガネ200に送信され、カメラ付メガネ200に当該対象物情報及び関連情報が表示されてもよい。 The present invention is not limited to the above-mentioned embodiment, and can be modified as appropriate without departing from the spirit of the present invention. For example, in Embodiment 1 above, the camera-equipped glasses 200 may be transmissive HMDs. In this case, the object information and the related information of the object S may be transmitted from the server 400 to the camera-equipped glasses 200, and the object information and the related information may be displayed on the camera-equipped glasses 200.

また、上述の実施の形態では、本発明をハードウェアの構成として説明したが、本発明は、これに限定されるものではない。本発明は、図2及び図3のフローチャートに記載の処理手順を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。
また、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non−transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD−ROM(Read Only Memory)CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
Further, although the present invention has been described as a hardware configuration in the above-described embodiments, the present invention is not limited to this. The present invention can also be realized by causing a CPU (Central Processing Unit) to execute a computer program, the processing procedure described in the flowcharts of FIGS. 2 and 3.
In addition, the program described above can be stored using various types of non-transitory computer readable mediums and supplied to the computer. Non-transitory computer readable media include various types of tangible storage media. Examples of the non-transitory computer-readable medium are magnetic recording media (for example, flexible disk, magnetic tape, hard disk drive), magneto-optical recording media (for example, magneto-optical disk), CD-ROM (Read Only Memory) CD-R, CD. -R/W, semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)) are included. In addition, the program may be supplied to the computer by various types of transitory computer readable medium. Examples of transitory computer-readable media include electrical signals, optical signals, and electromagnetic waves. The temporary computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)
ユーザの焦点を検出するとともに、前記ユーザの前記焦点上に存在する対象物を撮影するカメラ付メガネと、
前記ユーザが携帯する携帯端末と、
前記カメラ付メガネ及び前記携帯端末と通信ネットワークによって接続されたサーバと、
を備え、
前記カメラ付メガネは、撮影した前記対象物の画像情報とともに、前記ユーザの前記焦点に関する焦点情報及び前記ユーザの位置情報を前記対象物の位置情報として前記サーバに送信し、
前記サーバは、前記対象物の前記画像情報と、前記対象物の位置情報と、前記対象物に関する対象物情報とが対応付けられたデータテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報を抽出し、抽出した前記対象物情報を前記携帯端末に送信し、
前記携帯端末は、前記対象物情報を前記携帯端末の表示部に表示する、ウェアラブル検索システム。
(付記2)
前記データテーブルにおいて、前記対象物の前記画像情報と、前記対象物の前記位置情報と、前記対象物に関する前記対象物情報と、前記対象物に関連する関連情報とが対応付けられており、
前記サーバは、前記データテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報及び前記関連情報を抽出し、抽出した前記対象物情報及び前記関連情報を前記携帯端末に送信し、
前記携帯端末は、前記対象物情報及び前記関連情報を前記携帯端末の表示部に表示する、付記1に記載のウェアラブル検索システム。
(付記3)
前記携帯端末は、当該携帯端末における検索履歴に基づいて、前記サーバから送信された前記関連情報から、前記ユーザにとって有益な前記関連情報を選択し、選択した前記関連情報を前記対象物情報とともに前記表示部に表示する、付記2に記載のウェアラブル検索システム。
(付記4)
前記携帯端末は、前記サーバからの前記対象物情報及び前記関連情報の送信を停止する停止命令を前記サーバに送信する、付記2又は3に記載のウェアラブル検索システム。
(付記5)
ユーザに着用されるカメラ付メガネと、前記ユーザが携帯する携帯端末と、前記カメラ付メガネ及び前記携帯端末と通信ネットワークによって接続されたサーバと、を備えるウェアラブル検索システムにおいて実施される検索方法であって、
前記カメラ付メガネが、前記ユーザの焦点を検出するとともに、前記ユーザの前記焦点上に存在する対象物を撮影し、撮影した前記対象物の画像情報とともに、前記ユーザの前記焦点に関する焦点情報及び前記ユーザの位置情報を前記対象物の位置情報として前記サーバに送信し、
前記サーバが、前記対象物の前記画像情報と、前記対象物の位置情報と、前記対象物に関する対象物情報とが対応付けられたデータテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報を抽出し、抽出した前記対象物情報を前記携帯端末に送信し、
前記携帯端末が、前記対象物情報を前記携帯端末の表示部に表示する、検索方法。
(付記6)
前記データテーブルにおいて、前記対象物の前記画像情報と、前記対象物の前記位置情報と、前記対象物に関する前記対象物情報と、前記対象物に関連する関連情報とが対応付けられており、
前記サーバが、前記データテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報及び前記関連情報を抽出し、抽出した前記対象物情報及び前記関連情報を前記携帯端末に送信し、
前記携帯端末が、前記対象物情報及び前記関連情報を前記携帯端末の表示部に表示する、付記5に記載の検索方法。
(付記7)
前記携帯端末が、当該携帯端末における検索履歴に基づいて、前記サーバから送信された前記関連情報から、前記ユーザにとって有益な前記関連情報を選択し、選択した前記関連情報を前記対象物情報とともに前記表示部に表示する、付記6に記載の検索方法。
(付記8)
前記携帯端末が、前記サーバからの前記対象物情報及び前記関連情報の送信を停止する停止命令を前記サーバに送信する、付記6又は7に記載の検索方法。
(付記9)
ユーザに着用されるカメラ付メガネと、前記ユーザが携帯する携帯端末と、前記カメラ付メガネ及び前記携帯端末と通信ネットワークによって接続されたサーバと、を備えるウェアラブル検索システムにおいて実行される検索プログラムであって、
前記カメラ付メガネに、前記ユーザの焦点を検出するとともに、前記ユーザの前記焦点上に存在する対象物を撮影し、撮影した前記対象物の画像情報とともに、前記ユーザの前記焦点に関する焦点情報及び前記ユーザの位置情報を前記対象物の位置情報として前記サーバに送信する処理を実行させ、
前記サーバに、前記対象物の前記画像情報と、前記対象物の位置情報と、前記対象物に関する対象物情報とが対応付けられたデータテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報を抽出し、抽出した前記対象物情報を前記携帯端末に送信する処理を実行させ、
前記携帯端末に、前記対象物情報を前記携帯端末の表示部に表示する処理を実行させる、検索プログラム。
(付記10)
前記データテーブルにおいて、前記対象物の前記画像情報と、前記対象物の前記位置情報と、前記対象物に関する前記対象物情報と、前記対象物に関連する関連情報とが対応付けられており、
前記サーバに、前記データテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報及び前記関連情報を抽出し、抽出した前記対象物情報及び前記関連情報を前記携帯端末に送信する処理を実行させ、
前記携帯端末に、前記対象物情報及び前記関連情報を前記携帯端末の表示部に表示する処理を実行させる、付記9に記載の検索プログラム。
(付記11)
前記携帯端末に、当該携帯端末における検索履歴に基づいて、前記サーバから送信された前記関連情報から、前記ユーザにとって有益な前記関連情報を選択し、選択した前記関連情報を前記対象物情報とともに前記表示部に表示する処理を実行させる、付記10に記載の検索プログラム。
(付記12)
前記携帯端末に、前記サーバからの前記対象物情報及び前記関連情報の送信を停止する停止命令を前記サーバに送信する処理を実行させる、付記10又は11に記載の検索プログラム。
The whole or part of the exemplary embodiments disclosed above can be described as, but not limited to, the following supplementary notes.
(Appendix 1)
Detecting the focus of the user, and camera-equipped glasses for photographing an object existing on the focus of the user,
A mobile terminal carried by the user,
A server connected to the camera-equipped glasses and the mobile terminal by a communication network,
Equipped with
The camera-equipped glasses, together with the image information of the imaged object, transmits focus information regarding the focus of the user and position information of the user to the server as position information of the object,
The server transmits a data table in which the image information of the target object, the position information of the target object, and the target object information regarding the target object are associated with each other. By searching on the basis of the image information and the position information, the target object is identified and the target object information is extracted, and the extracted target object information is transmitted to the mobile terminal,
The wearable search system, wherein the mobile terminal displays the object information on a display unit of the mobile terminal.
(Appendix 2)
In the data table, the image information of the target object, the position information of the target object, the target object information regarding the target object, and related information related to the target object are associated with each other,
The server identifies the target object by searching the data table based on the image information and the position information of the target object transmitted from the glasses with camera, and at the same time, the target object information and the relation Extracting information, transmitting the extracted object information and the related information to the mobile terminal,
The wearable search system according to appendix 1, wherein the mobile terminal displays the object information and the related information on a display unit of the mobile terminal.
(Appendix 3)
The mobile terminal selects the related information useful for the user from the related information transmitted from the server based on a search history of the mobile terminal, and selects the selected related information together with the object information. The wearable search system according to appendix 2, which is displayed on the display unit.
(Appendix 4)
4. The wearable search system according to appendix 2 or 3, wherein the mobile terminal transmits a stop command for stopping transmission of the object information and the related information from the server to the server.
(Appendix 5)
A search method implemented in a wearable search system, comprising: glasses with a camera worn by a user, a mobile terminal carried by the user, and a server connected to the glasses with the camera and the mobile terminal via a communication network. hand,
The camera-equipped glasses detect the focus of the user, photograph an object existing on the focus of the user, and together with image information of the photographed object, focus information regarding the focus of the user and the Transmitting the user's position information to the server as the position information of the object,
The server transmits a data table in which the image information of the target object, the position information of the target object, and the target object information related to the target object are associated with each other. By searching on the basis of the image information and the position information, the target object is identified and the target object information is extracted, and the extracted target object information is transmitted to the mobile terminal,
The search method, wherein the mobile terminal displays the object information on a display unit of the mobile terminal.
(Appendix 6)
In the data table, the image information of the target object, the position information of the target object, the target object information regarding the target object, and related information related to the target object are associated with each other,
The server identifies the target object by searching the data table based on the image information and the position information of the target object transmitted from the glasses with camera, and at the same time, the target object information and the relation. Extracting information, transmitting the extracted object information and the related information to the mobile terminal,
6. The search method according to appendix 5, wherein the mobile terminal displays the object information and the related information on a display unit of the mobile terminal.
(Appendix 7)
The mobile terminal selects the related information useful for the user from the related information transmitted from the server based on the search history of the mobile terminal, and selects the selected related information together with the object information. The search method according to appendix 6, which is displayed on the display unit.
(Appendix 8)
8. The search method according to appendix 6 or 7, wherein the mobile terminal transmits a stop command for stopping transmission of the object information and the related information from the server to the server.
(Appendix 9)
It is a search program executed in a wearable search system comprising: glasses with a camera worn by a user, a mobile terminal carried by the user, and a server connected to the glasses with the camera and the mobile terminal via a communication network. hand,
The camera-attached glasses detect the focus of the user, photograph an object existing on the focus of the user, and together with image information of the photographed object, focus information regarding the focus of the user and the Causing a process of transmitting the position information of the user to the server as the position information of the object,
A data table in which the image information of the target object, position information of the target object, and target object information related to the target object are associated with the server, and the target object transmitted from the camera-equipped glasses is displayed. By performing a search based on the image information and the position information, the target object is specified and the target object information is extracted, and a process of transmitting the extracted target object information to the mobile terminal is executed,
A search program that causes the mobile terminal to execute a process of displaying the object information on a display unit of the mobile terminal.
(Appendix 10)
In the data table, the image information of the target object, the position information of the target object, the target object information regarding the target object, and related information related to the target object are associated with each other,
The server is searched for the data table based on the image information and the position information of the object transmitted from the glasses with a camera to specify the object and the object information and the relation. Extracting information, and executing a process of transmitting the extracted object information and the related information to the mobile terminal,
10. The search program according to appendix 9, which causes the mobile terminal to execute a process of displaying the object information and the related information on a display unit of the mobile terminal.
(Appendix 11)
In the mobile terminal, based on the search history in the mobile terminal, from the related information transmitted from the server, the related information useful for the user is selected, and the selected related information together with the object information The search program according to appendix 10, which causes the display unit to execute the processing to be displayed.
(Appendix 12)
12. The search program according to supplementary note 10 or 11, which causes the mobile terminal to execute a process of transmitting a stop instruction to the server to stop transmission of the object information and the related information from the server.

100 ウェアラブル検索システム
200 カメラ付メガネ
300 携帯端末
301 表示部
400 サーバ
S 対象物
U ユーザ
100 Wearable Search System 200 Glasses with Camera 300 Mobile Terminal 301 Display 400 Server S Target U User

Claims (10)

ユーザの焦点を検出するとともに、前記ユーザの前記焦点上に存在する対象物を撮影するカメラ付メガネと、
前記ユーザが携帯する携帯端末と、
前記カメラ付メガネ及び前記携帯端末と通信ネットワークによって接続されたサーバと、
を備え、
前記カメラ付メガネは、撮影した前記対象物の画像情報とともに、前記ユーザの前記焦点に関する焦点情報及び前記ユーザの位置情報を前記対象物の位置情報として前記サーバに送信し、
前記サーバは、前記対象物の前記画像情報と、前記対象物の位置情報と、前記対象物に関する対象物情報とが対応付けられたデータテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報を抽出し、抽出した前記対象物情報を前記携帯端末に送信し、
前記携帯端末は、前記対象物情報を前記携帯端末の表示部に表示する、ウェアラブル検索システム。
Detecting the focus of the user, and camera-equipped glasses for photographing an object existing on the focus of the user,
A mobile terminal carried by the user,
A server connected to the camera-equipped glasses and the mobile terminal by a communication network,
Equipped with
The camera-equipped glasses, together with the image information of the imaged object, transmits focus information regarding the focus of the user and position information of the user to the server as position information of the object,
The server transmits a data table in which the image information of the target object, the position information of the target object, and the target object information regarding the target object are associated with each other. By searching on the basis of the image information and the position information, the target object is identified and the target object information is extracted, and the extracted target object information is transmitted to the mobile terminal,
The wearable search system, wherein the mobile terminal displays the object information on a display unit of the mobile terminal.
前記データテーブルにおいて、前記対象物の前記画像情報と、前記対象物の前記位置情報と、前記対象物に関する前記対象物情報と、前記対象物に関連する関連情報とが対応付けられており、
前記サーバは、前記データテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報及び前記関連情報を抽出し、抽出した前記対象物情報及び前記関連情報を前記携帯端末に送信し、
前記携帯端末は、前記対象物情報及び前記関連情報を前記携帯端末の表示部に表示する、請求項1に記載のウェアラブル検索システム。
In the data table, the image information of the target object, the position information of the target object, the target object information regarding the target object, and related information related to the target object are associated with each other,
The server identifies the target object by searching the data table based on the image information and the position information of the target object transmitted from the glasses with camera, and at the same time, the target object information and the relation Extracting information, transmitting the extracted object information and the related information to the mobile terminal,
The wearable search system according to claim 1, wherein the mobile terminal displays the object information and the related information on a display unit of the mobile terminal.
前記携帯端末は、当該携帯端末における検索履歴に基づいて、前記サーバから送信された前記関連情報から、前記ユーザにとって有益な前記関連情報を選択し、選択した前記関連情報を前記対象物情報とともに前記表示部に表示する、請求項2に記載のウェアラブル検索システム。 The mobile terminal selects the related information useful for the user from the related information transmitted from the server based on a search history of the mobile terminal, and selects the selected related information together with the object information. The wearable search system according to claim 2, which is displayed on the display unit. 前記携帯端末は、前記サーバからの前記対象物情報及び前記関連情報の送信を停止する停止命令を前記サーバに送信する、請求項2又は3に記載のウェアラブル検索システム。 The wearable search system according to claim 2, wherein the mobile terminal transmits a stop command for stopping transmission of the object information and the related information from the server to the server. ユーザに着用されるカメラ付メガネと、前記ユーザが携帯する携帯端末と、前記カメラ付メガネ及び前記携帯端末と通信ネットワークによって接続されたサーバと、を備えるウェアラブル検索システムにおいて実施される検索方法であって、
前記カメラ付メガネが、前記ユーザの焦点を検出するとともに、前記ユーザの前記焦点上に存在する対象物を撮影し、撮影した前記対象物の画像情報とともに、前記ユーザの前記焦点に関する焦点情報及び前記ユーザの位置情報を前記対象物の位置情報として前記サーバに送信し、
前記サーバが、前記対象物の前記画像情報と、前記対象物の位置情報と、前記対象物に関する対象物情報とが対応付けられたデータテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報を抽出し、抽出した前記対象物情報を前記携帯端末に送信し、
前記携帯端末が、前記対象物情報を前記携帯端末の表示部に表示する、検索方法。
A search method implemented in a wearable search system, comprising: glasses with a camera worn by a user, a mobile terminal carried by the user, and a server connected to the glasses with the camera and the mobile terminal via a communication network. hand,
The camera-equipped glasses detect the focus of the user, photograph an object existing on the focus of the user, and together with image information of the photographed object, focus information regarding the focus of the user and the Transmitting the user's position information to the server as the position information of the object,
The server transmits a data table in which the image information of the target object, the position information of the target object, and the target object information related to the target object are associated with each other. By searching on the basis of the image information and the position information, the target object is identified and the target object information is extracted, and the extracted target object information is transmitted to the mobile terminal,
The search method, wherein the mobile terminal displays the object information on a display unit of the mobile terminal.
前記データテーブルにおいて、前記対象物の前記画像情報と、前記対象物の前記位置情報と、前記対象物に関する前記対象物情報と、前記対象物に関連する関連情報とが対応付けられており、
前記サーバが、前記データテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報及び前記関連情報を抽出し、抽出した前記対象物情報及び前記関連情報を前記携帯端末に送信し、
前記携帯端末が、前記対象物情報及び前記関連情報を前記携帯端末の表示部に表示する、請求項5に記載の検索方法。
In the data table, the image information of the target object, the position information of the target object, the target object information regarding the target object, and related information related to the target object are associated with each other,
The server identifies the target object by searching the data table based on the image information and the position information of the target object transmitted from the glasses with camera, and at the same time, the target object information and the relation. Extracting information, transmitting the extracted object information and the related information to the mobile terminal,
The search method according to claim 5, wherein the mobile terminal displays the object information and the related information on a display unit of the mobile terminal.
前記携帯端末が、当該携帯端末における検索履歴に基づいて、前記サーバから送信された前記関連情報から、前記ユーザにとって有益な前記関連情報を選択し、選択した前記関連情報を前記対象物情報とともに前記表示部に表示する、請求項6に記載の検索方法。 The mobile terminal selects the related information useful for the user from the related information transmitted from the server based on the search history of the mobile terminal, and selects the selected related information together with the object information. The search method according to claim 6, which is displayed on the display unit. 前記携帯端末が、前記サーバからの前記対象物情報及び前記関連情報の送信を停止する停止命令を前記サーバに送信する、請求項6又は7に記載の検索方法。 The search method according to claim 6 or 7, wherein the mobile terminal transmits a stop instruction for stopping transmission of the object information and the related information from the server to the server. ユーザに着用されるカメラ付メガネと、前記ユーザが携帯する携帯端末と、前記カメラ付メガネ及び前記携帯端末と通信ネットワークによって接続されたサーバと、を備えるウェアラブル検索システムにおいて実行される検索プログラムであって、
前記カメラ付メガネに、前記ユーザの焦点を検出するとともに、前記ユーザの前記焦点上に存在する対象物を撮影し、撮影した前記対象物の画像情報とともに、前記ユーザの前記焦点に関する焦点情報及び前記ユーザの位置情報を前記対象物の位置情報として前記サーバに送信する処理を実行させ、
前記サーバに、前記対象物の前記画像情報と、前記対象物の位置情報と、前記対象物に関する対象物情報とが対応付けられたデータテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報を抽出し、抽出した前記対象物情報を前記携帯端末に送信する処理を実行させ、
前記携帯端末に、前記対象物情報を前記携帯端末の表示部に表示する処理を実行させる、検索プログラム。
It is a search program executed in a wearable search system comprising: glasses with a camera worn by a user, a mobile terminal carried by the user, and a server connected to the glasses with the camera and the mobile terminal via a communication network. hand,
The camera-attached glasses detect the focus of the user, photograph an object existing on the focus of the user, and together with image information of the photographed object, focus information regarding the focus of the user and the Causing a process of transmitting the position information of the user to the server as the position information of the object,
A data table in which the image information of the target object, position information of the target object, and target object information related to the target object are associated with the server, and the target object transmitted from the camera-equipped glasses is displayed. By performing a search based on the image information and the position information, the target object is specified and the target object information is extracted, and a process of transmitting the extracted target object information to the mobile terminal is executed,
A search program that causes the mobile terminal to execute a process of displaying the object information on a display unit of the mobile terminal.
前記データテーブルにおいて、前記対象物の前記画像情報と、前記対象物の前記位置情報と、前記対象物に関する前記対象物情報と、前記対象物に関連する関連情報とが対応付けられており、
前記サーバに、前記データテーブルを、前記カメラ付メガネから送信された前記対象物の前記画像情報及び前記位置情報に基づいて検索することにより、前記対象物を特定するとともに前記対象物情報及び前記関連情報を抽出し、抽出した前記対象物情報及び前記関連情報を前記携帯端末に送信する処理を実行させ、
前記携帯端末に、前記対象物情報及び前記関連情報を前記携帯端末の表示部に表示する処理を実行させる、請求項9に記載の検索プログラム。
In the data table, the image information of the target object, the position information of the target object, the target object information regarding the target object, and related information related to the target object are associated with each other,
The server is searched for the data table based on the image information and the position information of the object transmitted from the glasses with a camera to specify the object and the object information and the relation. Extracting information, and executing a process of transmitting the extracted object information and the related information to the mobile terminal,
The search program according to claim 9, which causes the mobile terminal to execute a process of displaying the object information and the related information on a display unit of the mobile terminal.
JP2019009093A 2019-01-23 2019-01-23 Wearable search system, search method, and search program Active JP6601894B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019009093A JP6601894B1 (en) 2019-01-23 2019-01-23 Wearable search system, search method, and search program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019009093A JP6601894B1 (en) 2019-01-23 2019-01-23 Wearable search system, search method, and search program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019182021A Division JP2020119495A (en) 2019-10-02 2019-10-02 Wearable search system, search method, and search program

Publications (2)

Publication Number Publication Date
JP6601894B1 JP6601894B1 (en) 2019-11-06
JP2020119177A true JP2020119177A (en) 2020-08-06

Family

ID=68462398

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019009093A Active JP6601894B1 (en) 2019-01-23 2019-01-23 Wearable search system, search method, and search program

Country Status (1)

Country Link
JP (1) JP6601894B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010044580A (en) * 2008-08-12 2010-02-25 Nikon Corp Camera and retrieval system
JP2018097581A (en) * 2016-12-13 2018-06-21 富士ゼロックス株式会社 Information processing device and program
WO2018220856A1 (en) * 2017-06-02 2018-12-06 秀敏 櫻井 Street viewer system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010044580A (en) * 2008-08-12 2010-02-25 Nikon Corp Camera and retrieval system
JP2018097581A (en) * 2016-12-13 2018-06-21 富士ゼロックス株式会社 Information processing device and program
WO2018220856A1 (en) * 2017-06-02 2018-12-06 秀敏 櫻井 Street viewer system

Also Published As

Publication number Publication date
JP6601894B1 (en) 2019-11-06

Similar Documents

Publication Publication Date Title
KR102354428B1 (en) Wearable apparatus and methods for analyzing images
US10554829B2 (en) Information processing device, photographing device, image sharing system, and method of information processing
US10178291B2 (en) Obtaining information from an environment of a user of a wearable camera system
WO2016180285A1 (en) Smart glasses
JP2020170569A (en) Authentication system, authentication method, and program
EP3584745A1 (en) Live body detection method and apparatus, system, electronic device, and storage medium
CN107113354A (en) Communication system including headset equipment
US9536159B2 (en) Smart glasses and method for recognizing and prompting face using smart glasses
US20180053055A1 (en) Integrating augmented reality content and thermal imagery
CN109815409B (en) Information pushing method and device, wearable device and storage medium
US10445577B2 (en) Information display method and information display terminal
CN115512534B (en) Discovery and connection of remote devices
JP6105180B1 (en) Work support device, work support method and program
JP2017182838A (en) Display system, management device, and information processing method and program
JP6275087B2 (en) Head mounted display, data output method, and head mounted display program.
JP2017162103A (en) Inspection work support system, inspection work support method, and inspection work support program
CN113066195A (en) Power equipment inspection method and device, AR glasses and storage medium
CN108351689B (en) Method and system for displaying a holographic image of an object in a predefined area
JP2020119495A (en) Wearable search system, search method, and search program
JP2015233204A (en) Image recording device and image recording method
JP2015191554A (en) Electronic apparatus
JP6601894B1 (en) Wearable search system, search method, and search program
CN110458052B (en) Target object identification method, device, equipment and medium based on augmented reality
JP2020013594A (en) Information processing method, program, and information processing device
CN108896035B (en) Method and equipment for realizing navigation through image information and navigation robot

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191003

R150 Certificate of patent or registration of utility model

Ref document number: 6601894

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150