JP2015130631A - Information processing apparatus and electronic apparatus - Google Patents

Information processing apparatus and electronic apparatus Download PDF

Info

Publication number
JP2015130631A
JP2015130631A JP2014001991A JP2014001991A JP2015130631A JP 2015130631 A JP2015130631 A JP 2015130631A JP 2014001991 A JP2014001991 A JP 2014001991A JP 2014001991 A JP2014001991 A JP 2014001991A JP 2015130631 A JP2015130631 A JP 2015130631A
Authority
JP
Japan
Prior art keywords
unit
image
user
search target
search
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014001991A
Other languages
Japanese (ja)
Inventor
宏美 冨井
Hiromi Tomii
宏美 冨井
学 小野里
Manabu Onozato
学 小野里
寿 田井
Hisashi Tai
寿 田井
亮 羽曾部
Ryo Hasobe
亮 羽曾部
政一 関口
Masaichi Sekiguchi
政一 関口
誠 今水
Makoto Imamizu
誠 今水
隆之 大江
Takayuki Oe
隆之 大江
博 亀原
Hiroshi Kamehara
博 亀原
大作 小宮
Daisaku Komiya
大作 小宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2014001991A priority Critical patent/JP2015130631A/en
Priority to PCT/JP2015/050061 priority patent/WO2015105075A1/en
Publication of JP2015130631A publication Critical patent/JP2015130631A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Abstract

PROBLEM TO BE SOLVED: To provide an information processing apparatus and an electronic apparatus capable of providing a user with information on a search object.SOLUTION: The information processing apparatus comprises: an input unit (301) which receives an image from an electronic apparatus (10A) which can be mounted on a user; a detection unit (314) which detects whether the image includes the search object; and an informing unit (315) which gives information on the search object.

Description

本発明は、情報処理装置及び電子機器に関する。   The present invention relates to an information processing apparatus and an electronic apparatus.

従来より、人物の視線を検出可能なメガネをかけた被験者(ユーザ)の視線を推定・追跡するシステムが知られている(例えば、特許文献1参照)。   Conventionally, a system that estimates and tracks the line of sight of a subject (user) wearing glasses capable of detecting the line of sight of a person is known (see, for example, Patent Document 1).

特開2013−81762号公報JP 2013-81762 A

しかしながら、上記特許文献1では、ユーザの視線から商品などに対するユーザの注目度を評価するのにとどまり、例えば、ユーザの視界には入っているがユーザが注目していない、あるいは見落としている情報等については何ら考慮されていない。   However, in the above-mentioned Patent Document 1, the user's attention to the product etc. is only evaluated from the user's line of sight, for example, information that is in the user's field of view but is not noticed or overlooked by the user There is no consideration for.

本発明は上記の課題に鑑みてなされたものであり、探索対象物に関する情報をユーザに報知できる情報処理装置及び電子機器を提供することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to provide an information processing apparatus and an electronic apparatus that can notify a user of information related to a search target.

本発明の情報処理装置(30)は、ユーザに装着可能な電子機器(10A)からの画像を入力する入力部(301)と、前記画像に探索対象物が存在するか否かを検出する検出部(314)と、前記探索対象物に関する報知を行なう報知部(315)と、を備える。   An information processing apparatus (30) of the present invention includes an input unit (301) for inputting an image from an electronic device (10A) that can be worn by a user, and detection for detecting whether or not a search target exists in the image. A section (314) and a notification section (315) for performing notification regarding the search object.

この場合において、入力部は、複数の電子機器(10A,10B)から画像を入力し、前記検出部は、前記複数の電子機器から入力した複数の画像から前記探索対象物を検出することとしてもよい。また、本発明の情報処理装置は、前記探索対象物を決定する決定部(313)を備えていてもよい。   In this case, the input unit may input images from a plurality of electronic devices (10A, 10B), and the detection unit may detect the search object from the plurality of images input from the plurality of electronic devices. Good. Further, the information processing apparatus of the present invention may include a determination unit (313) that determines the search object.

また、本発明において、前記報知部は、前記ユーザとは異なるユーザに前記探索対象物に関する報知を行なうこととしてもよいし、前記探索対象物に関する位置情報を報知することとしてもよいし、前記探索対象物に関連し、前記探索対象物とは異なる物品の情報を報知することとしてもよい。   Moreover, in this invention, the said alerting | reporting part is good also as alerting | reporting the said search target object to the user different from the said user, good also as notifying the positional information regarding the said search target object, and the said search. Information on an article that is related to the object and is different from the search object may be notified.

本発明の電子機器(10C)は、ユーザに装着可能であり、画像を撮像する撮像部(101)と、前記画像に、探索対象物が存在するか否かを検出する検出部(114)と、前記検出の結果に応じて、前記探索対象物に関する報知を行なう報知部(115)と、を備える。   The electronic device (10C) of the present invention can be worn by a user, and includes an imaging unit (101) that captures an image, and a detection unit (114) that detects whether or not a search target exists in the image. And a notifying unit (115) for notifying the search target object according to the detection result.

この場合において、前記報知部は、前記ユーザとは異なるユーザに前記探索対象物に関する報知を行なうこととしてもよい。また、本発明において、電子機器は、前記探索対象物を決定する決定部(113)を備えていてもよい。   In this case, the notification unit may notify a user different from the user of the search target object. In the present invention, the electronic device may include a determination unit (113) that determines the search object.

また、本発明の電子機器は、前記探索対象物を登録する登録部(112)を備え、前記登録部は、前記撮像部の撮像した情報に基づき前記探索対象物を登録することとしてもよいし、前記登録部は、前記ユーザが手にした物品を前記探索対象物として登録することとしてもよい。   Moreover, the electronic device of the present invention may include a registration unit (112) for registering the search target, and the registration unit may register the search target based on information captured by the imaging unit. The registration unit may register an article obtained by the user as the search object.

また、本発明において、前記検出部は、前記決定部が前記探索対象物を決定した後、前記決定された探索対象物が前記画像に存在するか否かの検出を開始し、前記報知部は、前記探索対象物に関する情報のうち最新の情報を報知することとしてもよい。   Further, in the present invention, the detection unit starts detecting whether or not the determined search object exists in the image after the determination unit determines the search object, The latest information among the information on the search object may be notified.

また、本発明の電子機器は、前記画像を表示する表示部(102)を備え、前記報知部は、前記撮像部が現在撮像している画像内に、前記探索対象物が存在する場合に、前記探索対象物の存在を示す情報を前記表示部に表示することとしてもよい。また、本発明において、前記報知部は、前記画像に、前記探索対象物が存在することが検出された場合に、当該画像を表示することとしてもよい。   In addition, the electronic apparatus of the present invention includes a display unit (102) that displays the image, and the notification unit is configured such that when the search target is present in an image that the imaging unit is currently capturing, Information indicating the presence of the search object may be displayed on the display unit. In the present invention, the notification unit may display the image when the search object is detected to be present in the image.

なお、本発明をわかりやすく説明するために、上記においては一実施形態を表す図面の符号に対応つけて説明したが、本発明は、これに限定されるものではなく、後述の実施形態の構成を適宜改良しても良く、また、少なくとも一部を他の構成物に代替させても良い。更に、その配置について特に限定のない構成要件は、実施形態で開示した配置に限らず、その機能を達成できる位置に配置することができる。   In addition, in order to explain the present invention in an easy-to-understand manner, the above description has been made in association with the reference numerals of the drawings representing one embodiment. However, the present invention is not limited to this, and the configuration of an embodiment described later May be modified as appropriate, or at least a part thereof may be replaced with another component. Further, the configuration requirements that are not particularly limited with respect to the arrangement are not limited to the arrangement disclosed in the embodiment, and can be arranged at a position where the function can be achieved.

本発明の情報処理装置及び電子機器は、探索対象物に関する情報をユーザに報知することができるという効果を奏する。   The information processing apparatus and the electronic apparatus according to the present invention have an effect of being able to notify the user of information related to the search target.

第1の実施形態に係る情報処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the information processing system which concerns on 1st Embodiment. 装着型機器の一例を示す斜視図である。It is a perspective view which shows an example of a wearable apparatus. 探索対象物情報テーブルの一例を示す図である。It is a figure which shows an example of a search target object information table. 第1の実施形態に係る情報処理装置の制御部が実行する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which the control part of the information processing apparatus which concerns on 1st Embodiment performs. 図5(A)〜図5(C)は、図4の処理を説明するための図である。FIG. 5A to FIG. 5C are diagrams for explaining the processing of FIG. 第1の実施形態に係る情報処理装置の制御部が実行する探索対象物情報蓄積処理の一例を示すフローチャートである。It is a flowchart which shows an example of the search target information storage process which the control part of the information processing apparatus which concerns on 1st Embodiment performs. 図7(A)及び図7(B)は、図6の処理を説明するための図である。FIG. 7A and FIG. 7B are diagrams for explaining the processing of FIG. 第1の実施形態に係る情報処理装置の制御部が実行する探索対象物検出処理の一例を示すフローチャートである。It is a flowchart which shows an example of the search target object detection process which the control part of the information processing apparatus which concerns on 1st Embodiment performs. 図8の処理を説明するための図である。It is a figure for demonstrating the process of FIG. 第2の実施形態に係る情報処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of the information processing system which concerns on 2nd Embodiment. 第2の実施形態に係る装着型機器の制御部が実行する探索対象登録処理の一例を示すフローチャートである。It is a flowchart which shows an example of the search object registration process which the control part of the wearable apparatus which concerns on 2nd Embodiment performs. 第2の実施形態に係る装着型機器の制御部が実行する探索対象物検出処理の一例を示すフローチャートである。It is a flowchart which shows an example of the search target object detection process which the control part of the wearable apparatus which concerns on 2nd Embodiment performs. 探索対象物がテキストである場合を示す図である。It is a figure which shows the case where a search target object is a text.

《第1の実施形態》
以下、第1の実施形態について、図1〜図9に基づいて、詳細に説明する。図1には、第1の実施形態に係る情報処理システム500Aの構成がブロック図にて示されている。情報処理システム500Aは、ユーザが探し物を見つけるのを支援するシステムである。
<< First Embodiment >>
Hereinafter, the first embodiment will be described in detail with reference to FIGS. FIG. 1 is a block diagram showing the configuration of an information processing system 500A according to the first embodiment. The information processing system 500A is a system that supports a user to find a search object.

図1に示すように、情報処理システム500Aは、装着型機器10A,10Bと、情報処理装置30と、を備える(利用する)。装着型機器10A,10Bと、情報処理装置30とは、ネットワーク50に接続されている。ネットワーク50は、例えば、公衆無線LAN(Local Area Network)、インターネット、携帯電話回線網などを含む。   As illustrated in FIG. 1, the information processing system 500A includes (uses) wearable devices 10A and 10B and the information processing apparatus 30. The wearable devices 10A and 10B and the information processing apparatus 30 are connected to the network 50. The network 50 includes, for example, a public wireless LAN (Local Area Network), the Internet, a mobile phone line network, and the like.

(装着型機器10A,10B)
装着型機器10A,10Bは、ユーザが身体(顔)に装着する眼鏡型の端末である。本実施形態では、父親が装着型機器10Aを使用し、母親が装着型機器10Bを使用しているものとする。なお、本実施形態において装着型機器10A,10Bは同一の構成を有するため、以後、特に区別する必要のない限り、装着型機器10A,10Bを装着型機器10と記載し説明を行う。
(Wearable device 10A, 10B)
The wearable devices 10A and 10B are eyeglass-type terminals worn by the user on the body (face). In the present embodiment, it is assumed that the father uses the wearable device 10A and the mother uses the wearable device 10B. In the present embodiment, since the wearable devices 10A and 10B have the same configuration, the wearable devices 10A and 10B will be described as the wearable device 10 and described below unless otherwise distinguished.

装着型機器10は、図1に示すように、撮像部101と、表示部102と、操作部103と、マイク104と、位置検出部105と、スピーカ106と、記憶部107と、通信部108と、制御部109と、を備える。なお、図2には、装着型機器10が斜視図にて示されている。図2に示すように、装着型機器10は、眼鏡型のフレーム120を備えている。なお、図1において図示され、図2において図示されていない装着型機器10の構成は、フレーム120の内部や、フレーム120の一部に設けられているものとする。   As shown in FIG. 1, the wearable device 10 includes an imaging unit 101, a display unit 102, an operation unit 103, a microphone 104, a position detection unit 105, a speaker 106, a storage unit 107, and a communication unit 108. And a control unit 109. 2 shows the wearable device 10 in a perspective view. As shown in FIG. 2, the wearable device 10 includes a glasses-type frame 120. The configuration of the wearable device 10 illustrated in FIG. 1 and not illustrated in FIG. 2 is provided inside the frame 120 or a part of the frame 120.

撮像部101は、レンズ、撮像素子、画像処理部などを備え、静止画や動画を撮像するものである。撮像部101は、図2に示すようにフレーム120の端部近傍(ユーザの右目近傍)に設けられている。このため、ユーザが装着型機器10を装着した状態では、ユーザが向いている(見ている)方向の画像を撮像することができる。   The imaging unit 101 includes a lens, an imaging element, an image processing unit, and the like, and captures still images and moving images. As shown in FIG. 2, the imaging unit 101 is provided near the end of the frame 120 (near the user's right eye). For this reason, in a state where the user wears the wearable device 10, an image in the direction in which the user is facing (looking at) can be taken.

表示部102は、フレーム120内部又はフレーム120近傍に設けられたプロジェクタと、プロジェクタからの投影像をユーザの目に導くためのプリズムとを有している。表示部102は、制御部109の制御の下、各種情報を表示する。   The display unit 102 includes a projector provided in or near the frame 120 and a prism for guiding a projection image from the projector to the eyes of the user. The display unit 102 displays various information under the control of the control unit 109.

操作部103は、フレーム120に設けられたタッチパッドであり、ユーザの指の動きを検知して、ユーザからの操作を受け付け、受け付けた操作情報を制御部109に送信する。なお、撮像部101、表示部102、操作部103などについては、例えば米国公開特許2013/0044042号にもその詳細が開示されている。   The operation unit 103 is a touch pad provided on the frame 120, detects the movement of the user's finger, receives an operation from the user, and transmits the received operation information to the control unit 109. Details of the imaging unit 101, the display unit 102, the operation unit 103, and the like are also disclosed in, for example, US Published Patent No. 2013/0044042.

マイク104は、フレーム120に設けられ、ユーザが発した音声を収集する。マイク104が収集した音声は、不図示の音声認識部により音声認識され、音声認識結果は、制御部109に送信される。制御部109は、音声認識結果に基づく処理(例えば、コマンドの実行処理など)を実行する。なお、制御部109が音声認識を実行してもよい。   The microphone 104 is provided on the frame 120 and collects voices uttered by the user. The voice collected by the microphone 104 is voice-recognized by a voice recognition unit (not shown), and the voice recognition result is transmitted to the control unit 109. The control unit 109 executes processing based on the voice recognition result (for example, command execution processing). Note that the control unit 109 may perform voice recognition.

位置検出部105は、例えば、GPS(Global Positioning System)センサを有しており、装着型機器10の位置を検出し、装着型機器10の位置情報(緯度、経度)を制御部109に出力する。これに代えて、位置情報(緯度、経度)を地図情報や場所情報に紐付けて記憶部107に記憶させて、制御部109が位置情報(緯度、経度)に基づき、例えば会社、自宅(リビング、寝室)というような場所情報を提供するようにしてもよい。   The position detection unit 105 includes, for example, a GPS (Global Positioning System) sensor, detects the position of the wearable device 10, and outputs position information (latitude, longitude) of the wearable device 10 to the control unit 109. . Instead, the positional information (latitude and longitude) is associated with the map information and the location information and stored in the storage unit 107, and the control unit 109 is based on the positional information (latitude and longitude), for example, a company, home (living room) , Bedroom) may be provided.

スピーカ106は、例えば、フレーム120に設けられ、制御部109の制御の下、音声を出力する音声出力装置である。なお、スピーカ106としては、イヤホンやヘッドホンのほか、指向性があり、主に装着型機器10を装着するユーザの耳に向けて音声情報を提供することが可能なスピーカなどを採用することができる。   The speaker 106 is an audio output device that is provided in the frame 120 and outputs audio under the control of the control unit 109, for example. As the speaker 106, in addition to the earphone and the headphone, a speaker having directivity and capable of providing audio information mainly toward the ear of the user wearing the wearable device 10 can be employed. .

記憶部107は、例えば、フラッシュメモリ等の不揮発性の半導体メモリであり、撮像部101が撮像した画像データや、上述したような地図データ、場所データや、表示部102に表示する表示データなどを記憶する。   The storage unit 107 is, for example, a nonvolatile semiconductor memory such as a flash memory, and stores image data captured by the imaging unit 101, map data, location data, display data displayed on the display unit 102, and the like. Remember.

通信部108は、ネットワーク50を介して、情報処理装置30との間で通信を行う。本第1の実施形態では、通信部108は、制御部109の制御の下、撮像部101が撮像した画像を、位置検出部105が検出した位置情報とともに情報処理装置30に送信したり、情報処理装置30からユーザが探している物品(以後、探索対象物と記載する)を含む画像を受信したりする。   The communication unit 108 communicates with the information processing apparatus 30 via the network 50. In the first embodiment, the communication unit 108 transmits the image captured by the imaging unit 101 to the information processing apparatus 30 together with the position information detected by the position detection unit 105 under the control of the control unit 109, or the information An image including an article that the user is looking for (hereinafter referred to as a search object) is received from the processing device 30.

制御部109は、装着型機器10全体を統括的に制御する。制御部109は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備える。制御部109は、探索対象物をユーザが見つけるために必要な情報を、通信部108を介して情報処理装置30に送信したり、情報処理装置30から受信したりする。例えば、制御部109は、通信部108を介して、撮像部101が撮像した画像を、位置検出部105が検出した位置情報とともに情報処理装置30に送信する。また、制御部109は、操作部103やマイク104を介してユーザから受け付けた指示に関する情報を情報処理装置30に送信する。また、制御部109は、情報処理装置30から、探索対象物に関する情報を受信し、表示部102に表示したり、スピーカ106から音声を出力することにより、探索対象物に関する報知を行う。   The control unit 109 controls the wearable device 10 as a whole. The control unit 109 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like. The control unit 109 transmits or receives information necessary for the user to find the search target object to the information processing device 30 via the communication unit 108. For example, the control unit 109 transmits the image captured by the imaging unit 101 to the information processing apparatus 30 through the communication unit 108 together with the position information detected by the position detection unit 105. In addition, the control unit 109 transmits information regarding an instruction received from the user via the operation unit 103 or the microphone 104 to the information processing apparatus 30. In addition, the control unit 109 receives information on the search target from the information processing apparatus 30 and displays the information on the display unit 102 or outputs sound from the speaker 106 to notify the search target.

(情報処理装置30)
情報処理装置30は、例えば、サーバであり、図1に示すように、通信部301と、制御部302と、記憶部303と、を備える。
(Information processing apparatus 30)
The information processing apparatus 30 is, for example, a server, and includes a communication unit 301, a control unit 302, and a storage unit 303 as illustrated in FIG.

通信部301は、ネットワーク50を介して、装着型機器10との間で無線通信または有線通信を行う。本第1の実施形態では、通信部301は、ユーザが探索対象物を見つけるのに必要な情報を、装着型機器10から受信したり、装着型機器10に送信したりする。例えば、通信部301は、装着型機器10の撮像部101が撮像した画像を装着型機器10から受信し、制御部302に出力する。また、通信部301は、制御部302の制御の下、後述する記憶部303に記憶された画像データを装着型機器10に送信する。   The communication unit 301 performs wireless communication or wired communication with the wearable device 10 via the network 50. In the first embodiment, the communication unit 301 receives information necessary for the user to find a search target from the wearable device 10 or transmits the information to the wearable device 10. For example, the communication unit 301 receives an image captured by the imaging unit 101 of the wearable device 10 from the wearable device 10 and outputs the image to the control unit 302. In addition, the communication unit 301 transmits image data stored in a storage unit 303 described later to the wearable device 10 under the control of the control unit 302.

記憶部303は、例えば、ハードディスクドライブであり、探索対象物に関連する情報を記憶する。本第1の実施形態において、記憶部303は、図3に示す、探索対象物情報テーブルを記憶する。探索対象物情報テーブルは、物品名、登録ユーザ、基準画像、及び履歴画像の項目を備える。探索対象物情報テーブルにデータを登録するには、例えば、ユーザが登録したい物品を装着型機器10の撮像部101により撮像するとともに、撮像した物品の名称を発声する。マイク104は当該音声を収集し、不図示の音声認識部により音声認識した物品名と、撮像部101が撮像した画像とを制御部109が情報処理装置30に送信すればよい。情報処理装置30は、受信した物品名を物品名の項目に登録し、撮像部101が撮像した画像を基準画像の項目に登録する。これにより、ユーザはハンズフリーで登録操作を行うことができる。これに代えて、探索対象物情報テーブルへのデータの登録は、多機能携帯機器(スマートフォン)や、タブレット型端末の撮像部や、タッチパネルなどのユーザインターフェースを用いるとともに、ネットワーク50を利用して情報処理装置30にこの登録情報を送信するようにしてもよい。   The storage unit 303 is a hard disk drive, for example, and stores information related to the search target. In the first embodiment, the storage unit 303 stores a search object information table shown in FIG. The search object information table includes items of article name, registered user, reference image, and history image. In order to register data in the search object information table, for example, an article to be registered by the user is imaged by the imaging unit 101 of the wearable device 10, and the name of the imaged article is spoken. The microphone 104 collects the sound, and the control unit 109 only has to transmit the article name recognized by a sound recognition unit (not shown) and the image captured by the imaging unit 101 to the information processing apparatus 30. The information processing apparatus 30 registers the received article name in the article name item, and registers the image captured by the imaging unit 101 in the reference image item. Thereby, the user can perform registration operation hands-free. Instead of this, registration of data in the search object information table is performed using a user interface such as a multifunctional mobile device (smartphone), an imaging unit of a tablet terminal, a touch panel, or the like, and using the network 50. You may make it transmit this registration information to the processing apparatus 30. FIG.

なお、情報処理装置30に画像認識部が設けられている場合には、ユーザによる物品名の入力を省略することができる。この場合、物品名(例えば家の鍵)ではなく物品のカテゴリ(例えば鍵)を探索対象物情報テーブルに登録してもよい。この場合、ユーザは登録したい物品を撮像するとともに、登録ボタンをタッチしたり、登録という言葉を発声するようにすればよい。また、画像認識部による画像認識には、画像データの特徴点を、例えばSURF(Speeded Up Robust Features)やSIFT(Scale Invariant Feature Transform)といった周知の特徴量検出アルゴリズムを用いればよい。   Note that when the image recognition unit is provided in the information processing apparatus 30, the input of the article name by the user can be omitted. In this case, an article category (eg, key) may be registered in the search object information table instead of the article name (eg, house key). In this case, the user may take an image of the article to be registered, touch the registration button, or utter the word registration. For the image recognition by the image recognition unit, a known feature amount detection algorithm such as SURF (Speeded Up Robust Features) or SIFT (Scale Invariant Feature Transform) may be used as the feature points of the image data.

登録ユーザの項目には、この物品名を登録したユーザが登録される。基準画像の項目には、後述する検出部314が、装着型機器10の撮像部101が撮像した画像の中に探索対象物が含まれるか否かを検出するときに使用する画像が格納される。履歴画像の項目には、装着型機器10の撮像部101が撮像した画像が、撮像日時及び撮像位置の情報と共に時系列に格納される。   The user who registered the article name is registered in the item of registered user. In the item of the reference image, an image used when the detection unit 314 described later detects whether or not a search target is included in an image captured by the imaging unit 101 of the wearable device 10 is stored. . In the history image item, an image captured by the imaging unit 101 of the wearable device 10 is stored in time series together with information on the imaging date and time and the imaging position.

制御部302は、情報処理装置30全体を統括的に制御する。制御部302は、CPU、RAM、ROM等を備える。制御部302では、CPUがプログラムを実行することで、図1に示す情報蓄積部311、登録部312、決定部313、検出部314、及び報知部315として機能する。   The control unit 302 controls the information processing apparatus 30 as a whole. The control unit 302 includes a CPU, RAM, ROM, and the like. In the control unit 302, the CPU functions as the information storage unit 311, the registration unit 312, the determination unit 313, the detection unit 314, and the notification unit 315 illustrated in FIG.

情報蓄積部311は、通信部301が装着型機器10から受信した画像を入力する。情報蓄積部311は、入力した画像のうち、探索対象物情報テーブルに登録されている物品を含む画像を、当該物品の履歴画像として記憶部303の探索対象物情報テーブル(図3参照)に記憶する。情報蓄積部311が実行する処理の詳細については後述する。   The information storage unit 311 inputs an image received from the wearable device 10 by the communication unit 301. The information storage unit 311 stores an image including an article registered in the search object information table among the input images in the search object information table (see FIG. 3) of the storage unit 303 as a history image of the article. To do. Details of processing executed by the information storage unit 311 will be described later.

登録部312は、物品を記憶部303の探索対象物情報テーブルに登録する。   The registration unit 312 registers the article in the search target information table of the storage unit 303.

決定部313は、記憶部303に登録されている物品の中から、探索の対象となる物品、すなわち、探索対象物を決定し、検出部314に出力する。   The determination unit 313 determines an article to be searched from the articles registered in the storage unit 303, that is, a search target, and outputs the determined article to the detection unit 314.

検出部314は、決定部313が決定した探索対象物が、装着型機器10の撮像部101が撮像した画像内に存在するか否かを検出し、検出結果を報知部315に出力する。   The detection unit 314 detects whether or not the search target determined by the determination unit 313 is present in the image captured by the imaging unit 101 of the wearable device 10, and outputs the detection result to the notification unit 315.

報知部315は、検出結果に基づいて、探索対象物に関する報知を行う。例えば、報知部315は、通信部301を介して、探索対象物の検出結果を装着型機器10に送信する。報知部315から検出結果を受信した装着型機器10の制御部109は、表示部102やスピーカ106等を用いて、ユーザに、探索対象物の情報を報知する。   The alerting | reporting part 315 alert | reports regarding a search target object based on a detection result. For example, the notification unit 315 transmits the search target object detection result to the wearable device 10 via the communication unit 301. The control unit 109 of the wearable device 10 that has received the detection result from the notification unit 315 notifies the user of information about the search target using the display unit 102, the speaker 106, and the like.

(情報処理装置30の処理)
次に、情報処理装置30の制御部302が実行する処理について、図4のフローチャートを参照して説明する。本実施形態において、図4に示す処理は、ユーザが装着型機器10の電源を入れ、装着型機器10と情報処理装置30との間で通信が成立すると開始される。
(Processing of information processing apparatus 30)
Next, processing executed by the control unit 302 of the information processing apparatus 30 will be described with reference to the flowchart of FIG. In the present embodiment, the process illustrated in FIG. 4 starts when the user turns on the wearable device 10 and communication is established between the wearable device 10 and the information processing apparatus 30.

図4の処理では、まず、決定部313が、装着型機器10から探索対象物の探索要求を受け付けたか否かを判断する(ステップS10)。例えば、父親が装着型機器10Aのマイク104に向かって「探し物」と発音すると、装着型機器10Aから情報処理装置30に探索対象物の探索要求が送信される。決定部313は、当該探索要求を装着型機器10から受信すると、ステップS40に移行する。なお、探索対象物の探索要求の送信は、例えば、ユーザによる操作部103に対する所定の動作(例えば、タップ)があった場合に行うこととしてもよい。   In the process of FIG. 4, first, the determination unit 313 determines whether or not a search request for a search target has been received from the wearable device 10 (step S <b> 10). For example, when the father pronounces “search object” toward the microphone 104 of the wearable device 10 </ b> A, a search request for the search object is transmitted from the wearable device 10 </ b> A to the information processing apparatus 30. When the determination unit 313 receives the search request from the wearable device 10, the determination unit 313 proceeds to step S40. The search request for the search object may be transmitted, for example, when a predetermined operation (for example, a tap) is performed on the operation unit 103 by the user.

一方、決定部313が、装着型機器10から探索対象物の探索要求を受け付けていない場合には、登録部312及び情報蓄積部311が、通信部301を介して、装着型機器10から撮像部101が撮像した画像を入力する(ステップS11)。このとき、情報蓄積部311は、装着型機器10の位置検出部105が検出した位置情報も、装着型機器10から受信する。なお、登録部312及び情報蓄積部311は、装着型機器10A,10Bからそれぞれ画像を入力する。装着型機器10A,10Bから画像を入力するタイミングは、同時であってもよいし、異なっていてもよい。   On the other hand, when the determining unit 313 has not received a search request for the search target from the wearable device 10, the registration unit 312 and the information storage unit 311 are connected to the imaging unit from the wearable device 10 via the communication unit 301. The image captured by 101 is input (step S11). At this time, the information storage unit 311 also receives the position information detected by the position detection unit 105 of the wearable device 10 from the wearable device 10. Note that the registration unit 312 and the information storage unit 311 receive images from the wearable devices 10A and 10B, respectively. The timing for inputting images from the wearable devices 10A and 10B may be the same or different.

次に、登録部312は、前述の画像認識部を用いて、ステップS11で入力した画像を解析し、当該画像においてユーザが物品を手にしているか否かを判断する(ステップS13)。ここでの判断が否定された場合、情報蓄積部311はステップS20の探索対象物情報蓄積処理を実行する。   Next, the registration unit 312 analyzes the image input in step S11 using the above-described image recognition unit, and determines whether or not the user is holding an article in the image (step S13). If the determination here is negative, the information storage unit 311 executes the search target information storage process of step S20.

一方、登録部312は、図5(A)のような画像を解析した結果、ユーザが物品を手にしていると判断した場合(ステップS13/YES)、ユーザが手にしている物品が、既に記憶部303の探索対象物情報テーブルに登録されているか否かを判断する(ステップS15)。例えば、登録部312は、ステップS11において、図5(A)に示す画像を入力した場合、鍵K10の画像を抽出し、抽出した鍵K10の画像と、探索対象物情報テーブル(図3参照)の基準画像との間でパターンマッチングを行い、ユーザが手にしている鍵K10が既に探索対象物情報テーブルに登録されているか否かを判断する。   On the other hand, as a result of analyzing the image as shown in FIG. 5A, the registration unit 312 determines that the user is holding an article (step S13 / YES). It is determined whether or not it is registered in the search object information table of the storage unit 303 (step S15). For example, when the image shown in FIG. 5A is input in step S11, the registration unit 312 extracts the key K10 image, the extracted key K10 image, and the search target information table (see FIG. 3). Pattern matching is performed with the reference image, and it is determined whether or not the key K10 held by the user is already registered in the search object information table.

ユーザが手にしている物品が既に探索対象物情報テーブルに登録されている場合(ステップS15/YES)、情報蓄積部311はステップS20の探索対象物情報蓄積処理を実行する。   When the article that the user is holding is already registered in the search target information table (step S15 / YES), the information storage unit 311 executes the search target information storage process of step S20.

一方、ユーザが手にしている物品が探索対象物情報テーブルに登録されていない場合(ステップS15/NO)、登録部312は、ユーザが手にしている物品を探索対象物情報テーブルに登録する(ステップS17)。例えば、図5(A)に示すように、父親が使用する装着型機器10Aから入力した画像において、父親が鍵K10を手にしていたとする。この場合、登録部312は、ステップS13の処理で抽出した鍵K10の画像を基準画像として探索対象物情報テーブルに登録するとともに、装着型機器10Aの使用者である父親を、登録ユーザの項目に登録する(図5(C)参照)。また、登録部312は、記憶部303に予め記憶されている各種物品のテンプレート画像と基準画像との間でマッチングを行い、抽出した画像の物品名を特定し、物品名の項目に登録する(図5(C)の例では、「鍵」)。なお、各物品のテンプレート画像には、各物品の名称が関連付けられているものとする。なお、このとき、登録部312は、図5(B)に示すように、前述の画像認識部を用いて、手に隠れた部分の画像を補間した画像を基準画像として登録してもよい。   On the other hand, when the article held by the user is not registered in the search target information table (step S15 / NO), the registration unit 312 registers the article held by the user in the search target information table ( Step S17). For example, as shown in FIG. 5A, it is assumed that the father holds the key K10 in the image input from the wearable device 10A used by the father. In this case, the registration unit 312 registers the image of the key K10 extracted in the process of step S13 as a reference image in the search object information table, and sets the father who is the user of the wearable device 10A as the registered user item. Register (see FIG. 5C). Also, the registration unit 312 performs matching between the template images of various articles stored in advance in the storage unit 303 and the reference image, identifies the article name of the extracted image, and registers it in the item name item ( In the example of FIG. 5C, “key”). It is assumed that the name of each article is associated with the template image of each article. At this time, as illustrated in FIG. 5B, the registration unit 312 may register an image obtained by interpolating an image of a portion hidden by the hand as a reference image using the above-described image recognition unit.

ステップS17の処理の終了後は、ステップS10に戻る。なお、図4のフローチャートにおいては、ユーザが物品を手にしていることを条件に探索対象として登録したが、ユーザが物品を注視している場合に登録処理を実行するようにしてもよい。この場合、撮像部101による撮像時間が5秒以上続いたり、撮像部101で撮像された中で一番面積が大きい物品や、所定の大きさ(撮像領域の1/5以上の面積)を有した物品を探索対象として登録してもよい。また、ユーザが登録したい物品を撮像した後、登録ボタンをタッチすることにより、登録処理を実行するようにしてもよい。   After the process of step S17 is complete | finished, it returns to step S10. In the flowchart of FIG. 4, the search target is registered on the condition that the user is holding the article. However, the registration process may be executed when the user is watching the article. In this case, the imaging time by the imaging unit 101 lasts for 5 seconds or more, the article having the largest area captured by the imaging unit 101, or a predetermined size (an area of 1/5 or more of the imaging region) is present. You may register the article which was done as search object. Alternatively, the registration process may be executed by touching a registration button after an image of an article that the user wants to register is captured.

(探索対象物情報蓄積処理)
次に、図4のステップS20の探索対象物情報蓄積処理の詳細について、図6のフローチャートを参照して説明する。ユーザが探索対象として登録する物品は、ユーザがその置き場所を忘れがちなため、本フローチャートでは探索対象の物品の撮像履歴(撮像日時、撮像位置、撮像場所など)を更新するものである。なお、情報蓄積部311は、撮像履歴に変化がないことを認識した時点で本フローチャートを終了するようにしてもよい。
(Search object information accumulation process)
Next, details of the search target information accumulation process in step S20 of FIG. 4 will be described with reference to the flowchart of FIG. The article registered as the search target by the user tends to be forgotten by the user, so in this flowchart, the imaging history (imaging date, imaging position, imaging location, etc.) of the search target article is updated. Note that the information storage unit 311 may end this flowchart when it is recognized that there is no change in the imaging history.

図6の処理では、情報蓄積部311は、図4のステップS11において入力した画像に、探索対象物情報テーブルに登録されている物品が存在するか否かを判断する(ステップS23)。例えば、情報蓄積部311は、探索対象物情報テーブルの基準画像の項目に登録されている基準画像と、入力した画像との間でパターンマッチングを行い、画像内に探索対象の物品が存在するか否かを判断する。ここでの判断が否定された場合、情報蓄積部311は、図6の全処理を終了し、図4のステップS10に戻る。   In the process of FIG. 6, the information storage unit 311 determines whether or not an article registered in the search target information table exists in the image input in step S11 of FIG. 4 (step S23). For example, the information storage unit 311 performs pattern matching between the reference image registered in the item of the reference image of the search target information table and the input image, and whether the search target article exists in the image. Judge whether or not. If the determination here is negative, the information storage unit 311 ends all the processes in FIG. 6 and returns to step S10 in FIG.

一方、画像内に探索対象の物品が存在する場合(ステップS23/YES)、情報蓄積部311は、図4のステップS11で入力した画像を、当該画像が撮像された日時情報及び位置情報とともに、例えば、RAMに一次記憶する(ステップS25)。   On the other hand, when the search target article exists in the image (step S23 / YES), the information storage unit 311 displays the image input in step S11 of FIG. 4 together with the date / time information and the position information when the image is captured. For example, primary storage is performed in the RAM (step S25).

次に、情報蓄積部311は、再び、装着型機器10から画像を入力し(ステップS27)、ステップS23と同様に、入力した画像に探索対象の物品が存在するか否かを判断する(ステップS29)。探索対象の物品が存在する場合には、情報蓄積部311は、ステップS25に戻り、RAMに一次記憶されている情報を、ステップS27で入力した画像と、当該画像が撮像された日時情報及び位置情報とで上書きする。   Next, the information storage unit 311 again inputs an image from the wearable device 10 (step S27), and determines whether or not a search target article exists in the input image, similarly to step S23 (step S23). S29). If there is an article to be searched, the information storage unit 311 returns to step S25, and stores the information temporarily stored in the RAM, the image input in step S27, the date / time information and the position at which the image was captured. Overwrite with information.

一方、入力した画像に探索対象の物品が存在しない場合(ステップS29/NO)、情報蓄積部311は、RAMに一次記憶されている画像を、探索対象物情報テーブルの履歴画像の項目に登録した後(ステップS31)、図6の全処理を終了し、図4のステップS10に戻る。例えば、図7(A)に示すように、母親の装着型機器10Bから入力した画像に、父親の探索対象の物品である鍵K10が存在していたとする。この場合、情報蓄積部311は、装着型機器10Bから入力した画像(図7(A))を「鍵」の履歴画像の項目に、当該画像が撮像された日時情報及び位置情報と共に登録する。このように、探索対象物情報テーブルの履歴画像の項目には、登録ユーザ(例えば、父親)の装着型機器10の撮像部101が撮像した画像に加えて登録ユーザとは異なるユーザ(例えば、母親)の装着型機器10の撮像部101が探索対象の物品を撮像した場合にも、当該探索対象の物品が最後に撮像されたときの画像が履歴画像として登録される。   On the other hand, when the search target article does not exist in the input image (step S29 / NO), the information storage unit 311 registers the image temporarily stored in the RAM in the history image item of the search target information table. After (step S31), all the processes in FIG. 6 are terminated, and the process returns to step S10 in FIG. For example, as shown in FIG. 7A, it is assumed that a key K10, which is an article to be searched for by the father, exists in the image input from the wearable device 10B of the mother. In this case, the information storage unit 311 registers the image (FIG. 7A) input from the wearable device 10 </ b> B together with the date / time information and the position information of the captured image in the “key” history image item. As described above, in the history image item of the search target information table, in addition to the image captured by the imaging unit 101 of the wearable device 10 of the registered user (for example, father), a user (for example, mother) that is different from the registered user. When the imaging unit 101 of the wearable device 10 images a search target article, an image when the search target article is last imaged is registered as a history image.

上述した処理により、各ユーザの装着型機器10の撮像部101が撮像した探索対象物を含む画像のうち、ステップS25〜S29の処理が繰り返された最後に、RAM等に一次記憶されていた画像が、履歴画像として記憶部303に記憶される。   Of the images including the search target imaged by the imaging unit 101 of each user's wearable device 10 by the above-described processing, the image that is temporarily stored in the RAM or the like at the end of the processing of steps S25 to S29 being repeated. Is stored in the storage unit 303 as a history image.

(探索対象物検出処理)
次に、図4のステップS40の探索対象物検出処理について、図8のフローチャートを参照しつつ詳細に説明する。以下の説明では、父親が鍵K10を探す場合について説明する。
(Search object detection process)
Next, the search target object detection process in step S40 of FIG. 4 will be described in detail with reference to the flowchart of FIG. In the following description, a case where the father searches for the key K10 will be described.

図8の処理において、まず、決定部313が、探索対象物情報テーブルから探索対象物を決定する(ステップS41)。例えば、決定部313は、装着型機器10Aから探索対象物の探索要求を受け付けると、記憶部303に記憶された探索対象物情報テーブルにおいて、登録ユーザの項目に装着型機器10Aの使用者である“父親”が登録されている物品名の一覧、あるいは、基準画像の一覧を装着型機器10Aに送信する。なお、決定部313は、父親で登録された探索対象の物品がない場合には、母親で登録された探索対象の物品を参照するようにしてもよい。このように家族や、友人、特定のグループで登録された探索対象の物品を共有するようにしてもよい。装着型機器10Aの制御部109は、情報処理装置30から受信した当該物品名の一覧を表示部102に表示する。そして、例えば、ユーザが操作部103を用いて探索対象物を選択すると、制御部109は、通信部108を介してユーザが選択した探索対象物の情報を情報処理装置30に送信する。なお、ユーザが、装着型機器10のマイク104に向かって探索対象の物品の名称「鍵」を発音することによって、探索対象物を指定してもよい。この場合、決定部313は、家の鍵や車の鍵など探索対象物情報テーブルに記憶されている鍵の情報を探索対象物として検出部314に出力する。   In the process of FIG. 8, the determination unit 313 first determines a search object from the search object information table (step S41). For example, when receiving a search request for a search target from the wearable device 10A, the determination unit 313 is a user of the wearable device 10A in the registered user item in the search target information table stored in the storage unit 303. A list of article names in which “father” is registered or a list of reference images is transmitted to the wearable device 10A. If there is no search target article registered by the father, the determination unit 313 may refer to the search target article registered by the mother. In this way, articles to be searched that are registered with family members, friends, or specific groups may be shared. The control unit 109 of the wearable device 10 </ b> A displays the list of article names received from the information processing apparatus 30 on the display unit 102. For example, when the user selects a search target using the operation unit 103, the control unit 109 transmits information on the search target selected by the user to the information processing apparatus 30 via the communication unit 108. Note that the user may designate the search target by generating the name “key” of the search target article toward the microphone 104 of the wearable device 10. In this case, the determination unit 313 outputs key information stored in the search object information table such as a house key or a car key to the detection unit 314 as a search object.

次に、検出部314が、装着型機器10の撮像部101が現在撮像している画像を入力する(ステップS43)。なお、このとき、検出部314は、装着型機器10A,10Bからそれぞれ画像を入力する。装着型機器10A,10Bから画像を入力するタイミングは、同時であってもよいし、異なっていてもよい。   Next, the detection unit 314 inputs an image currently captured by the imaging unit 101 of the wearable device 10 (step S43). At this time, the detection unit 314 inputs images from the wearable devices 10A and 10B, respectively. The timing for inputting images from the wearable devices 10A and 10B may be the same or different.

続いて、検出部314は、ステップS43で入力した画像内に、決定部313から入力した探索対象物が存在するか否かを判断する(ステップS45)。例えば、検出部314は、ステップS43で入力した画像と、鍵K10の基準画像(図5(B)参照)との間でパターンマッチングを行い、撮像部101が撮像している画像内に、鍵K10が存在するか否かを判断する。   Subsequently, the detection unit 314 determines whether or not the search object input from the determination unit 313 exists in the image input in step S43 (step S45). For example, the detection unit 314 performs pattern matching between the image input in step S43 and the reference image of the key K10 (see FIG. 5B), and the key is included in the image captured by the imaging unit 101. It is determined whether or not K10 exists.

ステップS43で入力した画像内に探索対象物が存在する場合(ステップS45/YES)、検出部314は、当該画像が、探索対象物の検出を依頼した依頼者(ここでは、父親)の装着型機器10Aから入力された画像であるか否かを判断する(ステップS47)。   When a search target exists in the image input in step S43 (step S45 / YES), the detection unit 314 is a wearable type of a client (here, a father) who requested the detection of the search target. It is determined whether or not the image is input from the device 10A (step S47).

探索対象物が存在する画像が、探索対象物の検出を依頼した依頼者(ここでは、父親)の装着型機器10Aから入力された画像である場合(ステップS47/YES)、報知部315は、当該画像内における探索対象物の位置を装着型機器10Aに通知する(ステップS49)ことにより、探索対象物に関する報知を行う。探索対象物の位置を情報処理装置30から受信した装着型機器10Aの制御部109は、表示部102に、撮像部101が現在撮像している画像を表示するとともに、探索対象物を示す情報(例えば、矢印や、マーカ等:図9(A)のマーカ330参照)を表示する。なお、表示部102に、撮像部101が現在撮像している画像を表示せず、探索対象物を示す情報(マーカ330)を、ユーザの視界に重畳するように表示してもよい。これにより、装着型機器10Aのユーザ(父親)は、視界には入っているが見落としていた探索対象物に気づくことができる。   When the image in which the search target exists is an image input from the wearable device 10A of the client who requested the detection of the search target (here, father) (step S47 / YES), the notification unit 315 The wearable device 10A is notified of the position of the search target in the image (step S49), thereby notifying the search target. The control unit 109 of the wearable device 10A that has received the position of the search target object from the information processing apparatus 30 displays the image currently captured by the image capturing unit 101 on the display unit 102 and information indicating the search target object ( For example, an arrow, a marker, or the like (see the marker 330 in FIG. 9A) is displayed. Note that information (marker 330) indicating the search target may be displayed on the display unit 102 so as to be superimposed on the user's field of view without displaying the image currently captured by the imaging unit 101. Thereby, the user (father) of the wearable device 10 </ b> A can notice the search object that is in the field of view but has been overlooked.

一方、探索対象物が存在する画像が、例えば、母親の装着型機器10Bから入力された画像であった場合、ステップS47の判断が否定される。この場合、報知部315が、探索対象物が存在する画像を入力した装着型機器10を使用する他のユーザ(例えば、装着型機器10Bを使用する母親)に、探索対象物に関する報知を行う(ステップS51)。例えば、報知部315は、探索対象物(鍵)が存在する画像(図9(B)参照)が装着型機器10Bから入力されたものである場合、父親が探索対象物(鍵)を探していること、及び、装着型機器10Bの撮像部101が現在撮像する画像における探索対象物の位置を装着型機器10Bに通知する。当該情報を受信した装着型機器10Bの制御部109は、表示部102に探索対象物を示す情報(例えば、矢印や、マーカ等)を表示するとともに、父親が当該探索対象物を探していることを表示部102に表示したり、スピーカ106を用いて音声により母親に報知する。これにより、母親は、父親が鍵K10を探していることを知ることができるとともに、自分の視界に入っている探索対象物(鍵K10)を見つけて、父親に渡す等の対応をとることができる。   On the other hand, when the image in which the search target exists is, for example, an image input from the mother's wearable device 10B, the determination in step S47 is denied. In this case, the notification unit 315 notifies other users (for example, a mother using the wearable device 10B) of the wearable device 10 that has input an image in which the search object is present (notice about the search object) ( Step S51). For example, when the image (see FIG. 9B) in which the search target (key) exists is input from the wearable device 10B, the notification unit 315 searches for the search target (key). And the position of the search object in the image currently captured by the imaging unit 101 of the wearable device 10B is notified to the wearable device 10B. The control unit 109 of the wearable device 10B that has received the information displays information (for example, an arrow or a marker) indicating the search target on the display unit 102, and the father is searching for the search target. Is displayed on the display unit 102 or notified to the mother by voice using the speaker 106. As a result, the mother can know that the father is searching for the key K10, and can find a search object (key K10) in his field of view and take a response such as passing it to the father. it can.

ところで、ステップS43で入力した画像内に、探索対象物が存在しない場合(ステップS45/NO)、検出部314はステップS43の処理を開始してから所定時間(例えば、10秒)が経過したか否かを判断する(ステップS53)。   By the way, when the search object does not exist in the image input in step S43 (step S45 / NO), has the predetermined time (for example, 10 seconds) elapsed since the detection unit 314 started the process of step S43? It is determined whether or not (step S53).

所定時間が経過していない場合、検出部314はステップS43からの処理を再び実行するが、所定時間が経過した場合には、記憶部303に記憶されている探索対象物情報テーブルにおいて、探索対象物に対して履歴画像が登録されているか否かを判断する(ステップS55)。   When the predetermined time has not elapsed, the detection unit 314 executes the processing from step S43 again. However, when the predetermined time has elapsed, the search target information table stored in the storage unit 303 searches the search target information table. It is determined whether or not a history image is registered for the object (step S55).

探索対象物に対して履歴画像が登録されている場合(ステップS55/YES)、報知部315は、当該履歴画像の中で撮像日時が最も新しい画像を装着型機器10Aに送信する(ステップS57)。装着型機器10Aの制御部109は、情報処理装置30から受信した当該画像を表示部102に表示する。これにより、探索対象物(鍵K10)が最後に存在した場所を父親に報知することができる。父親は、装着型機器10のいずれかが最後に探索対象物(鍵K10)を撮像した場所を知ることができ、探索対象物を探す場所を変えたりするなどの対応をとることができる。なお、このとき、報知部315は、探索対象物が最後に撮像されたときの位置情報(緯度、経度)を報知するようにしてもよい。これにより、ユーザが探索対象物をより見つけやすくなる。   When a history image is registered for the search target (step S55 / YES), the notification unit 315 transmits an image having the latest imaging date and time among the history images to the wearable device 10A (step S57). . The control unit 109 of the wearable device 10 </ b> A displays the image received from the information processing apparatus 30 on the display unit 102. Thereby, it is possible to notify the father of the place where the search object (key K10) lastly existed. The father can know where the wearable device 10 last imaged the search object (key K10), and can take measures such as changing the search place for the search object. At this time, the notification unit 315 may notify the position information (latitude, longitude) when the search object is imaged last. This makes it easier for the user to find the search object.

一方、探索対象物に対して履歴画像が登録されていない場合(ステップS55/NO)、報知部315は、探索対象物を検出できない旨を装着型機器10Aに通知する(ステップS59)。   On the other hand, when the history image is not registered for the search target (step S55 / NO), the notification unit 315 notifies the wearable device 10A that the search target cannot be detected (step S59).

続いて、決定部313が、装着型機器10Aから探索対象物の検出を終了する指示があったか否かを判断する(ステップS61)。例えば、装着型機器10Aの操作部103を用いて父親が探索対象物の検出を終了する指示を入力した場合、装着型機器10Aは探索対象物の検出を終了する指示を情報処理装置30に送信する。決定部313は、当該指示を装着型機器10Aから受信すると、探索対象物の検出を終了する指示を受け付けたと判断して(ステップS61/YES)、図8の全処理を終了し、図4のステップS10に戻る。一方、当該指示を受信していない場合、検出部314が、ステップS43からの処理を再び実行する。なお、図4の処理は、音声や操作部103の操作により所定のコマンドが入力されたタイミングや、装着型機器10の電源がOFFされたタイミングで強制終了される。なお、図8のフローチャートにおいて、ステップS43に先立ってステップS55を実施するなど各ステップの順番を変更してもよい。   Subsequently, the determination unit 313 determines whether or not there is an instruction from the wearable device 10A to end detection of the search target (step S61). For example, when the father inputs an instruction to end detection of the search object using the operation unit 103 of the wearable apparatus 10A, the wearable apparatus 10A transmits an instruction to end detection of the search object to the information processing device 30. To do. When the determination unit 313 receives the instruction from the wearable device 10A, the determination unit 313 determines that an instruction to end detection of the search target has been received (step S61 / YES), ends all the processes in FIG. Return to step S10. On the other hand, when the instruction has not been received, the detection unit 314 executes the processing from step S43 again. Note that the processing in FIG. 4 is forcibly terminated when a predetermined command is input by voice or operation of the operation unit 103 or when the power of the wearable device 10 is turned off. In the flowchart of FIG. 8, the order of each step may be changed, for example, step S55 is performed prior to step S43.

以上、詳細に説明したように、本第1の実施形態によれば、情報処理装置30は、ユーザに装着可能な装着型機器10から画像を入力し、当該画像に探索対象物が存在するか否かを検出する検出部314と、探索対象物に関する報知を行なう報知部315と、を備えるので、ユーザが探索対象物を見落としていても、特に意識することなく、装着型機器10から入力された画像に探索対象物が存在していれば、当該探索対象物の存在をユーザに報知することができる。   As described above in detail, according to the first embodiment, the information processing apparatus 30 inputs an image from the wearable device 10 that can be worn by the user, and whether a search target exists in the image. Since the detection unit 314 that detects whether or not and a notification unit 315 that performs notification regarding the search target are provided, even if the user overlooks the search target, it is input from the wearable device 10 without particular awareness. If there is a search object in the obtained image, the presence of the search object can be notified to the user.

また、本第1の実施形態によれば、検出部314は、複数の装着型機器10から画像を入力し、複数の装着型機器10から入力した複数の画像から探索対象物を検出する。これにより、探索対象物を探しているユーザとは異なるユーザが装着する装着型機器10により探索対象物が撮像された場合にも、探索対象物に関する報知を行うことができる。   Further, according to the first embodiment, the detection unit 314 receives images from the plurality of wearable devices 10 and detects a search target from the plurality of images input from the plurality of wearable devices 10. Thereby, even when the search target is imaged by the wearable device 10 worn by a user different from the user who is searching for the search target, notification regarding the search target can be performed.

また、本第1の実施形態によれば、報知部315は、探索対象物を探しているユーザとは異なるユーザが装着する装着型機器10が現在撮像している画像内に探索対象物が存在する場合に、当該異なるユーザに探索対象物に関する報知を行なう。これにより、探索対象物を含む画像を撮像している装着型機器10のユーザに対して、当該画像内に他のユーザの探索対象物が存在していることを報知することができる。   Further, according to the first embodiment, the notification unit 315 includes the search target in the image currently captured by the wearable device 10 worn by a user different from the user who is searching for the search target. In doing so, the user is notified of the search object. Accordingly, it is possible to notify the user of the wearable device 10 that is capturing an image including the search target that the search target of another user exists in the image.

なお、上記第1の実施形態では、報知部315は、ユーザが指定した探索対象物に関する報知を行っていたが、探索対象物に関連した、探索対象物とは異なる物品の情報を報知してもよい。例えば、ユーザが指定した探索対象物が「鍵」であり、鍵が鞄にしまわれた画像が撮像されていたとする。この場合、決定部313は、当該画像に基づき、ユーザが指定した「鍵」ではなく「鞄」を探索対象物として決定し、検出部314は、装着型機器10が撮像した画像内に鞄が存在するか否かを検出する。報知部315は、検出部314の検出結果に基づいて、鞄に関する情報(鞄の位置情報や、鞄が存在する画像)を装着型機器10に送信する。装着型機器10は、情報処理装置30から受信した情報に基づいて、表示部102に鞄に関する情報を表示する。これにより、探索対象物(鍵)が他の物品(鞄)に隠れてしまったり、収納されてしまった場合にも、ユーザに探索対象物に関する情報を提供することができる。   In the first embodiment, the notification unit 315 performs notification related to the search target specified by the user. However, the notification unit 315 notifies information related to the search target that is different from the search target. Also good. For example, it is assumed that the search target specified by the user is a “key” and an image in which the key is hidden is captured. In this case, the determination unit 313 determines “鞄” instead of the “key” designated by the user as a search target based on the image, and the detection unit 314 has a wrinkle in the image captured by the wearable device 10. Detect if it exists. Based on the detection result of the detection unit 314, the notification unit 315 transmits information related to wrinkles (position information of wrinkles and images in which wrinkles are present) to the wearable device 10. The wearable device 10 displays information about the bag on the display unit 102 based on the information received from the information processing device 30. Thereby, even when the search object (key) is hidden or stored in another article (bag), information related to the search object can be provided to the user.

なお、上記第1の実施形態においては、検出部314は、複数の装着型機器10から画像を入力し、複数の画像から探索対象物を検出していたが、1つの装着型機器10から入力された画像から探索対象物を検出してもよい。また、登録部312は、複数の装着型機器10からの入力に基づいて探索対象の物品を登録していたが、1つの装着型機器10からの入力に基づいて探索対象の物品を登録するようにしてもよい。また、上記第1の実施形態は、少なくとも1つの装着型機器10と情報処理装置30とから構成されるようにしてもよい。   In the first embodiment, the detection unit 314 inputs images from a plurality of wearable devices 10 and detects a search object from the plurality of images. However, the detection unit 314 inputs from one wearable device 10. The search object may be detected from the obtained image. In addition, the registration unit 312 has registered the search target article based on inputs from the plurality of wearable devices 10, but registers the search target article based on inputs from one wearable device 10. It may be. Further, the first embodiment may be configured by at least one wearable device 10 and the information processing apparatus 30.

また、上記第1の実施形態では、探索対象物情報テーブル(図3参照)の履歴画像の項目に画像が時系列に格納されていたが、常に最新の画像が格納されるようにしてもよい。また、例えば、各探索対象の物品に対して、所定数(例えば、10)の履歴画像が格納された場合には、最も古い履歴画像を、最新の履歴画像で上書きするようにしてもよい(FIFO:First In, First Out)。なお、複数の履歴画像を格納する場合には、報知部315が、当該履歴画像を時系列に装着型装置10の表示部102に表示させることで、探索対象物がどのような経緯で現在の位置に移動されたのかをユーザに報知してもよい。   In the first embodiment, images are stored in the history image item of the search target information table (see FIG. 3) in time series. However, the latest image may always be stored. . In addition, for example, when a predetermined number (for example, 10) of history images are stored for each search target article, the oldest history image may be overwritten with the latest history image ( FIFO: First In, First Out). In the case of storing a plurality of history images, the notification unit 315 displays the history images on the display unit 102 of the wearable device 10 in time series, so that the search target is current in what manner. You may alert | report to a user whether it was moved to the position.

なお、上記第1の実施形態において、上述した情報処理装置30が備える機能を、装着型機器10A,10Bのいずれかが備えていてもよい。この場合、例えば、装着型機器10Aは、ネットワーク50を介して、探索対象物情報テーブルに登録する情報を装着型機器10Bから受信したり、探索対象物に関する情報を装着型機器10Bに送信すればよい。また、上述した情報処理装置30が備える機能を、例えば、装着型機器10Aが有する場合、探索対象物情報テーブルに物品を登録し、探索対象物情報を蓄積し、探索対象物を検出する一連の処理を装着型機器10A単体で実施することができる。   In the first embodiment, any of the wearable devices 10A and 10B may have the function of the information processing apparatus 30 described above. In this case, for example, the wearable device 10A receives information to be registered in the search object information table from the wearable device 10B via the network 50, or transmits information related to the search object to the wearable device 10B. Good. Further, for example, when the wearable device 10A has the functions of the information processing apparatus 30 described above, a series of items for registering articles in the search target information table, accumulating search target information, and detecting search targets. The processing can be performed by the wearable device 10A alone.

《第2の実施形態》
次に、第2の実施形態について説明する。第2の実施形態は、装着型機器が第1の実施形態の情報処理装置30の機能を備えるものである。
<< Second Embodiment >>
Next, a second embodiment will be described. In the second embodiment, the wearable device has the function of the information processing apparatus 30 of the first embodiment.

図10は、第2の実施形態に係る情報処理システム500Bの構成を例示するブロック図である。図10に示すように、情報処理システム500Bは、装着型機器10Cと、物品側機器40とを備える。   FIG. 10 is a block diagram illustrating the configuration of an information processing system 500B according to the second embodiment. As illustrated in FIG. 10, the information processing system 500 </ b> B includes a wearable device 10 </ b> C and an article-side device 40.

(物品側機器40)
物品側機器40は、ユーザが所持する物品等、探索対象物となりうる物品に取り付けられる。物品側機器40は、記憶部401と、通信ユニット402と、を備える。
(Article side device 40)
The article-side device 40 is attached to an article that can be a search target, such as an article possessed by a user. The article-side device 40 includes a storage unit 401 and a communication unit 402.

記憶部401は、例えば、不揮発性の半導体メモリであり、物品側機器40が取り付けられた物品の物品名と、当該物品が画像内に存在するか否かを検出するときに使用される物品の基準画像とを記憶する。   The storage unit 401 is, for example, a non-volatile semiconductor memory, and the article name of the article to which the article-side device 40 is attached and the article used when detecting whether or not the article exists in the image. The reference image is stored.

通信ユニット402は、他の機器と通信を行うものであり、例えばBluetooth(登録商標)、RFID(Radio Frequency Identification)、TransferJet(登録商標)などの近接通信や、人体を介した人体通信などを用いることができる。本実施形態では、通信ユニット402は、物品のユーザと接触する部分に設けられた電極部402Bと、当該電極部402Bを用いて人体通信を行う人体通信部402Aと、を備える。本実施形態では、人体通信部402Aは、ユーザが装着型機器10Cを装着し、かつ、ユーザが物品側機器40を備える物品を保持した状態で、装着型機器10Cの人体通信部110Aと通信し、記憶部401に記憶された、物品名及び物品の検出に用いられる基準画像を装着型機器10Cに送信する。なお、人体通信には、人体に微弱な電流を流して、その電流を変調して情報を伝達する電流方式や、人体の表面に誘起する電界を変調して情報を伝達する電界方式などがある。本実施形態では、電流方式及び電界方式のいずれのタイプを用いることも可能である。なお、ユーザが素手である場合(すなわち、電極が手と接触している場合)はもちろん、手袋を着用している場合(すなわち、電極が手と対向している場合)でも、人体通信は可能である。   The communication unit 402 communicates with other devices, and uses, for example, proximity communication such as Bluetooth (registered trademark), RFID (Radio Frequency Identification), TransferJet (registered trademark), or human body communication via a human body. be able to. In the present embodiment, the communication unit 402 includes an electrode unit 402B provided in a portion of the article that comes into contact with the user, and a human body communication unit 402A that performs human body communication using the electrode unit 402B. In the present embodiment, the human body communication unit 402A communicates with the human body communication unit 110A of the wearable device 10C in a state where the user wears the wearable device 10C and the user holds an article including the article-side device 40. The article name and the reference image used to detect the article stored in the storage unit 401 are transmitted to the wearable device 10C. Human body communication includes a current system in which a weak current is passed through the human body and the current is modulated to transmit information, and an electric field system in which information is transmitted by modulating an electric field induced on the surface of the human body. . In this embodiment, it is possible to use either the current method or the electric field method. Note that human communication is possible not only when the user is bare hands (that is, when the electrode is in contact with the hand) but also when wearing gloves (ie, when the electrode is facing the hand). It is.

(装着型機器10C)
装着型機器10Cは、通信ユニット110を備える点、記憶部107が記憶する情報、及び、制御部109が備える機能が、第1の実施形態の装着型機器10A,10Bと異なる。以下、装着型機器10Cと装着型機器10A,10Bとの相違点を中心に詳細に説明する。
(Wearable device 10C)
The wearable device 10C is different from the wearable devices 10A and 10B of the first embodiment in that the wearable device 10C includes the communication unit 110, information stored in the storage unit 107, and a function included in the control unit 109. Hereinafter, the difference between the wearable device 10C and the wearable devices 10A and 10B will be described in detail.

通信ユニット110は、他の機器と通信を行うものであり、例えばBluetooth(登録商標)、RFID、TransferJet(登録商標)などの近接通信や、人体を介した人体通信などを用いることができる。本実施形態では、通信ユニット110は、例えば、フレーム120のうちユーザと接触する部分(例えば、フレーム120のユーザ側)に設けられた電極部110Bと、当該電極部110Bを用いて人体通信を行う人体通信部110Aと、を備える。本実施形態では、人体通信部110Aは、ユーザが装着型機器10Cを装着し、かつ、ユーザが物品側機器40を備える物品を保持した状態で、物品側機器40の人体通信部402Aと通信し、物品側機器40の記憶部401に記憶された、物品名及び基準画像を物品側機器40から受信する。   The communication unit 110 communicates with other devices. For example, proximity communication such as Bluetooth (registered trademark), RFID, TransferJet (registered trademark), or human body communication via a human body can be used. In the present embodiment, for example, the communication unit 110 performs human body communication using the electrode unit 110B provided on a part of the frame 120 that contacts the user (for example, the user side of the frame 120) and the electrode unit 110B. A human body communication unit 110A. In the present embodiment, the human body communication unit 110A communicates with the human body communication unit 402A of the article side device 40 in a state where the user wears the wearable device 10C and the user holds an article including the article side device 40. The article name and the reference image stored in the storage unit 401 of the article side device 40 are received from the article side device 40.

記憶部107は、図3に示した探索対象物情報テーブルを記憶する。   The storage unit 107 stores the search object information table shown in FIG.

制御部109は、CPUがプログラムを実行することで、図10に示す情報蓄積部111、登録部112、決定部113、検出部114、及び報知部115として機能する。   The control unit 109 functions as the information storage unit 111, the registration unit 112, the determination unit 113, the detection unit 114, and the notification unit 115 illustrated in FIG. 10 when the CPU executes a program.

情報蓄積部111は、探索対象物情報蓄積処理を実行し、撮像部101が撮像した画像のうち、探索対象の物品が含まれる画像を、履歴画像として探索対象物情報テーブルに登録する。なお、情報蓄積部111が実行する探索対象物情報蓄積処理は、撮像部101から画像を入力する点以外は、図6に示したフローチャートと同様の処理であるため、詳細な説明を省略する。   The information storage unit 111 executes a search target information storage process, and registers an image including the search target article among the images captured by the imaging unit 101 as a history image in the search target information table. The search target information storage process executed by the information storage unit 111 is the same as the flowchart shown in FIG. 6 except that an image is input from the imaging unit 101, and thus detailed description thereof is omitted.

登録部112は、後述する探索対象登録処理を実行して、必要な情報を記憶部107に登録する。   The registration unit 112 executes a search target registration process described later, and registers necessary information in the storage unit 107.

決定部113、記憶部107に登録されている物品のうち、操作部103又はマイク104を用いてユーザにより指定された物品を、探索対象物として決定し、検出部114に出力する。   Of the articles registered in the determination unit 113 and the storage unit 107, an article designated by the user using the operation unit 103 or the microphone 104 is determined as a search target and output to the detection unit 114.

検出部114は、撮像部101が撮像した画像に決定部113により決定された探索対象物が存在するか否かを検出し、検出結果を報知部115に出力する。   The detection unit 114 detects whether or not the search target determined by the determination unit 113 exists in the image captured by the imaging unit 101, and outputs the detection result to the notification unit 115.

報知部115は、表示部102又はスピーカ106を用いて、検出部114による検出結果に基づき、探索対象物に関する情報を報知する。例えば、報知部115は、撮像部101が現在撮像している画像(ライブビュー画像)とともに、探索対象物の存在を示す情報を表示部102に表示する。   The notification unit 115 uses the display unit 102 or the speaker 106 to notify information related to the search target based on the detection result by the detection unit 114. For example, the notification unit 115 displays information indicating the presence of the search target on the display unit 102 together with the image (live view image) currently captured by the imaging unit 101.

(探索対象登録処理)
次に、登録部112が実行する探索対象登録処理について、図11のフローチャートを参照して説明する。本実施形態において、探索対象登録処理は、ユーザが装着型機器10Cの電源を入れると開始される。これに代えて、物品側機器40との人体通信もしくは近接通信が成立したことにより装着型機器10Cの電源が入り、探索対象登録処理が開始されるようにしてもよい。
(Search target registration process)
Next, the search target registration process executed by the registration unit 112 will be described with reference to the flowchart of FIG. In the present embodiment, the search target registration process is started when the user turns on the wearable device 10C. Instead, the wearable device 10C may be turned on when the human body communication or the proximity communication with the article-side device 40 is established, and the search target registration process may be started.

図11の処理では、まず、登録部112は、物品側機器40との人体通信が成立しているか否かを判断する(ステップS101)。言い換えれば、登録部112は、ユーザが物品側機器40を備えた物品を手に取ったか否かを判断する。これにより、ユーザが物品を手にしている画像が撮像部101により撮像されない場合でも、ユーザが手にした物品を登録することができる。物品側機器40との人体通信が成立していない場合には(ステップS101/NO)、登録部112は、物品側機器40との人体通信が成立するまでステップS101の判断を繰り返す。   In the process of FIG. 11, the registration unit 112 first determines whether or not human body communication with the article-side device 40 is established (step S101). In other words, the registration unit 112 determines whether the user has picked up an article provided with the article-side device 40. Thereby, even when the image of the user holding the article is not captured by the imaging unit 101, the article acquired by the user can be registered. When the human body communication with the article side device 40 is not established (step S101 / NO), the registration unit 112 repeats the determination at step S101 until the human body communication with the article side device 40 is established.

一方、物品側機器40との人体通信が成立した場合(ステップS101/YES)、登録部112は、通信ユニット110を介して、物品側機器40の記憶部401に記憶されている物品名と基準画像とを物品側機器40から受信する(ステップS103)。   On the other hand, when human body communication with the article-side device 40 is established (step S101 / YES), the registration unit 112 stores the article name and reference stored in the storage unit 401 of the article-side device 40 via the communication unit 110. The image is received from the article side device 40 (step S103).

続いて、登録部112は、図4のステップS15と同様に、ステップS103で取得した物品の情報が、既に、探索対象物情報テーブル(図3参照)に登録されているか否かを判断する(ステップS105)。ここでの判断が肯定された場合、登録部112は、ステップS101に戻るが、否定された場合には、図4のステップS17と同様に、ステップS103で取得した物品の情報を、探索対象物情報テーブル(図3参照)に登録する(ステップS107)。   Subsequently, as in step S15 in FIG. 4, the registration unit 112 determines whether or not the article information acquired in step S103 has already been registered in the search target information table (see FIG. 3) (see FIG. 3). Step S105). If the determination here is affirmed, the registration unit 112 returns to step S101. If the determination is negative, the registration unit 112 uses the information on the article acquired in step S103 as the search target, as in step S17 of FIG. The information is registered in the information table (see FIG. 3) (step S107).

以上の処理により、ユーザが手に取った物品が、自動的に記憶部107の探索対象物情報テーブルに登録される。   Through the above processing, the article picked up by the user is automatically registered in the search object information table of the storage unit 107.

(探索対象物検出処理)
次に、制御部109が実行する探索対象物検出処理について図12のフローチャートを用いて説明する。本実施形態において、装着型機器10Cは、ユーザから操作部103やマイク104を介して探索対象物の探索要求を受け付けると、探索対象物検出処理を開始する。例えば、装着型機器10Cのユーザである父親がマイク104に向かって「探し物」と発音すると、装着型機器10Cは、探索対象物の探索要求を受け付けたと判断し、図12の処理を開始する。
(Search object detection process)
Next, search object detection processing executed by the control unit 109 will be described with reference to the flowchart of FIG. In the present embodiment, the wearable device 10 </ b> C starts the search object detection process when receiving a search request for the search object from the user via the operation unit 103 or the microphone 104. For example, when a father who is a user of the wearable device 10C pronounces “search object” toward the microphone 104, the wearable device 10C determines that a search request for a search object has been received, and starts the process of FIG. .

図12の処理において、まず、制御部109が備える決定部113が、探索対象物を決定する(ステップS141)。例えば、決定部113は、操作部103又はスピーカ106を介して、ユーザから探索対象物の探索要求を受け付けると、記憶部107に記憶された探索対象物情報テーブルに登録されている物品名の一覧、あるいは、基準画像の一覧を表示部102に表示する。決定部113は、ユーザが探索対象物情報テーブルの一覧から、例えば、操作部103を用いて選択した物品を探索対象物として決定し、検出部114に出力する。   In the process of FIG. 12, first, the determination unit 113 included in the control unit 109 determines a search target (step S141). For example, when the determination unit 113 receives a search request for a search target from the user via the operation unit 103 or the speaker 106, a list of article names registered in the search target information table stored in the storage unit 107. Alternatively, a list of reference images is displayed on the display unit 102. The determination unit 113 determines, for example, an article selected by the user using the operation unit 103 from the list of the search target information table as a search target, and outputs it to the detection unit 114.

次に、検出部114が、撮像部101が現在撮像している画像を入力する(ステップS143)。   Next, the detection unit 114 inputs an image currently captured by the imaging unit 101 (step S143).

検出部114は、撮像部101が現在撮像している画像内に、決定部113から入力された探索対象物が存在するか否かを判断する(ステップS145)。ここでの判断が肯定された場合、報知部115は、撮像部101が現在撮像している画像内に探索対象物を示す情報(例えば、矢印や、マーカ等:図9(A)のマーカ330参照)を付加して、表示部102に表示する(ステップS147)。これにより、装着型機器10Cのユーザは、自分の視界には入っているが見落としている探索対象物に気づくことができる。   The detection unit 114 determines whether or not the search target input from the determination unit 113 is present in the image currently captured by the imaging unit 101 (step S145). When the determination here is affirmed, the notification unit 115 displays information indicating the search target in the image currently captured by the imaging unit 101 (for example, an arrow, a marker, etc .: the marker 330 in FIG. 9A). Reference) is added and displayed on the display unit 102 (step S147). As a result, the user of the wearable device 10 </ b> C can notice a search target that is in his or her field of view but is overlooked.

一方、撮像部101が現在撮像している画像内に、探索対象物が存在しない場合(ステップS145/NO)、検出部114はステップS143の処理を開始してから所定時間(例えば、10秒)が経過したか否かを判断する(ステップS149)。   On the other hand, when the search target does not exist in the image currently captured by the imaging unit 101 (step S145 / NO), the detection unit 114 starts a process of step S143 for a predetermined time (for example, 10 seconds). It is determined whether or not elapses (step S149).

所定時間が経過してない場合には、検出部114はステップS143からの処理を再び実行するが、所定時間が経過した場合には、図8のステップS55〜ステップS61と同様に、ステップS151〜ステップS157の処理を実行する。そして、決定部113は、ユーザから探索対象物の検出を終了する指示を受け付けると(ステップS157/YES)、図12の全処理を終了する。   When the predetermined time has not elapsed, the detection unit 114 executes the processing from step S143 again. However, when the predetermined time has elapsed, the detection unit 114 performs steps S151 to S151 similarly to steps S55 to S61 in FIG. The process of step S157 is executed. And the determination part 113 will complete | finish all the processes of FIG. 12, if the instruction | indication which complete | finishes the detection of a search target object is received from a user (step S157 / YES).

以上、詳細に説明したように、本第2の実施形態によれば、装着型機器10Cは、ユーザに装着可能であり、画像を撮像する撮像部101と、撮像部101が撮像した画像に、探索対象物が存在するか否かを検出する検出部114と、検出結果に応じて、探索対象物に関する報知を行なう報知部115と、を備えるので、ユーザが探索対象物を見落としていても、撮像部101が撮像した画像に探索対象物が存在していれば、当該探索対象物の存在をユーザに報知することができる。   As described above in detail, according to the second embodiment, the wearable device 10C can be worn by the user, and the imaging unit 101 that captures an image and the image captured by the imaging unit 101 are Since the detection unit 114 that detects whether or not the search target exists and the notification unit 115 that performs notification regarding the search target according to the detection result are provided, even if the user overlooks the search target, If there is a search target in the image captured by the imaging unit 101, the presence of the search target can be notified to the user.

また、本第2の実施形態によれば、装着型機器10Cは、探索対象物となりうる物品を登録する登録部112を備え、登録部112は、物品側機器40との人体通信により、ユーザが手にした物品を登録するので、ユーザに特別な操作を強いることなく、自動的に手にした物品を登録することができる。本第2の実施形態の登録方法を第1の実施形態に適用するようにしてもよい。   Further, according to the second embodiment, the wearable device 10 </ b> C includes the registration unit 112 that registers an article that can be a search target, and the registration unit 112 is configured so that the user can perform a human body communication with the article-side device 40. Since the article obtained is registered, the article obtained automatically can be registered without forcing the user to perform a special operation. The registration method of the second embodiment may be applied to the first embodiment.

また、報知部115は、撮像部101が現在撮像している画像に探索対象物が存在しない場合、撮像部101が過去に撮像した探索対象物が存在する画像の中から、最新の画像を表示部102に表示するため、ユーザは最後に探索対象物が撮像された画像を利用して、探索対象物を探す場所を変更する等の対応をとることが出来る。   Further, when there is no search target in the image currently captured by the imaging unit 101, the notification unit 115 displays the latest image from among the images in which the search target captured by the imaging unit 101 exists in the past. Since the image is displayed on the unit 102, the user can take an action such as changing the place where the search object is searched using the image in which the search object is finally captured.

また、報知部115は、撮像部101が現在撮像している画像内に、探索対象物が存在する場合に、探索対象物の存在を示す情報を表示部102に表示するため、ユーザは自身の視界には入っているが見落としていた探索対象物の存在に気付くことが出来る。   In addition, the notification unit 115 displays information indicating the presence of the search target on the display unit 102 when the search target exists in the image currently captured by the imaging unit 101. You can notice the presence of search objects that are in sight but have been overlooked.

なお、上記第2の実施形態において、決定部113は、例えば、他の装着型機器10と通信を行って、他のユーザが探している物品の情報(基準画像)を受信し、他のユーザが探している物品を、探索対象物として決定してもよい。この場合、検出部114が探索対象物を検出した場合に、報知部315は、探索対象物を探しているユーザとは異なる装着型機器10Cのユーザに、他のユーザが探している物品が撮像部101が撮像する画像内に存在することを報知してもよい。   In the second embodiment, the determination unit 113 communicates with, for example, another wearable device 10 to receive information (reference image) of an article that another user is looking for, and the other user May be determined as an object to be searched. In this case, when the detection unit 114 detects a search target, the notification unit 315 captures an image of an article that another user is looking for with a user of the wearable device 10C that is different from the user who is searching for the search target. You may alert | report that the part 101 exists in the image imaged.

なお、上記第2の実施形態において、登録部112は、第1の実施形態の登録部312と同様、撮像部101の撮像した画像に基づいた登録を行ってもよい。すなわち、ユーザが物品を手にしている場合に撮像部101による撮像を行って登録処理を行ってもよい。   Note that in the second embodiment, the registration unit 112 may perform registration based on the image captured by the imaging unit 101 as in the registration unit 312 of the first embodiment. That is, when the user is holding an article, the registration process may be performed by performing imaging by the imaging unit 101.

なお、上記各実施形態において、装着型機器10A〜10Cは、眼鏡型の端末ではなくてもよい。例えば、体の任意の位置に装着可能な装着型端末であってもよく、その機能の一部が分離していてもよい。一例を挙げると、表示部を備えたコンタクトレンズ型の端末として、他の機能を腕時計型の端末に持たせるようにしてもよい。   In each of the above embodiments, the wearable devices 10A to 10C may not be glasses-type terminals. For example, it may be a wearable terminal that can be worn at any position on the body, and some of its functions may be separated. As an example, a wristwatch type terminal may have other functions as a contact lens type terminal provided with a display unit.

また、上記各実施形態においては、探索対象を自動で登録していたが、ユーザがマニュアルで登録してもよい。この場合、例えば、ユーザが探索対象として登録したい物品を撮像部101により撮像し、操作部103の操作により探索対象物情報テーブルに登録すればよい。また、多機能携帯(スマートフォン)や、タブレット型の端末により登録したい物品を撮像し、登録処理を行うようにしてもよい。   Moreover, in each said embodiment, although the search object was registered automatically, a user may register manually. In this case, for example, an article that the user wants to register as a search target may be captured by the imaging unit 101 and registered in the search target information table by operating the operation unit 103. Further, an image of an article to be registered may be captured by a multi-function mobile phone (smart phone) or a tablet-type terminal, and the registration process may be performed.

また、上記各実施形態においては、探索対象として物品(例えば、鍵K10)を登録していたが、探索対象は物品に限られるものではない。例えば、ホームページ上に掲載されている店舗の外観写真を探索対象として登録してもよい。この場合、制御部109は、撮像部101が撮像した画像に店舗が存在する場合に、ユーザに報知を行う。これにより、当該店舗がユーザの視界に入っているにもかかわらず、ユーザが見落としている場合に、ユーザは店舗の存在に気付くことができる。   Further, in each of the above embodiments, an article (for example, key K10) is registered as a search target, but the search target is not limited to the article. For example, you may register the external appearance photograph of the store published on the homepage as a search object. In this case, the control unit 109 notifies the user when a store exists in the image captured by the imaging unit 101. Thereby, even if the said store is in the user's view, the user can notice the presence of the store when the user overlooks it.

また、例えば、探索対象としてキーワード(テキスト情報)を登録してもよい。この場合、制御部109は、ユーザが見ている(読んでいる)紙媒体を撮像部101が撮像した画像をOCR処理し、当該画像の中にキーワード(例えば、キーワード「期日」)が存在するか否かを判断する。そして、制御部109は、画像の中にキーワードが存在していた場合に、キーワードを取り囲むマーカ330等を表示部102に表示することにより、ユーザにキーワードの存在を報知する(図13参照)。これにより、ユーザは、自分が読んでいる文章の中にキーワードが存在するにも関わらず見落としている場合等において、当該キーワードの存在に気付くことができる。なお、制御部109は、紙媒体の中からキーワードを検出する場合に限らず、携帯型の端末の表示部に表示された画像内においてキーワードを検出したり、ユーザが見ている景色(例えば、案内表示板や、街中の看板など)からキーワードを検出したりすることもできる。   Further, for example, a keyword (text information) may be registered as a search target. In this case, the control unit 109 performs OCR processing on an image captured by the image capturing unit 101 on a paper medium that the user is viewing (reading), and a keyword (for example, the keyword “due date”) exists in the image. Determine whether or not. Then, when a keyword is present in the image, the control unit 109 notifies the user of the presence of the keyword by displaying a marker 330 or the like surrounding the keyword on the display unit 102 (see FIG. 13). Thereby, the user can notice the presence of the keyword when the keyword is overlooked even though the keyword is present in the sentence that the user is reading. The control unit 109 is not limited to detecting a keyword from a paper medium, but can detect a keyword in an image displayed on a display unit of a portable terminal or a landscape (for example, It is also possible to detect a keyword from a guidance display board or a signboard in the city.

また、上記各実施形態において、検出部314,114は、探索対象物を検出する場合に、探索対象物を検出する時間帯等に応じて基準画像を修正するようにしてもよい。例えば、店舗の外観写真を基準画像として登録した場合において、当該写真が日中に撮像されたものであり、店舗を検出する時間帯が夜間である場合、検出部314,114は、明るさ等を修正した基準画像を用いて、店舗を検出してもよい。   In each of the above embodiments, when detecting the search object, the detection units 314 and 114 may correct the reference image according to a time zone in which the search object is detected. For example, when a store exterior photo is registered as a reference image and the photo is taken during the day, and the time zone during which the store is detected is nighttime, the detection units 314 and 114 are set to brightness, etc. A store may be detected using a reference image in which is corrected.

また、上記各実施形態において、報知部315,115は、探索対象物に関する報知を、ユーザが探索対象物を見落としたと判断できるタイミングで行ってもよい。例えば、装着型機器10の撮像部101が、探索対象物を含む画像を撮像し、その後、探索対象物を含まない画像を撮像した場合に、報知部315,115が報知を行うようにしてもよい。これにより、頻繁に報知が行われることによる、ユーザの煩わしさを低減することができる。   Further, in each of the above embodiments, the notification units 315 and 115 may perform notification regarding the search target at a timing at which the user can determine that the search target is overlooked. For example, when the imaging unit 101 of the wearable device 10 captures an image including a search target and then captures an image that does not include the search target, the notification units 315 and 115 perform notification. Good. Thereby, the troublesomeness of the user due to frequent notification can be reduced.

なお、上記各実施形態では、制御部109が、表示部102に、探索対象物として、矢印や、マーカ等を表示する場合について説明したがこれに限られるものではない。例えば、装着型機器10がユーザの視線の方向を検出可能な視線検出部を備えている場合には、制御部109は、視線検出部により検出されたユーザの視線の方向と、探索対象物の位置とに基づいて、ユーザの視線を誘導することとしてもよい。この場合、制御部109は、例えば、表示部102を用いて、ユーザの視線の方向にマークを表示し、当該マークを徐々に探索対象物の方向に移動させてもよい。また、制御部109は、スピーカ106を用いて“頭を動かさずに少し左側を見てください”などの音声を出力し、ユーザの視線を誘導することとしてもよい。   In each of the above embodiments, the case where the control unit 109 displays an arrow, a marker, or the like as the search target object on the display unit 102 has been described. However, the present invention is not limited to this. For example, when the wearable device 10 includes a line-of-sight detection unit that can detect the direction of the user's line of sight, the control unit 109 detects the direction of the user's line of sight detected by the line-of-sight detection unit and the search target object. The user's line of sight may be guided based on the position. In this case, for example, the control unit 109 may display a mark in the direction of the user's line of sight using the display unit 102 and gradually move the mark in the direction of the search target. Further, the control unit 109 may output a sound such as “please look at the left side without moving the head” using the speaker 106 to guide the user's line of sight.

なお、上記の処理機能は、コンピュータによって実現することができる。その場合、処理装置(CPU)が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体(ただし、搬送波は除く)に記録しておくことができる。   The above processing functions can be realized by a computer. In that case, a program describing the processing contents of the functions that the processing device (CPU) should have is provided. By executing the program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium (except for a carrier wave).

プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD(Digital Versatile Disc)、CD−ROM(Compact Disc Read Only Memory)などの可搬型記録媒体の形態で販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。   When the program is distributed, for example, it is sold in the form of a portable recording medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disc Read Only Memory) on which the program is recorded. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.

プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。   The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.

上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。   The above-described embodiment is an example of a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.

10A,10B,10C 装着型機器
30 情報処理装置
101 撮像部
102 表示部
112 登録部
113 決定部
114 検出部
115 報知部
301 通信部
313 決定部
314 検出部
315 報知部
10A, 10B, 10C Wearable device 30 Information processing apparatus 101 Imaging unit 102 Display unit 112 Registration unit 113 Determination unit 114 Detection unit 115 Notification unit 301 Communication unit 313 Determination unit 314 Detection unit 315 Notification unit

Claims (14)

ユーザに装着可能な電子機器からの画像を入力する入力部と、
前記画像に探索対象物が存在するか否かを検出する検出部と、
前記探索対象物に関する報知を行なう報知部と、を備える情報処理装置。
An input unit for inputting an image from an electronic device attachable to the user;
A detection unit for detecting whether a search object exists in the image;
An information processing apparatus comprising: a notification unit that performs notification regarding the search object.
前記入力部は、複数の電子機器から画像を入力し、
前記検出部は、前記複数の電子機器から入力した複数の画像から前記探索対象物を検出する請求項1記載の情報処理装置。
The input unit inputs images from a plurality of electronic devices,
The information processing apparatus according to claim 1, wherein the detection unit detects the search object from a plurality of images input from the plurality of electronic devices.
前記探索対象物を決定する決定部を備える請求項1または2記載の情報処理装置。   The information processing apparatus according to claim 1, further comprising a determination unit that determines the search object. 前記報知部は、前記ユーザとは異なるユーザに前記探索対象物に関する報知を行なう請求項1から3のいずれか一項に記載の情報処理装置。   The information processing apparatus according to any one of claims 1 to 3, wherein the notification unit notifies a user different from the user of the search target object. 前記報知部は、前記探索対象物に関する位置情報を報知する請求項1から4のいずれか一項に記載の情報処理装置。   The information processing apparatus according to any one of claims 1 to 4, wherein the notification unit notifies position information related to the search object. 前記報知部は、前記探索対象物に関連し、前記探索対象物とは異なる物品の情報を報知する請求項1から5のいずれか一項に記載の情報処理装置。   The information processing apparatus according to any one of claims 1 to 5, wherein the notification unit is configured to notify information on an article that is related to the search target and is different from the search target. ユーザに装着可能であり、画像を撮像する撮像部と、
前記画像に、探索対象物が存在するか否かを検出する検出部と、
前記検出の結果に応じて、前記探索対象物に関する報知を行なう報知部と、を備える電子機器。
An imaging unit that is attachable to a user and that captures an image;
A detection unit for detecting whether or not a search object exists in the image;
An electronic device comprising: a notification unit that performs notification regarding the search object according to a result of the detection.
前記報知部は、前記ユーザとは異なるユーザに前記探索対象物に関する報知を行なう請求項7記載の電子機器。   The electronic device according to claim 7, wherein the notification unit notifies a user different from the user about the search object. 前記探索対象物を決定する決定部を備える請求項7または8記載の電子機器。   The electronic device according to claim 7, further comprising a determining unit that determines the search object. 前記探索対象物を登録する登録部を備え、
前記登録部は、前記撮像部の撮像した情報に基づき前記探索対象物を登録する請求項9記載の電子機器。
A registration unit for registering the search object;
The electronic device according to claim 9, wherein the registration unit registers the search object based on information captured by the imaging unit.
前記探索対象物を登録する登録部を備え、
前記登録部は、前記ユーザが手にした物品を前記探索対象物として登録する請求項9記載の電子機器。
A registration unit for registering the search object;
The electronic device according to claim 9, wherein the registration unit registers an article obtained by the user as the search object.
前記検出部は、前記決定部が前記探索対象物を決定した後、前記決定された探索対象物が前記画像に存在するか否かの検出を開始し、
前記報知部は、前記探索対象物に関する情報のうち最新の情報を報知する請求項9から11のいずれか一項に記載の電子機器。
The detection unit starts detecting whether the determined search target exists in the image after the determination unit determines the search target,
The electronic device according to any one of claims 9 to 11, wherein the notification unit notifies the latest information of information related to the search target object.
前記画像を表示する表示部を備え、
前記報知部は、前記撮像部が現在撮像している画像内に、前記探索対象物が存在する場合に、前記探索対象物の存在を示す情報を前記表示部に表示する請求項7から12のいずれか一項に記載の電子機器。
A display unit for displaying the image;
13. The notification unit displays information indicating the presence of the search target on the display unit when the search target exists in an image currently captured by the imaging unit. The electronic device as described in any one.
前記報知部は、前記画像に、前記探索対象物が存在することが検出された場合に、当該画像を表示する請求項7から12のいずれか一項に記載の電子機器。   The electronic device according to any one of claims 7 to 12, wherein the notification unit displays the image when the search object is detected to be present in the image.
JP2014001991A 2014-01-08 2014-01-08 Information processing apparatus and electronic apparatus Pending JP2015130631A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014001991A JP2015130631A (en) 2014-01-08 2014-01-08 Information processing apparatus and electronic apparatus
PCT/JP2015/050061 WO2015105075A1 (en) 2014-01-08 2015-01-05 Information processing apparatus and electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014001991A JP2015130631A (en) 2014-01-08 2014-01-08 Information processing apparatus and electronic apparatus

Publications (1)

Publication Number Publication Date
JP2015130631A true JP2015130631A (en) 2015-07-16

Family

ID=53523902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014001991A Pending JP2015130631A (en) 2014-01-08 2014-01-08 Information processing apparatus and electronic apparatus

Country Status (2)

Country Link
JP (1) JP2015130631A (en)
WO (1) WO2015105075A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020042840A (en) * 2019-11-20 2020-03-19 富士ゼロックス株式会社 Information processing device, information processing method, information processing system, and program
JP7466318B2 (en) 2020-01-27 2024-04-12 キヤノンメディカルシステムズ株式会社 Image information processing device and image information processing system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4192719B2 (en) * 2003-08-22 2008-12-10 ソニー株式会社 Image processing apparatus and method, and program
JP5517170B2 (en) * 2011-10-27 2014-06-11 パイオニア株式会社 Display device and control method
JP6024135B2 (en) * 2012-03-15 2016-11-09 カシオ計算機株式会社 Subject tracking display control device, subject tracking display control method and program
JP2013218476A (en) * 2012-04-06 2013-10-24 Denso Corp Image recognition device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020042840A (en) * 2019-11-20 2020-03-19 富士ゼロックス株式会社 Information processing device, information processing method, information processing system, and program
JP7466318B2 (en) 2020-01-27 2024-04-12 キヤノンメディカルシステムズ株式会社 Image information processing device and image information processing system

Also Published As

Publication number Publication date
WO2015105075A1 (en) 2015-07-16

Similar Documents

Publication Publication Date Title
US10390213B2 (en) Social reminders
US11551726B2 (en) Video synthesis method terminal and computer storage medium
AU2015296833B2 (en) Providing notifications based on user activity data
US9594807B2 (en) Emotion-related query processing
US8948451B2 (en) Information presentation device, information presentation method, information presentation system, information registration device, information registration method, information registration system, and program
US9020918B2 (en) Information registration device, information registration method, information registration system, information presentation device, informaton presentation method, informaton presentaton system, and program
KR20160046622A (en) Wearable device and method for transmitting contents
CN104408402A (en) Face identification method and apparatus
JP6092761B2 (en) Shopping support apparatus and shopping support method
CN110933468A (en) Playing method, playing device, electronic equipment and medium
CN103886284A (en) Character attribute information identification method and device and electronic device
WO2013179883A1 (en) Electronic apparatus and garment
US10747490B2 (en) Method and device for displaying an image transmitted from a wearable device
JP2015191554A (en) Electronic apparatus
WO2015105075A1 (en) Information processing apparatus and electronic device
US10219127B2 (en) Information processing apparatus and information processing method
JP2015138534A (en) Electronic device
CN110196633A (en) The method and apparatus of provider location is provided using augmented reality system
JP2007133531A (en) Attention state detection device and attention state detection method
CN110928867A (en) Data fusion method and device
JP5977697B2 (en) Electronic device and method for controlling electronic device
CN115209032B (en) Image acquisition method and device based on cleaning robot, electronic equipment and medium
AU2017100235A4 (en) Social reminders
JP2017011454A (en) Wearable device
CN112925903A (en) Text classification method and device, electronic equipment and medium