JP2015130631A - Information processing apparatus and electronic apparatus - Google Patents
Information processing apparatus and electronic apparatus Download PDFInfo
- Publication number
- JP2015130631A JP2015130631A JP2014001991A JP2014001991A JP2015130631A JP 2015130631 A JP2015130631 A JP 2015130631A JP 2014001991 A JP2014001991 A JP 2014001991A JP 2014001991 A JP2014001991 A JP 2014001991A JP 2015130631 A JP2015130631 A JP 2015130631A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- image
- user
- search target
- search
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Abstract
Description
本発明は、情報処理装置及び電子機器に関する。 The present invention relates to an information processing apparatus and an electronic apparatus.
従来より、人物の視線を検出可能なメガネをかけた被験者(ユーザ)の視線を推定・追跡するシステムが知られている(例えば、特許文献1参照)。 Conventionally, a system that estimates and tracks the line of sight of a subject (user) wearing glasses capable of detecting the line of sight of a person is known (see, for example, Patent Document 1).
しかしながら、上記特許文献1では、ユーザの視線から商品などに対するユーザの注目度を評価するのにとどまり、例えば、ユーザの視界には入っているがユーザが注目していない、あるいは見落としている情報等については何ら考慮されていない。
However, in the above-mentioned
本発明は上記の課題に鑑みてなされたものであり、探索対象物に関する情報をユーザに報知できる情報処理装置及び電子機器を提供することを目的とする。 The present invention has been made in view of the above problems, and an object thereof is to provide an information processing apparatus and an electronic apparatus that can notify a user of information related to a search target.
本発明の情報処理装置(30)は、ユーザに装着可能な電子機器(10A)からの画像を入力する入力部(301)と、前記画像に探索対象物が存在するか否かを検出する検出部(314)と、前記探索対象物に関する報知を行なう報知部(315)と、を備える。 An information processing apparatus (30) of the present invention includes an input unit (301) for inputting an image from an electronic device (10A) that can be worn by a user, and detection for detecting whether or not a search target exists in the image. A section (314) and a notification section (315) for performing notification regarding the search object.
この場合において、入力部は、複数の電子機器(10A,10B)から画像を入力し、前記検出部は、前記複数の電子機器から入力した複数の画像から前記探索対象物を検出することとしてもよい。また、本発明の情報処理装置は、前記探索対象物を決定する決定部(313)を備えていてもよい。 In this case, the input unit may input images from a plurality of electronic devices (10A, 10B), and the detection unit may detect the search object from the plurality of images input from the plurality of electronic devices. Good. Further, the information processing apparatus of the present invention may include a determination unit (313) that determines the search object.
また、本発明において、前記報知部は、前記ユーザとは異なるユーザに前記探索対象物に関する報知を行なうこととしてもよいし、前記探索対象物に関する位置情報を報知することとしてもよいし、前記探索対象物に関連し、前記探索対象物とは異なる物品の情報を報知することとしてもよい。 Moreover, in this invention, the said alerting | reporting part is good also as alerting | reporting the said search target object to the user different from the said user, good also as notifying the positional information regarding the said search target object, and the said search. Information on an article that is related to the object and is different from the search object may be notified.
本発明の電子機器(10C)は、ユーザに装着可能であり、画像を撮像する撮像部(101)と、前記画像に、探索対象物が存在するか否かを検出する検出部(114)と、前記検出の結果に応じて、前記探索対象物に関する報知を行なう報知部(115)と、を備える。 The electronic device (10C) of the present invention can be worn by a user, and includes an imaging unit (101) that captures an image, and a detection unit (114) that detects whether or not a search target exists in the image. And a notifying unit (115) for notifying the search target object according to the detection result.
この場合において、前記報知部は、前記ユーザとは異なるユーザに前記探索対象物に関する報知を行なうこととしてもよい。また、本発明において、電子機器は、前記探索対象物を決定する決定部(113)を備えていてもよい。 In this case, the notification unit may notify a user different from the user of the search target object. In the present invention, the electronic device may include a determination unit (113) that determines the search object.
また、本発明の電子機器は、前記探索対象物を登録する登録部(112)を備え、前記登録部は、前記撮像部の撮像した情報に基づき前記探索対象物を登録することとしてもよいし、前記登録部は、前記ユーザが手にした物品を前記探索対象物として登録することとしてもよい。 Moreover, the electronic device of the present invention may include a registration unit (112) for registering the search target, and the registration unit may register the search target based on information captured by the imaging unit. The registration unit may register an article obtained by the user as the search object.
また、本発明において、前記検出部は、前記決定部が前記探索対象物を決定した後、前記決定された探索対象物が前記画像に存在するか否かの検出を開始し、前記報知部は、前記探索対象物に関する情報のうち最新の情報を報知することとしてもよい。 Further, in the present invention, the detection unit starts detecting whether or not the determined search object exists in the image after the determination unit determines the search object, The latest information among the information on the search object may be notified.
また、本発明の電子機器は、前記画像を表示する表示部(102)を備え、前記報知部は、前記撮像部が現在撮像している画像内に、前記探索対象物が存在する場合に、前記探索対象物の存在を示す情報を前記表示部に表示することとしてもよい。また、本発明において、前記報知部は、前記画像に、前記探索対象物が存在することが検出された場合に、当該画像を表示することとしてもよい。 In addition, the electronic apparatus of the present invention includes a display unit (102) that displays the image, and the notification unit is configured such that when the search target is present in an image that the imaging unit is currently capturing, Information indicating the presence of the search object may be displayed on the display unit. In the present invention, the notification unit may display the image when the search object is detected to be present in the image.
なお、本発明をわかりやすく説明するために、上記においては一実施形態を表す図面の符号に対応つけて説明したが、本発明は、これに限定されるものではなく、後述の実施形態の構成を適宜改良しても良く、また、少なくとも一部を他の構成物に代替させても良い。更に、その配置について特に限定のない構成要件は、実施形態で開示した配置に限らず、その機能を達成できる位置に配置することができる。 In addition, in order to explain the present invention in an easy-to-understand manner, the above description has been made in association with the reference numerals of the drawings representing one embodiment. However, the present invention is not limited to this, and the configuration of an embodiment described later May be modified as appropriate, or at least a part thereof may be replaced with another component. Further, the configuration requirements that are not particularly limited with respect to the arrangement are not limited to the arrangement disclosed in the embodiment, and can be arranged at a position where the function can be achieved.
本発明の情報処理装置及び電子機器は、探索対象物に関する情報をユーザに報知することができるという効果を奏する。 The information processing apparatus and the electronic apparatus according to the present invention have an effect of being able to notify the user of information related to the search target.
《第1の実施形態》
以下、第1の実施形態について、図1〜図9に基づいて、詳細に説明する。図1には、第1の実施形態に係る情報処理システム500Aの構成がブロック図にて示されている。情報処理システム500Aは、ユーザが探し物を見つけるのを支援するシステムである。
<< First Embodiment >>
Hereinafter, the first embodiment will be described in detail with reference to FIGS. FIG. 1 is a block diagram showing the configuration of an information processing system 500A according to the first embodiment. The information processing system 500A is a system that supports a user to find a search object.
図1に示すように、情報処理システム500Aは、装着型機器10A,10Bと、情報処理装置30と、を備える(利用する)。装着型機器10A,10Bと、情報処理装置30とは、ネットワーク50に接続されている。ネットワーク50は、例えば、公衆無線LAN(Local Area Network)、インターネット、携帯電話回線網などを含む。
As illustrated in FIG. 1, the information processing system 500A includes (uses)
(装着型機器10A,10B)
装着型機器10A,10Bは、ユーザが身体(顔)に装着する眼鏡型の端末である。本実施形態では、父親が装着型機器10Aを使用し、母親が装着型機器10Bを使用しているものとする。なお、本実施形態において装着型機器10A,10Bは同一の構成を有するため、以後、特に区別する必要のない限り、装着型機器10A,10Bを装着型機器10と記載し説明を行う。
(
The
装着型機器10は、図1に示すように、撮像部101と、表示部102と、操作部103と、マイク104と、位置検出部105と、スピーカ106と、記憶部107と、通信部108と、制御部109と、を備える。なお、図2には、装着型機器10が斜視図にて示されている。図2に示すように、装着型機器10は、眼鏡型のフレーム120を備えている。なお、図1において図示され、図2において図示されていない装着型機器10の構成は、フレーム120の内部や、フレーム120の一部に設けられているものとする。
As shown in FIG. 1, the
撮像部101は、レンズ、撮像素子、画像処理部などを備え、静止画や動画を撮像するものである。撮像部101は、図2に示すようにフレーム120の端部近傍(ユーザの右目近傍)に設けられている。このため、ユーザが装着型機器10を装着した状態では、ユーザが向いている(見ている)方向の画像を撮像することができる。
The
表示部102は、フレーム120内部又はフレーム120近傍に設けられたプロジェクタと、プロジェクタからの投影像をユーザの目に導くためのプリズムとを有している。表示部102は、制御部109の制御の下、各種情報を表示する。
The
操作部103は、フレーム120に設けられたタッチパッドであり、ユーザの指の動きを検知して、ユーザからの操作を受け付け、受け付けた操作情報を制御部109に送信する。なお、撮像部101、表示部102、操作部103などについては、例えば米国公開特許2013/0044042号にもその詳細が開示されている。
The
マイク104は、フレーム120に設けられ、ユーザが発した音声を収集する。マイク104が収集した音声は、不図示の音声認識部により音声認識され、音声認識結果は、制御部109に送信される。制御部109は、音声認識結果に基づく処理(例えば、コマンドの実行処理など)を実行する。なお、制御部109が音声認識を実行してもよい。
The
位置検出部105は、例えば、GPS(Global Positioning System)センサを有しており、装着型機器10の位置を検出し、装着型機器10の位置情報(緯度、経度)を制御部109に出力する。これに代えて、位置情報(緯度、経度)を地図情報や場所情報に紐付けて記憶部107に記憶させて、制御部109が位置情報(緯度、経度)に基づき、例えば会社、自宅(リビング、寝室)というような場所情報を提供するようにしてもよい。
The
スピーカ106は、例えば、フレーム120に設けられ、制御部109の制御の下、音声を出力する音声出力装置である。なお、スピーカ106としては、イヤホンやヘッドホンのほか、指向性があり、主に装着型機器10を装着するユーザの耳に向けて音声情報を提供することが可能なスピーカなどを採用することができる。
The
記憶部107は、例えば、フラッシュメモリ等の不揮発性の半導体メモリであり、撮像部101が撮像した画像データや、上述したような地図データ、場所データや、表示部102に表示する表示データなどを記憶する。
The
通信部108は、ネットワーク50を介して、情報処理装置30との間で通信を行う。本第1の実施形態では、通信部108は、制御部109の制御の下、撮像部101が撮像した画像を、位置検出部105が検出した位置情報とともに情報処理装置30に送信したり、情報処理装置30からユーザが探している物品(以後、探索対象物と記載する)を含む画像を受信したりする。
The
制御部109は、装着型機器10全体を統括的に制御する。制御部109は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備える。制御部109は、探索対象物をユーザが見つけるために必要な情報を、通信部108を介して情報処理装置30に送信したり、情報処理装置30から受信したりする。例えば、制御部109は、通信部108を介して、撮像部101が撮像した画像を、位置検出部105が検出した位置情報とともに情報処理装置30に送信する。また、制御部109は、操作部103やマイク104を介してユーザから受け付けた指示に関する情報を情報処理装置30に送信する。また、制御部109は、情報処理装置30から、探索対象物に関する情報を受信し、表示部102に表示したり、スピーカ106から音声を出力することにより、探索対象物に関する報知を行う。
The
(情報処理装置30)
情報処理装置30は、例えば、サーバであり、図1に示すように、通信部301と、制御部302と、記憶部303と、を備える。
(Information processing apparatus 30)
The
通信部301は、ネットワーク50を介して、装着型機器10との間で無線通信または有線通信を行う。本第1の実施形態では、通信部301は、ユーザが探索対象物を見つけるのに必要な情報を、装着型機器10から受信したり、装着型機器10に送信したりする。例えば、通信部301は、装着型機器10の撮像部101が撮像した画像を装着型機器10から受信し、制御部302に出力する。また、通信部301は、制御部302の制御の下、後述する記憶部303に記憶された画像データを装着型機器10に送信する。
The
記憶部303は、例えば、ハードディスクドライブであり、探索対象物に関連する情報を記憶する。本第1の実施形態において、記憶部303は、図3に示す、探索対象物情報テーブルを記憶する。探索対象物情報テーブルは、物品名、登録ユーザ、基準画像、及び履歴画像の項目を備える。探索対象物情報テーブルにデータを登録するには、例えば、ユーザが登録したい物品を装着型機器10の撮像部101により撮像するとともに、撮像した物品の名称を発声する。マイク104は当該音声を収集し、不図示の音声認識部により音声認識した物品名と、撮像部101が撮像した画像とを制御部109が情報処理装置30に送信すればよい。情報処理装置30は、受信した物品名を物品名の項目に登録し、撮像部101が撮像した画像を基準画像の項目に登録する。これにより、ユーザはハンズフリーで登録操作を行うことができる。これに代えて、探索対象物情報テーブルへのデータの登録は、多機能携帯機器(スマートフォン)や、タブレット型端末の撮像部や、タッチパネルなどのユーザインターフェースを用いるとともに、ネットワーク50を利用して情報処理装置30にこの登録情報を送信するようにしてもよい。
The
なお、情報処理装置30に画像認識部が設けられている場合には、ユーザによる物品名の入力を省略することができる。この場合、物品名(例えば家の鍵)ではなく物品のカテゴリ(例えば鍵)を探索対象物情報テーブルに登録してもよい。この場合、ユーザは登録したい物品を撮像するとともに、登録ボタンをタッチしたり、登録という言葉を発声するようにすればよい。また、画像認識部による画像認識には、画像データの特徴点を、例えばSURF(Speeded Up Robust Features)やSIFT(Scale Invariant Feature Transform)といった周知の特徴量検出アルゴリズムを用いればよい。
Note that when the image recognition unit is provided in the
登録ユーザの項目には、この物品名を登録したユーザが登録される。基準画像の項目には、後述する検出部314が、装着型機器10の撮像部101が撮像した画像の中に探索対象物が含まれるか否かを検出するときに使用する画像が格納される。履歴画像の項目には、装着型機器10の撮像部101が撮像した画像が、撮像日時及び撮像位置の情報と共に時系列に格納される。
The user who registered the article name is registered in the item of registered user. In the item of the reference image, an image used when the
制御部302は、情報処理装置30全体を統括的に制御する。制御部302は、CPU、RAM、ROM等を備える。制御部302では、CPUがプログラムを実行することで、図1に示す情報蓄積部311、登録部312、決定部313、検出部314、及び報知部315として機能する。
The
情報蓄積部311は、通信部301が装着型機器10から受信した画像を入力する。情報蓄積部311は、入力した画像のうち、探索対象物情報テーブルに登録されている物品を含む画像を、当該物品の履歴画像として記憶部303の探索対象物情報テーブル(図3参照)に記憶する。情報蓄積部311が実行する処理の詳細については後述する。
The
登録部312は、物品を記憶部303の探索対象物情報テーブルに登録する。
The
決定部313は、記憶部303に登録されている物品の中から、探索の対象となる物品、すなわち、探索対象物を決定し、検出部314に出力する。
The
検出部314は、決定部313が決定した探索対象物が、装着型機器10の撮像部101が撮像した画像内に存在するか否かを検出し、検出結果を報知部315に出力する。
The
報知部315は、検出結果に基づいて、探索対象物に関する報知を行う。例えば、報知部315は、通信部301を介して、探索対象物の検出結果を装着型機器10に送信する。報知部315から検出結果を受信した装着型機器10の制御部109は、表示部102やスピーカ106等を用いて、ユーザに、探索対象物の情報を報知する。
The alerting | reporting
(情報処理装置30の処理)
次に、情報処理装置30の制御部302が実行する処理について、図4のフローチャートを参照して説明する。本実施形態において、図4に示す処理は、ユーザが装着型機器10の電源を入れ、装着型機器10と情報処理装置30との間で通信が成立すると開始される。
(Processing of information processing apparatus 30)
Next, processing executed by the
図4の処理では、まず、決定部313が、装着型機器10から探索対象物の探索要求を受け付けたか否かを判断する(ステップS10)。例えば、父親が装着型機器10Aのマイク104に向かって「探し物」と発音すると、装着型機器10Aから情報処理装置30に探索対象物の探索要求が送信される。決定部313は、当該探索要求を装着型機器10から受信すると、ステップS40に移行する。なお、探索対象物の探索要求の送信は、例えば、ユーザによる操作部103に対する所定の動作(例えば、タップ)があった場合に行うこととしてもよい。
In the process of FIG. 4, first, the
一方、決定部313が、装着型機器10から探索対象物の探索要求を受け付けていない場合には、登録部312及び情報蓄積部311が、通信部301を介して、装着型機器10から撮像部101が撮像した画像を入力する(ステップS11)。このとき、情報蓄積部311は、装着型機器10の位置検出部105が検出した位置情報も、装着型機器10から受信する。なお、登録部312及び情報蓄積部311は、装着型機器10A,10Bからそれぞれ画像を入力する。装着型機器10A,10Bから画像を入力するタイミングは、同時であってもよいし、異なっていてもよい。
On the other hand, when the determining
次に、登録部312は、前述の画像認識部を用いて、ステップS11で入力した画像を解析し、当該画像においてユーザが物品を手にしているか否かを判断する(ステップS13)。ここでの判断が否定された場合、情報蓄積部311はステップS20の探索対象物情報蓄積処理を実行する。
Next, the
一方、登録部312は、図5(A)のような画像を解析した結果、ユーザが物品を手にしていると判断した場合(ステップS13/YES)、ユーザが手にしている物品が、既に記憶部303の探索対象物情報テーブルに登録されているか否かを判断する(ステップS15)。例えば、登録部312は、ステップS11において、図5(A)に示す画像を入力した場合、鍵K10の画像を抽出し、抽出した鍵K10の画像と、探索対象物情報テーブル(図3参照)の基準画像との間でパターンマッチングを行い、ユーザが手にしている鍵K10が既に探索対象物情報テーブルに登録されているか否かを判断する。
On the other hand, as a result of analyzing the image as shown in FIG. 5A, the
ユーザが手にしている物品が既に探索対象物情報テーブルに登録されている場合(ステップS15/YES)、情報蓄積部311はステップS20の探索対象物情報蓄積処理を実行する。
When the article that the user is holding is already registered in the search target information table (step S15 / YES), the
一方、ユーザが手にしている物品が探索対象物情報テーブルに登録されていない場合(ステップS15/NO)、登録部312は、ユーザが手にしている物品を探索対象物情報テーブルに登録する(ステップS17)。例えば、図5(A)に示すように、父親が使用する装着型機器10Aから入力した画像において、父親が鍵K10を手にしていたとする。この場合、登録部312は、ステップS13の処理で抽出した鍵K10の画像を基準画像として探索対象物情報テーブルに登録するとともに、装着型機器10Aの使用者である父親を、登録ユーザの項目に登録する(図5(C)参照)。また、登録部312は、記憶部303に予め記憶されている各種物品のテンプレート画像と基準画像との間でマッチングを行い、抽出した画像の物品名を特定し、物品名の項目に登録する(図5(C)の例では、「鍵」)。なお、各物品のテンプレート画像には、各物品の名称が関連付けられているものとする。なお、このとき、登録部312は、図5(B)に示すように、前述の画像認識部を用いて、手に隠れた部分の画像を補間した画像を基準画像として登録してもよい。
On the other hand, when the article held by the user is not registered in the search target information table (step S15 / NO), the
ステップS17の処理の終了後は、ステップS10に戻る。なお、図4のフローチャートにおいては、ユーザが物品を手にしていることを条件に探索対象として登録したが、ユーザが物品を注視している場合に登録処理を実行するようにしてもよい。この場合、撮像部101による撮像時間が5秒以上続いたり、撮像部101で撮像された中で一番面積が大きい物品や、所定の大きさ(撮像領域の1/5以上の面積)を有した物品を探索対象として登録してもよい。また、ユーザが登録したい物品を撮像した後、登録ボタンをタッチすることにより、登録処理を実行するようにしてもよい。
After the process of step S17 is complete | finished, it returns to step S10. In the flowchart of FIG. 4, the search target is registered on the condition that the user is holding the article. However, the registration process may be executed when the user is watching the article. In this case, the imaging time by the
(探索対象物情報蓄積処理)
次に、図4のステップS20の探索対象物情報蓄積処理の詳細について、図6のフローチャートを参照して説明する。ユーザが探索対象として登録する物品は、ユーザがその置き場所を忘れがちなため、本フローチャートでは探索対象の物品の撮像履歴(撮像日時、撮像位置、撮像場所など)を更新するものである。なお、情報蓄積部311は、撮像履歴に変化がないことを認識した時点で本フローチャートを終了するようにしてもよい。
(Search object information accumulation process)
Next, details of the search target information accumulation process in step S20 of FIG. 4 will be described with reference to the flowchart of FIG. The article registered as the search target by the user tends to be forgotten by the user, so in this flowchart, the imaging history (imaging date, imaging position, imaging location, etc.) of the search target article is updated. Note that the
図6の処理では、情報蓄積部311は、図4のステップS11において入力した画像に、探索対象物情報テーブルに登録されている物品が存在するか否かを判断する(ステップS23)。例えば、情報蓄積部311は、探索対象物情報テーブルの基準画像の項目に登録されている基準画像と、入力した画像との間でパターンマッチングを行い、画像内に探索対象の物品が存在するか否かを判断する。ここでの判断が否定された場合、情報蓄積部311は、図6の全処理を終了し、図4のステップS10に戻る。
In the process of FIG. 6, the
一方、画像内に探索対象の物品が存在する場合(ステップS23/YES)、情報蓄積部311は、図4のステップS11で入力した画像を、当該画像が撮像された日時情報及び位置情報とともに、例えば、RAMに一次記憶する(ステップS25)。
On the other hand, when the search target article exists in the image (step S23 / YES), the
次に、情報蓄積部311は、再び、装着型機器10から画像を入力し(ステップS27)、ステップS23と同様に、入力した画像に探索対象の物品が存在するか否かを判断する(ステップS29)。探索対象の物品が存在する場合には、情報蓄積部311は、ステップS25に戻り、RAMに一次記憶されている情報を、ステップS27で入力した画像と、当該画像が撮像された日時情報及び位置情報とで上書きする。
Next, the
一方、入力した画像に探索対象の物品が存在しない場合(ステップS29/NO)、情報蓄積部311は、RAMに一次記憶されている画像を、探索対象物情報テーブルの履歴画像の項目に登録した後(ステップS31)、図6の全処理を終了し、図4のステップS10に戻る。例えば、図7(A)に示すように、母親の装着型機器10Bから入力した画像に、父親の探索対象の物品である鍵K10が存在していたとする。この場合、情報蓄積部311は、装着型機器10Bから入力した画像(図7(A))を「鍵」の履歴画像の項目に、当該画像が撮像された日時情報及び位置情報と共に登録する。このように、探索対象物情報テーブルの履歴画像の項目には、登録ユーザ(例えば、父親)の装着型機器10の撮像部101が撮像した画像に加えて登録ユーザとは異なるユーザ(例えば、母親)の装着型機器10の撮像部101が探索対象の物品を撮像した場合にも、当該探索対象の物品が最後に撮像されたときの画像が履歴画像として登録される。
On the other hand, when the search target article does not exist in the input image (step S29 / NO), the
上述した処理により、各ユーザの装着型機器10の撮像部101が撮像した探索対象物を含む画像のうち、ステップS25〜S29の処理が繰り返された最後に、RAM等に一次記憶されていた画像が、履歴画像として記憶部303に記憶される。
Of the images including the search target imaged by the
(探索対象物検出処理)
次に、図4のステップS40の探索対象物検出処理について、図8のフローチャートを参照しつつ詳細に説明する。以下の説明では、父親が鍵K10を探す場合について説明する。
(Search object detection process)
Next, the search target object detection process in step S40 of FIG. 4 will be described in detail with reference to the flowchart of FIG. In the following description, a case where the father searches for the key K10 will be described.
図8の処理において、まず、決定部313が、探索対象物情報テーブルから探索対象物を決定する(ステップS41)。例えば、決定部313は、装着型機器10Aから探索対象物の探索要求を受け付けると、記憶部303に記憶された探索対象物情報テーブルにおいて、登録ユーザの項目に装着型機器10Aの使用者である“父親”が登録されている物品名の一覧、あるいは、基準画像の一覧を装着型機器10Aに送信する。なお、決定部313は、父親で登録された探索対象の物品がない場合には、母親で登録された探索対象の物品を参照するようにしてもよい。このように家族や、友人、特定のグループで登録された探索対象の物品を共有するようにしてもよい。装着型機器10Aの制御部109は、情報処理装置30から受信した当該物品名の一覧を表示部102に表示する。そして、例えば、ユーザが操作部103を用いて探索対象物を選択すると、制御部109は、通信部108を介してユーザが選択した探索対象物の情報を情報処理装置30に送信する。なお、ユーザが、装着型機器10のマイク104に向かって探索対象の物品の名称「鍵」を発音することによって、探索対象物を指定してもよい。この場合、決定部313は、家の鍵や車の鍵など探索対象物情報テーブルに記憶されている鍵の情報を探索対象物として検出部314に出力する。
In the process of FIG. 8, the
次に、検出部314が、装着型機器10の撮像部101が現在撮像している画像を入力する(ステップS43)。なお、このとき、検出部314は、装着型機器10A,10Bからそれぞれ画像を入力する。装着型機器10A,10Bから画像を入力するタイミングは、同時であってもよいし、異なっていてもよい。
Next, the
続いて、検出部314は、ステップS43で入力した画像内に、決定部313から入力した探索対象物が存在するか否かを判断する(ステップS45)。例えば、検出部314は、ステップS43で入力した画像と、鍵K10の基準画像(図5(B)参照)との間でパターンマッチングを行い、撮像部101が撮像している画像内に、鍵K10が存在するか否かを判断する。
Subsequently, the
ステップS43で入力した画像内に探索対象物が存在する場合(ステップS45/YES)、検出部314は、当該画像が、探索対象物の検出を依頼した依頼者(ここでは、父親)の装着型機器10Aから入力された画像であるか否かを判断する(ステップS47)。
When a search target exists in the image input in step S43 (step S45 / YES), the
探索対象物が存在する画像が、探索対象物の検出を依頼した依頼者(ここでは、父親)の装着型機器10Aから入力された画像である場合(ステップS47/YES)、報知部315は、当該画像内における探索対象物の位置を装着型機器10Aに通知する(ステップS49)ことにより、探索対象物に関する報知を行う。探索対象物の位置を情報処理装置30から受信した装着型機器10Aの制御部109は、表示部102に、撮像部101が現在撮像している画像を表示するとともに、探索対象物を示す情報(例えば、矢印や、マーカ等:図9(A)のマーカ330参照)を表示する。なお、表示部102に、撮像部101が現在撮像している画像を表示せず、探索対象物を示す情報(マーカ330)を、ユーザの視界に重畳するように表示してもよい。これにより、装着型機器10Aのユーザ(父親)は、視界には入っているが見落としていた探索対象物に気づくことができる。
When the image in which the search target exists is an image input from the
一方、探索対象物が存在する画像が、例えば、母親の装着型機器10Bから入力された画像であった場合、ステップS47の判断が否定される。この場合、報知部315が、探索対象物が存在する画像を入力した装着型機器10を使用する他のユーザ(例えば、装着型機器10Bを使用する母親)に、探索対象物に関する報知を行う(ステップS51)。例えば、報知部315は、探索対象物(鍵)が存在する画像(図9(B)参照)が装着型機器10Bから入力されたものである場合、父親が探索対象物(鍵)を探していること、及び、装着型機器10Bの撮像部101が現在撮像する画像における探索対象物の位置を装着型機器10Bに通知する。当該情報を受信した装着型機器10Bの制御部109は、表示部102に探索対象物を示す情報(例えば、矢印や、マーカ等)を表示するとともに、父親が当該探索対象物を探していることを表示部102に表示したり、スピーカ106を用いて音声により母親に報知する。これにより、母親は、父親が鍵K10を探していることを知ることができるとともに、自分の視界に入っている探索対象物(鍵K10)を見つけて、父親に渡す等の対応をとることができる。
On the other hand, when the image in which the search target exists is, for example, an image input from the mother's
ところで、ステップS43で入力した画像内に、探索対象物が存在しない場合(ステップS45/NO)、検出部314はステップS43の処理を開始してから所定時間(例えば、10秒)が経過したか否かを判断する(ステップS53)。
By the way, when the search object does not exist in the image input in step S43 (step S45 / NO), has the predetermined time (for example, 10 seconds) elapsed since the
所定時間が経過していない場合、検出部314はステップS43からの処理を再び実行するが、所定時間が経過した場合には、記憶部303に記憶されている探索対象物情報テーブルにおいて、探索対象物に対して履歴画像が登録されているか否かを判断する(ステップS55)。
When the predetermined time has not elapsed, the
探索対象物に対して履歴画像が登録されている場合(ステップS55/YES)、報知部315は、当該履歴画像の中で撮像日時が最も新しい画像を装着型機器10Aに送信する(ステップS57)。装着型機器10Aの制御部109は、情報処理装置30から受信した当該画像を表示部102に表示する。これにより、探索対象物(鍵K10)が最後に存在した場所を父親に報知することができる。父親は、装着型機器10のいずれかが最後に探索対象物(鍵K10)を撮像した場所を知ることができ、探索対象物を探す場所を変えたりするなどの対応をとることができる。なお、このとき、報知部315は、探索対象物が最後に撮像されたときの位置情報(緯度、経度)を報知するようにしてもよい。これにより、ユーザが探索対象物をより見つけやすくなる。
When a history image is registered for the search target (step S55 / YES), the
一方、探索対象物に対して履歴画像が登録されていない場合(ステップS55/NO)、報知部315は、探索対象物を検出できない旨を装着型機器10Aに通知する(ステップS59)。
On the other hand, when the history image is not registered for the search target (step S55 / NO), the
続いて、決定部313が、装着型機器10Aから探索対象物の検出を終了する指示があったか否かを判断する(ステップS61)。例えば、装着型機器10Aの操作部103を用いて父親が探索対象物の検出を終了する指示を入力した場合、装着型機器10Aは探索対象物の検出を終了する指示を情報処理装置30に送信する。決定部313は、当該指示を装着型機器10Aから受信すると、探索対象物の検出を終了する指示を受け付けたと判断して(ステップS61/YES)、図8の全処理を終了し、図4のステップS10に戻る。一方、当該指示を受信していない場合、検出部314が、ステップS43からの処理を再び実行する。なお、図4の処理は、音声や操作部103の操作により所定のコマンドが入力されたタイミングや、装着型機器10の電源がOFFされたタイミングで強制終了される。なお、図8のフローチャートにおいて、ステップS43に先立ってステップS55を実施するなど各ステップの順番を変更してもよい。
Subsequently, the
以上、詳細に説明したように、本第1の実施形態によれば、情報処理装置30は、ユーザに装着可能な装着型機器10から画像を入力し、当該画像に探索対象物が存在するか否かを検出する検出部314と、探索対象物に関する報知を行なう報知部315と、を備えるので、ユーザが探索対象物を見落としていても、特に意識することなく、装着型機器10から入力された画像に探索対象物が存在していれば、当該探索対象物の存在をユーザに報知することができる。
As described above in detail, according to the first embodiment, the
また、本第1の実施形態によれば、検出部314は、複数の装着型機器10から画像を入力し、複数の装着型機器10から入力した複数の画像から探索対象物を検出する。これにより、探索対象物を探しているユーザとは異なるユーザが装着する装着型機器10により探索対象物が撮像された場合にも、探索対象物に関する報知を行うことができる。
Further, according to the first embodiment, the
また、本第1の実施形態によれば、報知部315は、探索対象物を探しているユーザとは異なるユーザが装着する装着型機器10が現在撮像している画像内に探索対象物が存在する場合に、当該異なるユーザに探索対象物に関する報知を行なう。これにより、探索対象物を含む画像を撮像している装着型機器10のユーザに対して、当該画像内に他のユーザの探索対象物が存在していることを報知することができる。
Further, according to the first embodiment, the
なお、上記第1の実施形態では、報知部315は、ユーザが指定した探索対象物に関する報知を行っていたが、探索対象物に関連した、探索対象物とは異なる物品の情報を報知してもよい。例えば、ユーザが指定した探索対象物が「鍵」であり、鍵が鞄にしまわれた画像が撮像されていたとする。この場合、決定部313は、当該画像に基づき、ユーザが指定した「鍵」ではなく「鞄」を探索対象物として決定し、検出部314は、装着型機器10が撮像した画像内に鞄が存在するか否かを検出する。報知部315は、検出部314の検出結果に基づいて、鞄に関する情報(鞄の位置情報や、鞄が存在する画像)を装着型機器10に送信する。装着型機器10は、情報処理装置30から受信した情報に基づいて、表示部102に鞄に関する情報を表示する。これにより、探索対象物(鍵)が他の物品(鞄)に隠れてしまったり、収納されてしまった場合にも、ユーザに探索対象物に関する情報を提供することができる。
In the first embodiment, the
なお、上記第1の実施形態においては、検出部314は、複数の装着型機器10から画像を入力し、複数の画像から探索対象物を検出していたが、1つの装着型機器10から入力された画像から探索対象物を検出してもよい。また、登録部312は、複数の装着型機器10からの入力に基づいて探索対象の物品を登録していたが、1つの装着型機器10からの入力に基づいて探索対象の物品を登録するようにしてもよい。また、上記第1の実施形態は、少なくとも1つの装着型機器10と情報処理装置30とから構成されるようにしてもよい。
In the first embodiment, the
また、上記第1の実施形態では、探索対象物情報テーブル(図3参照)の履歴画像の項目に画像が時系列に格納されていたが、常に最新の画像が格納されるようにしてもよい。また、例えば、各探索対象の物品に対して、所定数(例えば、10)の履歴画像が格納された場合には、最も古い履歴画像を、最新の履歴画像で上書きするようにしてもよい(FIFO:First In, First Out)。なお、複数の履歴画像を格納する場合には、報知部315が、当該履歴画像を時系列に装着型装置10の表示部102に表示させることで、探索対象物がどのような経緯で現在の位置に移動されたのかをユーザに報知してもよい。
In the first embodiment, images are stored in the history image item of the search target information table (see FIG. 3) in time series. However, the latest image may always be stored. . In addition, for example, when a predetermined number (for example, 10) of history images are stored for each search target article, the oldest history image may be overwritten with the latest history image ( FIFO: First In, First Out). In the case of storing a plurality of history images, the
なお、上記第1の実施形態において、上述した情報処理装置30が備える機能を、装着型機器10A,10Bのいずれかが備えていてもよい。この場合、例えば、装着型機器10Aは、ネットワーク50を介して、探索対象物情報テーブルに登録する情報を装着型機器10Bから受信したり、探索対象物に関する情報を装着型機器10Bに送信すればよい。また、上述した情報処理装置30が備える機能を、例えば、装着型機器10Aが有する場合、探索対象物情報テーブルに物品を登録し、探索対象物情報を蓄積し、探索対象物を検出する一連の処理を装着型機器10A単体で実施することができる。
In the first embodiment, any of the
《第2の実施形態》
次に、第2の実施形態について説明する。第2の実施形態は、装着型機器が第1の実施形態の情報処理装置30の機能を備えるものである。
<< Second Embodiment >>
Next, a second embodiment will be described. In the second embodiment, the wearable device has the function of the
図10は、第2の実施形態に係る情報処理システム500Bの構成を例示するブロック図である。図10に示すように、情報処理システム500Bは、装着型機器10Cと、物品側機器40とを備える。
FIG. 10 is a block diagram illustrating the configuration of an
(物品側機器40)
物品側機器40は、ユーザが所持する物品等、探索対象物となりうる物品に取り付けられる。物品側機器40は、記憶部401と、通信ユニット402と、を備える。
(Article side device 40)
The article-
記憶部401は、例えば、不揮発性の半導体メモリであり、物品側機器40が取り付けられた物品の物品名と、当該物品が画像内に存在するか否かを検出するときに使用される物品の基準画像とを記憶する。
The
通信ユニット402は、他の機器と通信を行うものであり、例えばBluetooth(登録商標)、RFID(Radio Frequency Identification)、TransferJet(登録商標)などの近接通信や、人体を介した人体通信などを用いることができる。本実施形態では、通信ユニット402は、物品のユーザと接触する部分に設けられた電極部402Bと、当該電極部402Bを用いて人体通信を行う人体通信部402Aと、を備える。本実施形態では、人体通信部402Aは、ユーザが装着型機器10Cを装着し、かつ、ユーザが物品側機器40を備える物品を保持した状態で、装着型機器10Cの人体通信部110Aと通信し、記憶部401に記憶された、物品名及び物品の検出に用いられる基準画像を装着型機器10Cに送信する。なお、人体通信には、人体に微弱な電流を流して、その電流を変調して情報を伝達する電流方式や、人体の表面に誘起する電界を変調して情報を伝達する電界方式などがある。本実施形態では、電流方式及び電界方式のいずれのタイプを用いることも可能である。なお、ユーザが素手である場合(すなわち、電極が手と接触している場合)はもちろん、手袋を着用している場合(すなわち、電極が手と対向している場合)でも、人体通信は可能である。
The
(装着型機器10C)
装着型機器10Cは、通信ユニット110を備える点、記憶部107が記憶する情報、及び、制御部109が備える機能が、第1の実施形態の装着型機器10A,10Bと異なる。以下、装着型機器10Cと装着型機器10A,10Bとの相違点を中心に詳細に説明する。
(Wearable device 10C)
The wearable device 10C is different from the
通信ユニット110は、他の機器と通信を行うものであり、例えばBluetooth(登録商標)、RFID、TransferJet(登録商標)などの近接通信や、人体を介した人体通信などを用いることができる。本実施形態では、通信ユニット110は、例えば、フレーム120のうちユーザと接触する部分(例えば、フレーム120のユーザ側)に設けられた電極部110Bと、当該電極部110Bを用いて人体通信を行う人体通信部110Aと、を備える。本実施形態では、人体通信部110Aは、ユーザが装着型機器10Cを装着し、かつ、ユーザが物品側機器40を備える物品を保持した状態で、物品側機器40の人体通信部402Aと通信し、物品側機器40の記憶部401に記憶された、物品名及び基準画像を物品側機器40から受信する。
The
記憶部107は、図3に示した探索対象物情報テーブルを記憶する。
The
制御部109は、CPUがプログラムを実行することで、図10に示す情報蓄積部111、登録部112、決定部113、検出部114、及び報知部115として機能する。
The
情報蓄積部111は、探索対象物情報蓄積処理を実行し、撮像部101が撮像した画像のうち、探索対象の物品が含まれる画像を、履歴画像として探索対象物情報テーブルに登録する。なお、情報蓄積部111が実行する探索対象物情報蓄積処理は、撮像部101から画像を入力する点以外は、図6に示したフローチャートと同様の処理であるため、詳細な説明を省略する。
The
登録部112は、後述する探索対象登録処理を実行して、必要な情報を記憶部107に登録する。
The
決定部113、記憶部107に登録されている物品のうち、操作部103又はマイク104を用いてユーザにより指定された物品を、探索対象物として決定し、検出部114に出力する。
Of the articles registered in the
検出部114は、撮像部101が撮像した画像に決定部113により決定された探索対象物が存在するか否かを検出し、検出結果を報知部115に出力する。
The detection unit 114 detects whether or not the search target determined by the
報知部115は、表示部102又はスピーカ106を用いて、検出部114による検出結果に基づき、探索対象物に関する情報を報知する。例えば、報知部115は、撮像部101が現在撮像している画像(ライブビュー画像)とともに、探索対象物の存在を示す情報を表示部102に表示する。
The
(探索対象登録処理)
次に、登録部112が実行する探索対象登録処理について、図11のフローチャートを参照して説明する。本実施形態において、探索対象登録処理は、ユーザが装着型機器10Cの電源を入れると開始される。これに代えて、物品側機器40との人体通信もしくは近接通信が成立したことにより装着型機器10Cの電源が入り、探索対象登録処理が開始されるようにしてもよい。
(Search target registration process)
Next, the search target registration process executed by the
図11の処理では、まず、登録部112は、物品側機器40との人体通信が成立しているか否かを判断する(ステップS101)。言い換えれば、登録部112は、ユーザが物品側機器40を備えた物品を手に取ったか否かを判断する。これにより、ユーザが物品を手にしている画像が撮像部101により撮像されない場合でも、ユーザが手にした物品を登録することができる。物品側機器40との人体通信が成立していない場合には(ステップS101/NO)、登録部112は、物品側機器40との人体通信が成立するまでステップS101の判断を繰り返す。
In the process of FIG. 11, the
一方、物品側機器40との人体通信が成立した場合(ステップS101/YES)、登録部112は、通信ユニット110を介して、物品側機器40の記憶部401に記憶されている物品名と基準画像とを物品側機器40から受信する(ステップS103)。
On the other hand, when human body communication with the article-
続いて、登録部112は、図4のステップS15と同様に、ステップS103で取得した物品の情報が、既に、探索対象物情報テーブル(図3参照)に登録されているか否かを判断する(ステップS105)。ここでの判断が肯定された場合、登録部112は、ステップS101に戻るが、否定された場合には、図4のステップS17と同様に、ステップS103で取得した物品の情報を、探索対象物情報テーブル(図3参照)に登録する(ステップS107)。
Subsequently, as in step S15 in FIG. 4, the
以上の処理により、ユーザが手に取った物品が、自動的に記憶部107の探索対象物情報テーブルに登録される。
Through the above processing, the article picked up by the user is automatically registered in the search object information table of the
(探索対象物検出処理)
次に、制御部109が実行する探索対象物検出処理について図12のフローチャートを用いて説明する。本実施形態において、装着型機器10Cは、ユーザから操作部103やマイク104を介して探索対象物の探索要求を受け付けると、探索対象物検出処理を開始する。例えば、装着型機器10Cのユーザである父親がマイク104に向かって「探し物」と発音すると、装着型機器10Cは、探索対象物の探索要求を受け付けたと判断し、図12の処理を開始する。
(Search object detection process)
Next, search object detection processing executed by the
図12の処理において、まず、制御部109が備える決定部113が、探索対象物を決定する(ステップS141)。例えば、決定部113は、操作部103又はスピーカ106を介して、ユーザから探索対象物の探索要求を受け付けると、記憶部107に記憶された探索対象物情報テーブルに登録されている物品名の一覧、あるいは、基準画像の一覧を表示部102に表示する。決定部113は、ユーザが探索対象物情報テーブルの一覧から、例えば、操作部103を用いて選択した物品を探索対象物として決定し、検出部114に出力する。
In the process of FIG. 12, first, the
次に、検出部114が、撮像部101が現在撮像している画像を入力する(ステップS143)。 Next, the detection unit 114 inputs an image currently captured by the imaging unit 101 (step S143).
検出部114は、撮像部101が現在撮像している画像内に、決定部113から入力された探索対象物が存在するか否かを判断する(ステップS145)。ここでの判断が肯定された場合、報知部115は、撮像部101が現在撮像している画像内に探索対象物を示す情報(例えば、矢印や、マーカ等:図9(A)のマーカ330参照)を付加して、表示部102に表示する(ステップS147)。これにより、装着型機器10Cのユーザは、自分の視界には入っているが見落としている探索対象物に気づくことができる。
The detection unit 114 determines whether or not the search target input from the
一方、撮像部101が現在撮像している画像内に、探索対象物が存在しない場合(ステップS145/NO)、検出部114はステップS143の処理を開始してから所定時間(例えば、10秒)が経過したか否かを判断する(ステップS149)。 On the other hand, when the search target does not exist in the image currently captured by the imaging unit 101 (step S145 / NO), the detection unit 114 starts a process of step S143 for a predetermined time (for example, 10 seconds). It is determined whether or not elapses (step S149).
所定時間が経過してない場合には、検出部114はステップS143からの処理を再び実行するが、所定時間が経過した場合には、図8のステップS55〜ステップS61と同様に、ステップS151〜ステップS157の処理を実行する。そして、決定部113は、ユーザから探索対象物の検出を終了する指示を受け付けると(ステップS157/YES)、図12の全処理を終了する。
When the predetermined time has not elapsed, the detection unit 114 executes the processing from step S143 again. However, when the predetermined time has elapsed, the detection unit 114 performs steps S151 to S151 similarly to steps S55 to S61 in FIG. The process of step S157 is executed. And the
以上、詳細に説明したように、本第2の実施形態によれば、装着型機器10Cは、ユーザに装着可能であり、画像を撮像する撮像部101と、撮像部101が撮像した画像に、探索対象物が存在するか否かを検出する検出部114と、検出結果に応じて、探索対象物に関する報知を行なう報知部115と、を備えるので、ユーザが探索対象物を見落としていても、撮像部101が撮像した画像に探索対象物が存在していれば、当該探索対象物の存在をユーザに報知することができる。
As described above in detail, according to the second embodiment, the wearable device 10C can be worn by the user, and the
また、本第2の実施形態によれば、装着型機器10Cは、探索対象物となりうる物品を登録する登録部112を備え、登録部112は、物品側機器40との人体通信により、ユーザが手にした物品を登録するので、ユーザに特別な操作を強いることなく、自動的に手にした物品を登録することができる。本第2の実施形態の登録方法を第1の実施形態に適用するようにしてもよい。
Further, according to the second embodiment, the
また、報知部115は、撮像部101が現在撮像している画像に探索対象物が存在しない場合、撮像部101が過去に撮像した探索対象物が存在する画像の中から、最新の画像を表示部102に表示するため、ユーザは最後に探索対象物が撮像された画像を利用して、探索対象物を探す場所を変更する等の対応をとることが出来る。
Further, when there is no search target in the image currently captured by the
また、報知部115は、撮像部101が現在撮像している画像内に、探索対象物が存在する場合に、探索対象物の存在を示す情報を表示部102に表示するため、ユーザは自身の視界には入っているが見落としていた探索対象物の存在に気付くことが出来る。
In addition, the
なお、上記第2の実施形態において、決定部113は、例えば、他の装着型機器10と通信を行って、他のユーザが探している物品の情報(基準画像)を受信し、他のユーザが探している物品を、探索対象物として決定してもよい。この場合、検出部114が探索対象物を検出した場合に、報知部315は、探索対象物を探しているユーザとは異なる装着型機器10Cのユーザに、他のユーザが探している物品が撮像部101が撮像する画像内に存在することを報知してもよい。
In the second embodiment, the
なお、上記第2の実施形態において、登録部112は、第1の実施形態の登録部312と同様、撮像部101の撮像した画像に基づいた登録を行ってもよい。すなわち、ユーザが物品を手にしている場合に撮像部101による撮像を行って登録処理を行ってもよい。
Note that in the second embodiment, the
なお、上記各実施形態において、装着型機器10A〜10Cは、眼鏡型の端末ではなくてもよい。例えば、体の任意の位置に装着可能な装着型端末であってもよく、その機能の一部が分離していてもよい。一例を挙げると、表示部を備えたコンタクトレンズ型の端末として、他の機能を腕時計型の端末に持たせるようにしてもよい。
In each of the above embodiments, the
また、上記各実施形態においては、探索対象を自動で登録していたが、ユーザがマニュアルで登録してもよい。この場合、例えば、ユーザが探索対象として登録したい物品を撮像部101により撮像し、操作部103の操作により探索対象物情報テーブルに登録すればよい。また、多機能携帯(スマートフォン)や、タブレット型の端末により登録したい物品を撮像し、登録処理を行うようにしてもよい。
Moreover, in each said embodiment, although the search object was registered automatically, a user may register manually. In this case, for example, an article that the user wants to register as a search target may be captured by the
また、上記各実施形態においては、探索対象として物品(例えば、鍵K10)を登録していたが、探索対象は物品に限られるものではない。例えば、ホームページ上に掲載されている店舗の外観写真を探索対象として登録してもよい。この場合、制御部109は、撮像部101が撮像した画像に店舗が存在する場合に、ユーザに報知を行う。これにより、当該店舗がユーザの視界に入っているにもかかわらず、ユーザが見落としている場合に、ユーザは店舗の存在に気付くことができる。
Further, in each of the above embodiments, an article (for example, key K10) is registered as a search target, but the search target is not limited to the article. For example, you may register the external appearance photograph of the store published on the homepage as a search object. In this case, the
また、例えば、探索対象としてキーワード(テキスト情報)を登録してもよい。この場合、制御部109は、ユーザが見ている(読んでいる)紙媒体を撮像部101が撮像した画像をOCR処理し、当該画像の中にキーワード(例えば、キーワード「期日」)が存在するか否かを判断する。そして、制御部109は、画像の中にキーワードが存在していた場合に、キーワードを取り囲むマーカ330等を表示部102に表示することにより、ユーザにキーワードの存在を報知する(図13参照)。これにより、ユーザは、自分が読んでいる文章の中にキーワードが存在するにも関わらず見落としている場合等において、当該キーワードの存在に気付くことができる。なお、制御部109は、紙媒体の中からキーワードを検出する場合に限らず、携帯型の端末の表示部に表示された画像内においてキーワードを検出したり、ユーザが見ている景色(例えば、案内表示板や、街中の看板など)からキーワードを検出したりすることもできる。
Further, for example, a keyword (text information) may be registered as a search target. In this case, the
また、上記各実施形態において、検出部314,114は、探索対象物を検出する場合に、探索対象物を検出する時間帯等に応じて基準画像を修正するようにしてもよい。例えば、店舗の外観写真を基準画像として登録した場合において、当該写真が日中に撮像されたものであり、店舗を検出する時間帯が夜間である場合、検出部314,114は、明るさ等を修正した基準画像を用いて、店舗を検出してもよい。
In each of the above embodiments, when detecting the search object, the
また、上記各実施形態において、報知部315,115は、探索対象物に関する報知を、ユーザが探索対象物を見落としたと判断できるタイミングで行ってもよい。例えば、装着型機器10の撮像部101が、探索対象物を含む画像を撮像し、その後、探索対象物を含まない画像を撮像した場合に、報知部315,115が報知を行うようにしてもよい。これにより、頻繁に報知が行われることによる、ユーザの煩わしさを低減することができる。
Further, in each of the above embodiments, the
なお、上記各実施形態では、制御部109が、表示部102に、探索対象物として、矢印や、マーカ等を表示する場合について説明したがこれに限られるものではない。例えば、装着型機器10がユーザの視線の方向を検出可能な視線検出部を備えている場合には、制御部109は、視線検出部により検出されたユーザの視線の方向と、探索対象物の位置とに基づいて、ユーザの視線を誘導することとしてもよい。この場合、制御部109は、例えば、表示部102を用いて、ユーザの視線の方向にマークを表示し、当該マークを徐々に探索対象物の方向に移動させてもよい。また、制御部109は、スピーカ106を用いて“頭を動かさずに少し左側を見てください”などの音声を出力し、ユーザの視線を誘導することとしてもよい。
In each of the above embodiments, the case where the
なお、上記の処理機能は、コンピュータによって実現することができる。その場合、処理装置(CPU)が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体(ただし、搬送波は除く)に記録しておくことができる。 The above processing functions can be realized by a computer. In that case, a program describing the processing contents of the functions that the processing device (CPU) should have is provided. By executing the program on a computer, the above processing functions are realized on the computer. The program describing the processing contents can be recorded on a computer-readable recording medium (except for a carrier wave).
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD(Digital Versatile Disc)、CD−ROM(Compact Disc Read Only Memory)などの可搬型記録媒体の形態で販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。 When the program is distributed, for example, it is sold in the form of a portable recording medium such as a DVD (Digital Versatile Disc) or a CD-ROM (Compact Disc Read Only Memory) on which the program is recorded. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.
プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。 The computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.
上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。 The above-described embodiment is an example of a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention.
10A,10B,10C 装着型機器
30 情報処理装置
101 撮像部
102 表示部
112 登録部
113 決定部
114 検出部
115 報知部
301 通信部
313 決定部
314 検出部
315 報知部
10A, 10B, 10C
Claims (14)
前記画像に探索対象物が存在するか否かを検出する検出部と、
前記探索対象物に関する報知を行なう報知部と、を備える情報処理装置。 An input unit for inputting an image from an electronic device attachable to the user;
A detection unit for detecting whether a search object exists in the image;
An information processing apparatus comprising: a notification unit that performs notification regarding the search object.
前記検出部は、前記複数の電子機器から入力した複数の画像から前記探索対象物を検出する請求項1記載の情報処理装置。 The input unit inputs images from a plurality of electronic devices,
The information processing apparatus according to claim 1, wherein the detection unit detects the search object from a plurality of images input from the plurality of electronic devices.
前記画像に、探索対象物が存在するか否かを検出する検出部と、
前記検出の結果に応じて、前記探索対象物に関する報知を行なう報知部と、を備える電子機器。 An imaging unit that is attachable to a user and that captures an image;
A detection unit for detecting whether or not a search object exists in the image;
An electronic device comprising: a notification unit that performs notification regarding the search object according to a result of the detection.
前記登録部は、前記撮像部の撮像した情報に基づき前記探索対象物を登録する請求項9記載の電子機器。 A registration unit for registering the search object;
The electronic device according to claim 9, wherein the registration unit registers the search object based on information captured by the imaging unit.
前記登録部は、前記ユーザが手にした物品を前記探索対象物として登録する請求項9記載の電子機器。 A registration unit for registering the search object;
The electronic device according to claim 9, wherein the registration unit registers an article obtained by the user as the search object.
前記報知部は、前記探索対象物に関する情報のうち最新の情報を報知する請求項9から11のいずれか一項に記載の電子機器。 The detection unit starts detecting whether the determined search target exists in the image after the determination unit determines the search target,
The electronic device according to any one of claims 9 to 11, wherein the notification unit notifies the latest information of information related to the search target object.
前記報知部は、前記撮像部が現在撮像している画像内に、前記探索対象物が存在する場合に、前記探索対象物の存在を示す情報を前記表示部に表示する請求項7から12のいずれか一項に記載の電子機器。 A display unit for displaying the image;
13. The notification unit displays information indicating the presence of the search target on the display unit when the search target exists in an image currently captured by the imaging unit. The electronic device as described in any one.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014001991A JP2015130631A (en) | 2014-01-08 | 2014-01-08 | Information processing apparatus and electronic apparatus |
PCT/JP2015/050061 WO2015105075A1 (en) | 2014-01-08 | 2015-01-05 | Information processing apparatus and electronic device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014001991A JP2015130631A (en) | 2014-01-08 | 2014-01-08 | Information processing apparatus and electronic apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015130631A true JP2015130631A (en) | 2015-07-16 |
Family
ID=53523902
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014001991A Pending JP2015130631A (en) | 2014-01-08 | 2014-01-08 | Information processing apparatus and electronic apparatus |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2015130631A (en) |
WO (1) | WO2015105075A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020042840A (en) * | 2019-11-20 | 2020-03-19 | 富士ゼロックス株式会社 | Information processing device, information processing method, information processing system, and program |
JP7466318B2 (en) | 2020-01-27 | 2024-04-12 | キヤノンメディカルシステムズ株式会社 | Image information processing device and image information processing system |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4192719B2 (en) * | 2003-08-22 | 2008-12-10 | ソニー株式会社 | Image processing apparatus and method, and program |
JP5517170B2 (en) * | 2011-10-27 | 2014-06-11 | パイオニア株式会社 | Display device and control method |
JP6024135B2 (en) * | 2012-03-15 | 2016-11-09 | カシオ計算機株式会社 | Subject tracking display control device, subject tracking display control method and program |
JP2013218476A (en) * | 2012-04-06 | 2013-10-24 | Denso Corp | Image recognition device |
-
2014
- 2014-01-08 JP JP2014001991A patent/JP2015130631A/en active Pending
-
2015
- 2015-01-05 WO PCT/JP2015/050061 patent/WO2015105075A1/en active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020042840A (en) * | 2019-11-20 | 2020-03-19 | 富士ゼロックス株式会社 | Information processing device, information processing method, information processing system, and program |
JP7466318B2 (en) | 2020-01-27 | 2024-04-12 | キヤノンメディカルシステムズ株式会社 | Image information processing device and image information processing system |
Also Published As
Publication number | Publication date |
---|---|
WO2015105075A1 (en) | 2015-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10390213B2 (en) | Social reminders | |
US11551726B2 (en) | Video synthesis method terminal and computer storage medium | |
AU2015296833B2 (en) | Providing notifications based on user activity data | |
US9594807B2 (en) | Emotion-related query processing | |
US8948451B2 (en) | Information presentation device, information presentation method, information presentation system, information registration device, information registration method, information registration system, and program | |
US9020918B2 (en) | Information registration device, information registration method, information registration system, information presentation device, informaton presentation method, informaton presentaton system, and program | |
KR20160046622A (en) | Wearable device and method for transmitting contents | |
CN104408402A (en) | Face identification method and apparatus | |
JP6092761B2 (en) | Shopping support apparatus and shopping support method | |
CN110933468A (en) | Playing method, playing device, electronic equipment and medium | |
CN103886284A (en) | Character attribute information identification method and device and electronic device | |
WO2013179883A1 (en) | Electronic apparatus and garment | |
US10747490B2 (en) | Method and device for displaying an image transmitted from a wearable device | |
JP2015191554A (en) | Electronic apparatus | |
WO2015105075A1 (en) | Information processing apparatus and electronic device | |
US10219127B2 (en) | Information processing apparatus and information processing method | |
JP2015138534A (en) | Electronic device | |
CN110196633A (en) | The method and apparatus of provider location is provided using augmented reality system | |
JP2007133531A (en) | Attention state detection device and attention state detection method | |
CN110928867A (en) | Data fusion method and device | |
JP5977697B2 (en) | Electronic device and method for controlling electronic device | |
CN115209032B (en) | Image acquisition method and device based on cleaning robot, electronic equipment and medium | |
AU2017100235A4 (en) | Social reminders | |
JP2017011454A (en) | Wearable device | |
CN112925903A (en) | Text classification method and device, electronic equipment and medium |