WO2015105075A1 - 情報処理装置及び電子機器 - Google Patents

情報処理装置及び電子機器 Download PDF

Info

Publication number
WO2015105075A1
WO2015105075A1 PCT/JP2015/050061 JP2015050061W WO2015105075A1 WO 2015105075 A1 WO2015105075 A1 WO 2015105075A1 JP 2015050061 W JP2015050061 W JP 2015050061W WO 2015105075 A1 WO2015105075 A1 WO 2015105075A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
image
search target
search
user
Prior art date
Application number
PCT/JP2015/050061
Other languages
English (en)
French (fr)
Inventor
冨井宏美
小野里学
田井寿
羽曾部亮
関口政一
今水誠
大江隆之
亀原博
小宮大作
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Publication of WO2015105075A1 publication Critical patent/WO2015105075A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Definitions

  • the present invention relates to an information processing apparatus and an electronic device.
  • Patent Document 1 a system that estimates and tracks the line of sight of a subject (user) wearing glasses capable of detecting a person's line of sight is known (see, for example, Patent Document 1).
  • the present invention has been made in view of the above problems, and an object thereof is to provide an information processing apparatus and an electronic apparatus that can notify a user of information related to a search target.
  • An information processing apparatus includes an input unit that inputs an image from an electronic device that can be worn by a user, a detection unit that detects whether or not a search target exists in the image, and a notification regarding the search target. And a notification unit for performing.
  • the input unit may input images from a plurality of electronic devices
  • the detection unit may detect the search object from a plurality of images input from the plurality of electronic devices.
  • the information processing apparatus of the present invention may include a determination unit that determines the search target.
  • the notification unit may notify a user different from the user about the search target object, or may notify position information about the search target object. And it is good also as alerting
  • the electronic device can be worn by a user, and an imaging unit that captures an image, a detection unit that detects whether a search target exists in the image, and a detection result of the detection unit And an informing unit for informing about the search object.
  • the notification unit may notify a user different from the user about the search object.
  • the electronic device may include a determination unit that determines the search target.
  • the electronic device may further include a registration unit that registers the search target, and the registration unit may register the search target based on information captured by the imaging unit.
  • the unit may register an article obtained by the user as the search object.
  • the detection unit starts detecting whether the determined search object exists in the image after the determination unit determines the search object, An alerting
  • the electronic device of the present invention includes a display unit that displays the image, and the notification unit is configured to search the search target when the search target exists in an image that the imaging unit is currently capturing. Information indicating the presence of an object may be displayed on the display unit.
  • the notification unit may display the image when the search object is detected to be present in the image.
  • the notification unit may notify the search target when the search target does not exist in the image after the search target exists in the image. It is good.
  • the detection unit corrects the image of the search target based on the imaging time of the image of the search target and the time when the detection unit performs detection, and detects using the corrected image. May be executed.
  • the said registration part is good also as registering the stored item which stores the said search target object as a 2nd search target object.
  • the information processing apparatus and the electronic apparatus of the present invention have an effect of being able to notify the user of information related to the search target.
  • the determination unit 313 determines whether or not a search request for a search target has been received from the wearable device 10 (step S10). For example, when the father pronounces “search object” toward the microphone 104 of the wearable device 10 ⁇ / b> A, a search request for the search object is transmitted from the wearable device 10 ⁇ / b> A to the information processing apparatus 30. When the determination unit 313 receives the search request from the wearable device 10, the determination unit 313 proceeds to step S40.
  • the search request for the search object may be transmitted, for example, when a predetermined operation (for example, a tap) is performed on the operation unit 103 by the user.
  • step S15 When the article that the user has is already registered in the search target information table (step S15 / YES), the information storage unit 311 executes the search target information storage process of step S20.
  • the registration unit 312 registers the article held by the user in the search target information table (Ste S17).
  • the registration unit 312 registers the image of the key K10 extracted in the process of step S13 as a reference image in the search object information table, and sets the father who is the user of the wearable device 10A as the registered user item. Register (see FIG. 5C).
  • the registration unit 312 performs matching between the template images of various articles stored in advance in the storage unit 303 and the reference image, identifies the article name of the extracted image, and registers it in the item name item ( In the example of FIG. 5C, “key”). It is assumed that the name of each article is associated with the template image of each article.
  • the registration unit 312 may register an image obtained by interpolating an image of a portion hidden by the hand as a reference image using the above-described image recognition unit.
  • the information storage unit 311 displays the image input in step S11 of FIG. 4 together with the date / time information and the position information when the image is captured. For example, primary storage is performed in the RAM (step S25).
  • the information storage unit 311 again inputs an image from the wearable device 10 (step S27), and determines whether or not a search target article exists in the input image, similarly to step S23 (step S23). S29). If there is an article to be searched, the information storage unit 311 returns to step S25, and stores the information temporarily stored in the RAM, the image input in step S27, the date / time information and the position at which the image was captured. Overwrite with information.
  • step S29 / NO the information storage unit 311 registers the image temporarily stored in the RAM in the history image item of the search target information table.
  • step S31 all the processes in FIG. 6 are terminated, and the process returns to step S10 in FIG.
  • FIG. 7A it is assumed that a key K10, which is an article to be searched for by the father, exists in the image input from the wearable device 10B of the mother.
  • the information storage unit 311 registers the image (FIG. 7A) input from the wearable device 10 ⁇ / b> B together with the date / time information and the position information of the captured image in the “key” history image item.
  • the history image item of the search target information table in addition to the image captured by the imaging unit 101 of the wearable device 10 of a registered user (for example, a father), a user (for example, a mother) different from the registered user
  • a user for example, a mother
  • an image when the search target article is last imaged is registered as a history image.
  • the image that is temporarily stored in the RAM or the like at the end of the processing of steps S25 to S29 being repeated. Is stored in the storage unit 303 as a history image.
  • the detection unit 314 determines whether or not the search object input from the determination unit 313 exists in the image input in step S43 (step S45). For example, the detection unit 314 performs pattern matching between the image input in step S43 and the reference image of the key K10 (see FIG. 5B), and the key is included in the image captured by the imaging unit 101. It is determined whether or not K10 exists.
  • the detection unit 314 is a wearable type of a client (here, a father) who requested the detection of the search target. It is determined whether or not the image is input from the device 10A (step S47).
  • the notification unit 315 The wearable device 10A is notified of the position of the search target in the image (step S49), thereby notifying the search target.
  • the control unit 109 of the wearable device 10A that has received the position of the search target object from the information processing apparatus 30 displays the image currently captured by the image capturing unit 101 on the display unit 102 and information indicating the search target object (for example, an arrow, a marker, etc. (see marker 330 in FIG. 9) are displayed.
  • the notification unit 315 notifies other users (for example, a mother using the wearable device 10B) of the wearable device 10 that has input an image in which the search object is present (notice about the search object) (Ste S51).
  • the notification unit 315 indicates that the father is searching for the search target (key).
  • the imaging unit 101 of the wearable device 10B notifies the wearable device 10B of the position of the search target in the image currently captured.
  • the control unit 109 of the wearable device 10B that has received the information displays information (for example, an arrow or a marker) indicating the search target on the display unit 102, and the father is searching for the search target. Is displayed on the display unit 102 or notified to the mother by voice using the speaker 106. As a result, the mother can know that the father is searching for the key K10, and can find a search object (key K10) in his field of view and take a response such as passing it to the father. it can.
  • information for example, an arrow or a marker
  • step S45 when the search object does not exist in the image input in step S43 (step S45 / NO), has the predetermined time (for example, 10 seconds) elapsed since the detection unit 314 started the process of step S43? It is determined whether or not (step S53).
  • the predetermined time for example, 10 seconds
  • the detection unit 314 executes the processing from step S43 again.
  • the search target information table stored in the storage unit 303 searches the search target information table. It is determined whether or not a history image is registered for the object (step S55).
  • the notification unit 315 transmits an image having the latest imaging date and time among the history images to the wearable device 10A (step S57).
  • the control unit 109 of the wearable device 10 ⁇ / b> A displays the image received from the information processing apparatus 30 on the display unit 102. Thereby, it is possible to notify the father of the place where the search object (key K10) lastly existed. The father can know where the wearable device 10 last imaged the search object (key K10), and can take measures such as changing the search place for the search object.
  • the notification unit 315 may notify the position information (latitude, longitude) when the search object is imaged last. This makes it easier for the user to find the search object.
  • the notification unit 315 notifies the wearable device 10A that the search target cannot be detected (step S59).
  • step S55 is performed prior to step S43.
  • the information processing apparatus 30 inputs an image from the wearable device 10 that can be worn by the user, and whether a search target exists in the image. Since the detection unit 314 that detects whether or not and a notification unit 315 that performs notification regarding the search target are provided, even if the user overlooks the search target, it is input from the wearable device 10 without particular awareness. If there is a search object in the obtained image, the presence of the search object can be notified to the user.
  • the detection unit 314 inputs images from the plurality of wearable devices 10 and detects a search target from the plurality of images input from the plurality of wearable devices 10. Thereby, even when the search target is imaged by the wearable device 10 worn by a user different from the user who is searching for the search target, notification regarding the search target can be performed.
  • the notification unit 315 includes the search target in the image currently captured by the wearable device 10 worn by a user different from the user who is searching for the search target. In doing so, the user is notified of the search object. Accordingly, it is possible to notify the user of the wearable device 10 that is capturing an image including the search target that the search target of another user exists in the image.
  • images are stored in the history image item of the search target information table (see FIG. 3) in time series.
  • the latest image may always be stored.
  • the oldest history image may be overwritten with the latest history image ( FIFO: First In, First Out).
  • the notification unit 315 displays the history images on the display unit 102 of the wearable device 10 in time series, so that the search target is current in what manner. You may alert
  • any of the wearable devices 10A and 10B may have the function of the information processing apparatus 30 described above.
  • the wearable device 10A receives information to be registered in the search object information table from the wearable device 10B via the network 50, or transmits information related to the search object to the wearable device 10B. Good.
  • the wearable device 10A has the functions of the information processing apparatus 30 described above, a series of items for registering articles in the search target information table, accumulating search target information, and detecting search targets. The processing can be performed by the wearable device 10A alone.
  • the wearable device has the function of the information processing apparatus 30 of the first embodiment.
  • FIG. 10 is a block diagram illustrating the configuration of an information processing system 500B according to the second embodiment.
  • the information processing system 500 ⁇ / b> B includes a wearable device 10 ⁇ / b> C and an article-side device 40.
  • the article-side device 40 is attached to an article that can be a search target, such as an article possessed by a user.
  • the article-side device 40 includes a storage unit 401 and a communication unit 402.
  • the storage unit 401 is, for example, a non-volatile semiconductor memory, and the article name of the article to which the article-side device 40 is attached and the article used when detecting whether or not the article exists in the image.
  • the reference image is stored.
  • the communication unit 402 communicates with other devices, and uses, for example, proximity communication such as Bluetooth (registered trademark), RFID (Radio Frequency Identification), TransferJet (registered trademark), or human body communication via a human body. be able to.
  • the communication unit 402 includes an electrode unit 402B provided in a portion of the article that comes into contact with the user, and a human body communication unit 402A that performs human body communication using the electrode unit 402B.
  • the human body communication unit 402A communicates with the human body communication unit 110A of the wearable device 10C in a state where the user wears the wearable device 10C and the user holds an article including the article-side device 40.
  • Human body communication includes a current system in which a weak current is passed through the human body and the current is modulated to transmit information, and an electric field system in which information is transmitted by modulating an electric field induced on the surface of the human body. .
  • the wearable device 10C is different from the wearable devices 10A and 10B of the first embodiment in that the wearable device 10C includes the communication unit 110, information stored in the storage unit 107, and a function included in the control unit 109.
  • the difference between the wearable device 10C and the wearable devices 10A and 10B will be described in detail.
  • the communication unit 110 communicates with other devices. For example, proximity communication such as Bluetooth (registered trademark), RFID, TransferJet (registered trademark), or human body communication via a human body can be used.
  • the communication unit 110 performs human body communication using the electrode unit 110B provided on a part of the frame 120 that contacts the user (for example, the user side of the frame 120) and the electrode unit 110B.
  • a human body communication unit 110A A human body communication unit 110A.
  • the human body communication unit 110A communicates with the human body communication unit 402A of the article side device 40 in a state where the user wears the wearable device 10C and the user holds an article including the article side device 40.
  • the article name and the reference image stored in the storage unit 401 of the article side device 40 are received from the article side device 40.
  • the storage unit 107 stores the search object information table shown in FIG.
  • the control unit 109 functions as the information storage unit 111, the registration unit 112, the determination unit 113, the detection unit 114, and the notification unit 115 illustrated in FIG. 10 when the CPU executes the program.
  • the information storage unit 111 executes a search target information storage process, and registers an image including the search target article among the images captured by the imaging unit 101 as a history image in the search target information table.
  • the search target information storage process executed by the information storage unit 111 is the same as the flowchart shown in FIG. 6 except that an image is input from the imaging unit 101, and thus detailed description thereof is omitted.
  • the registration unit 112 executes a search target registration process, which will be described later, and registers necessary information in the storage unit 107.
  • the determination unit 113 determines an item designated by the user using the operation unit 103 or the microphone 104 among the items registered in the storage unit 107 as a search target, and outputs it to the detection unit 114.
  • the notification unit 115 uses the display unit 102 or the speaker 106 to notify information related to the search target based on the detection result by the detection unit 114. For example, the notification unit 115 displays information indicating the presence of the search target on the display unit 102 together with the image (live view image) currently captured by the imaging unit 101.
  • the registration unit 112 first determines whether or not human body communication with the article-side device 40 is established (step S101). In other words, the registration unit 112 determines whether the user has picked up an article provided with the article-side device 40. Thereby, even when the image of the user holding the article is not captured by the imaging unit 101, the article acquired by the user can be registered.
  • the registration unit 112 repeats the determination at step S101 until the human body communication with the article side device 40 is established.
  • the registration unit 112 stores the article name and reference stored in the storage unit 401 of the article-side device 40 via the communication unit 110.
  • the image is received from the article side device 40 (step S103).
  • the registration unit 112 determines whether or not the article information acquired in step S103 has already been registered in the search target information table (see FIG. 3) (see FIG. 3). Step S105). If the determination here is affirmed, the registration unit 112 returns to step S101. If the determination is negative, the registration unit 112 uses the information on the article acquired in step S103 as the search target, as in step S17 of FIG. The information is registered in the information table (see FIG. 3) (step S107).
  • the determination unit 113 determines a search target (step S141). For example, when the determination unit 113 receives a search request for a search target from the user via the operation unit 103 or the speaker 106, a list of article names registered in the search target information table stored in the storage unit 107. Alternatively, a list of reference images is displayed on the display unit 102. The determination unit 113 determines, for example, an article selected by the user using the operation unit 103 from the list of the search target information table as a search target, and outputs it to the detection unit 114.
  • the detection unit 114 inputs an image currently captured by the imaging unit 101 (step S143).
  • the detection unit 114 determines whether or not the search target input from the determination unit 113 exists in the image currently captured by the imaging unit 101 (step S145). When the determination here is affirmed, the notification unit 115 displays information (for example, an arrow, a marker, etc .: see the marker 330 in FIG. 9) indicating the search target in the image that the imaging unit 101 is currently imaging. In addition, it is displayed on the display unit 102 (step S147). As a result, the user of the wearable device 10 ⁇ / b> C can notice a search target that is in his or her field of view but is overlooked.
  • step S143 If the predetermined time has not elapsed, the detection unit 114 executes the processing from step S143 again. However, if the predetermined time has elapsed, the detection unit 114 performs steps S151 to S61 similarly to steps S55 to S61 in FIG. The process of step S157 is executed. And the determination part 113 will complete
  • the wearable device 10C can be worn by the user, and the imaging unit 101 that captures an image and the image captured by the imaging unit 101 are Since the detection unit 114 that detects whether or not the search target exists and the notification unit 115 that performs notification regarding the search target according to the detection result are provided, even if the user overlooks the search target, If there is a search target in the image captured by the imaging unit 101, the presence of the search target can be notified to the user.
  • the notification unit 115 displays the latest image from among the images in which the search target captured by the imaging unit 101 exists in the past. Since the image is displayed on the unit 102, the user can take an action such as changing the place where the search object is searched using the image in which the search object is finally captured.
  • the notification unit 115 displays information indicating the presence of the search target on the display unit 102 when the search target exists in the image currently captured by the imaging unit 101. You can notice the presence of search objects that are in sight but have been overlooked.
  • the registration unit 112 may perform registration based on an image captured by the imaging unit 101, as in the registration unit 312 of the first embodiment. That is, when the user is holding an article, the registration process may be performed by performing imaging by the imaging unit 101.
  • the notification units 315 and 115 may perform notification regarding the search target at a timing at which the user can determine that the search target is overlooked. For example, when the imaging unit 101 of the wearable device 10 captures an image including a search target and then captures an image not including the search target, the notification units 315 and 115 perform notification. Good. Thereby, the troublesomeness of the user due to frequent notification can be reduced.
  • the program When the program is distributed, for example, it is sold in the form of a portable recording medium such as a DVD (Digital Versatile Disc) or CD-ROM (Compact Disc Read Only Memory) on which the program is recorded. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.
  • a portable recording medium such as a DVD (Digital Versatile Disc) or CD-ROM (Compact Disc Read Only Memory) on which the program is recorded. It is also possible to store the program in a storage device of a server computer and transfer the program from the server computer to another computer via a network.
  • the computer that executes the program stores, for example, the program recorded on the portable recording medium or the program transferred from the server computer in its own storage device. Then, the computer reads the program from its own storage device and executes processing according to the program. The computer can also read the program directly from the portable recording medium and execute processing according to the program. Further, each time the program is transferred from the server computer, the computer can sequentially execute processing according to the received program.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

 情報処理装置は、ユーザに装着可能な電子機器(10A)からの画像を入力する入力部(301)と、前記画像に探索対象物が存在するか否かを検出する検出部(314)と、前記探索対象物に関する報知を行なう報知部(315)と、を備える。 

Description

情報処理装置及び電子機器
 本発明は、情報処理装置及び電子機器に関する。
 従来より、人物の視線を検出可能なメガネをかけた被験者(ユーザ)の視線を推定・追跡するシステムが知られている(例えば、特許文献1参照)。
特開2013-81762号公報
 しかしながら、上記特許文献1では、ユーザの視線から商品などに対するユーザの注目度を評価するのにとどまり、例えば、ユーザの視界には入っているがユーザが注目していない、あるいは見落としている情報等については何ら考慮されていない。
 本発明は上記の課題に鑑みてなされたものであり、探索対象物に関する情報をユーザに報知できる情報処理装置及び電子機器を提供することを目的とする。
 本発明の情報処理装置は、ユーザに装着可能な電子機器からの画像を入力する入力部と、前記画像に探索対象物が存在するか否かを検出する検出部と、前記探索対象物に関する報知を行なう報知部と、を備える。
 この場合において、入力部は、複数の電子機器から画像を入力し、前記検出部は、前記複数の電子機器から入力した複数の画像から前記探索対象物を検出することとしてもよい。また、本発明の情報処理装置は、前記探索対象物を決定する決定部を備えていてもよい。
 また、本発明の情報処理装置において、前記報知部は、前記ユーザとは異なるユーザに前記探索対象物に関する報知を行なうこととしてもよいし、前記探索対象物に関する位置情報を報知することとしてもよいし、前記探索対象物に関連し、前記探索対象物とは異なる物品の情報を報知することとしてもよい。
 本発明の電子機器は、ユーザに装着可能であり、画像を撮像する撮像部と、前記画像に、探索対象物が存在するか否かを検出する検出部と、前記検出部の検出結果に応じて、前記探索対象物に関する報知を行なう報知部と、を備える。
 この場合において、前記報知部は、前記ユーザとは異なるユーザに前記探索対象物に関する報知を行なうこととしてもよい。また、本発明の電子機器において、電子機器は、前記探索対象物を決定する決定部を備えていてもよい。
 また、本発明の電子機器は、前記探索対象物を登録する登録部を備え、前記登録部は、前記撮像部の撮像した情報に基づき前記探索対象物を登録することとしてもよいし、前記登録部は、前記ユーザが手にした物品を前記探索対象物として登録することとしてもよい。
 また、本発明の電子機器において、前記検出部は、前記決定部が前記探索対象物を決定した後、決定された前記探索対象物が前記画像に存在するか否かの検出を開始し、前記報知部は、前記探索対象物に関する情報のうち最新の情報を報知することとしてもよい。
 また、本発明の電子機器は、前記画像を表示する表示部を備え、前記報知部は、前記撮像部が現在撮像している画像内に、前記探索対象物が存在する場合に、前記探索対象物の存在を示す情報を前記表示部に表示することとしてもよい。また、本発明の電子機器において、前記報知部は、前記画像に、前記探索対象物が存在することが検出された場合に、当該画像を表示することとしてもよい。また、本発明の電子機器において、前記報知部は、前記画像に前記探索対象物が存在した後、前記画像に前記探索対象物が存在しなくなった場合に、前記探索対象物に関する報知を行なうこととしてもよい。また、 前記検出部は、前記探索対象物の画像の撮像時刻と、前記検出部が検出を実行する時刻とに基づいて、前記探索対象物の画像を修正し、修正後の画像を用いて検出を実行してもよい。また、前記登録部は、前記探索対象物を収納する収納物を第2探索対象物として登録することとしてもよい。また、前記ユーザの視線を誘導する誘導部を備えることとしてもよい。
 本発明の情報処理装置及び電子機器は、探索対象物に関する情報をユーザに報知することができるという効果を奏する。
第1の実施形態に係る情報処理システムの構成を示すブロック図である。 装着型機器の一例を示す斜視図である。 探索対象物情報テーブルの一例を示す図である。 第1の実施形態に係る情報処理装置の制御部が実行する処理の一例を示すフローチャートである。 図5(A)~図5(C)は、図4の処理を説明するための図である。 第1の実施形態に係る情報処理装置の制御部が実行する探索対象物情報蓄積処理の一例を示すフローチャートである。 図7(A)及び図7(B)は、図6の処理を説明するための図である。 第1の実施形態に係る情報処理装置の制御部が実行する探索対象物検出処理の一例を示すフローチャートである。 図8の処理を説明するための図である。 第2の実施形態に係る情報処理システムの構成を示すブロック図である。 第2の実施形態に係る装着型機器の制御部が実行する探索対象登録処理の一例を示すフローチャートである。 第2の実施形態に係る装着型機器の制御部が実行する探索対象物検出処理の一例を示すフローチャートである。 探索対象物がテキストである場合を示す図である。
《第1の実施形態》
 以下、第1の実施形態について、図1~図9に基づいて、詳細に説明する。図1には、第1の実施形態に係る情報処理システム500Aの構成がブロック図にて示されている。情報処理システム500Aは、ユーザが探し物を見つけるのを支援するシステムである。
 図1に示すように、情報処理システム500Aは、装着型機器10A、10Bと、情報処理装置30と、を備える(利用する)。装着型機器10A、10Bと、情報処理装置30とは、ネットワーク50に接続されている。ネットワーク50は、例えば、公衆無線LAN(Local Area Network)、インターネット、携帯電話回線網などを含む。
(装着型機器10A、10B)
 装着型機器10A、10Bは、ユーザが身体(顔)に装着する眼鏡型の端末である。本実施形態では、父親が装着型機器10Aを使用し、母親が装着型機器10Bを使用しているものとする。なお、本実施形態において装着型機器10A、10Bは同一の構成を有するため、以後、特に区別する必要のない限り、装着型機器10A、10Bを装着型機器10と記載し説明を行う。
 装着型機器10は、図1に示すように、撮像部101と、表示部102と、操作部103と、マイク104と、位置検出部105と、スピーカ106と、記憶部107と、通信部108と、制御部109と、を備える。なお、図2には、装着型機器10が斜視図にて示されている。図2に示すように、装着型機器10は、眼鏡型のフレーム120を備えている。なお、図1において図示され、図2において図示されていない装着型機器10の構成は、フレーム120の内部や、フレーム120の一部に設けられているものとする。
 撮像部101は、レンズ、撮像素子、画像処理部などを備え、静止画や動画を撮像するものである。撮像部101は、図2に示すようにフレーム120の端部近傍(ユーザの右目近傍)に設けられている。このため、ユーザが装着型機器10を装着した状態では、ユーザが向いている(見ている)方向の画像を撮像することができる。
 表示部102は、フレーム120内部又はフレーム120近傍に設けられたプロジェクタと、プロジェクタからの投影像をユーザの目に導くためのプリズムとを有している。表示部102は、制御部109の制御の下、各種情報を表示する。
 操作部103は、フレーム120に設けられたタッチパッドであり、ユーザの指の動きを検知して、ユーザからの操作を受け付け、受け付けた操作情報を制御部109に送信する。なお、撮像部101、表示部102、操作部103などについては、例えば米国公開特許2013/0044042号にもその詳細が開示されている。
 マイク104は、フレーム120に設けられ、ユーザが発した音声を収集する。マイク104が収集した音声は、不図示の音声認識部により音声認識され、音声認識結果は、制御部109に送信される。制御部109は、音声認識結果に基づく処理(例えば、コマンドの実行処理など)を実行する。なお、制御部109が音声認識を実行してもよい。
 位置検出部105は、例えば、GPS(Global Positioning System)センサを有しており、装着型機器10の位置を検出し、装着型機器10の位置情報(緯度、経度)を制御部109に出力する。これに代えて、位置情報(緯度、経度)を地図情報や場所情報に紐付けて記憶部107に記憶させて、制御部109が位置情報(緯度、経度)に基づき、例えば会社、自宅(リビング、寝室)というような場所情報を提供するようにしてもよい。
 スピーカ106は、例えば、フレーム120に設けられ、制御部109の制御の下、音声を出力する音声出力装置である。なお、スピーカ106としては、イヤホンやヘッドホンのほか、指向性があり、主に装着型機器10を装着するユーザの耳に向けて音声情報を提供することが可能なスピーカなどを採用することができる。
 記憶部107は、例えば、フラッシュメモリ等の不揮発性の半導体メモリであり、撮像部101が撮像した画像データや、上述したような地図データ、場所データや、表示部102に表示する表示データなどを記憶する。
 通信部108は、ネットワーク50を介して、情報処理装置30との間で通信を行う。本第1の実施形態では、通信部108は、制御部109の制御の下、撮像部101が撮像した画像を、位置検出部105が検出した位置情報とともに情報処理装置30に送信したり、情報処理装置30からユーザが探している物品(以後、探索対象物と記載する)を含む画像を受信したりする。
 制御部109は、装着型機器10全体を統括的に制御する。制御部109は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備える。制御部109は、探索対象物をユーザが見つけるために必要な情報を、通信部108を介して情報処理装置30に送信したり、情報処理装置30から受信したりする。例えば、制御部109は、通信部108を介して、撮像部101が撮像した画像を、位置検出部105が検出した位置情報とともに情報処理装置30に送信する。また、制御部109は、操作部103やマイク104を介してユーザから受け付けた指示に関する情報を情報処理装置30に送信する。また、制御部109は、情報処理装置30から、探索対象物に関する情報を受信し、表示部102に表示したり、スピーカ106から音声を出力することにより、探索対象物に関する報知を行う。
(情報処理装置30)
 情報処理装置30は、例えば、サーバであり、図1に示すように、通信部301と、制御部302と、記憶部303と、を備える。
 通信部301は、ネットワーク50を介して、装着型機器10との間で無線通信または有線通信を行う。本第1の実施形態では、通信部301は、ユーザが探索対象物を見つけるのに必要な情報を、装着型機器10から受信したり、装着型機器10に送信したりする。例えば、通信部301は、装着型機器10の撮像部101が撮像した画像を装着型機器10から受信し、制御部302に出力する。また、通信部301は、制御部302の制御の下、後述する記憶部303に記憶された画像データを装着型機器10に送信する。
 記憶部303は、例えば、ハードディスクドライブであり、探索対象物に関連する情報を記憶する。本第1の実施形態において、記憶部303は、図3に示す、探索対象物情報テーブルを記憶する。探索対象物情報テーブルは、物品名、登録ユーザ、基準画像、及び履歴画像の項目を備える。探索対象物情報テーブルにデータを登録するには、例えば、ユーザが登録したい物品を装着型機器10の撮像部101により撮像するとともに、撮像した物品の名称を発声する。マイク104は当該音声を収集し、不図示の音声認識部により音声認識した物品名と、撮像部101が撮像した画像とを制御部109が情報処理装置30に送信すればよい。情報処理装置30は、受信した物品名を物品名の項目に登録し、撮像部101が撮像した画像を基準画像の項目に登録する。これにより、ユーザはハンズフリーで登録操作を行うことができる。これに代えて、探索対象物情報テーブルへのデータの登録は、多機能携帯機器(スマートフォン)や、タブレット型端末の撮像部や、タッチパネルなどのユーザインターフェースを用いるとともに、ネットワーク50を利用して情報処理装置30にこの登録情報を送信するようにしてもよい。
 なお、情報処理装置30に画像認識部が設けられている場合には、ユーザによる物品名の入力を省略することができる。この場合、物品名(例えば家の鍵)ではなく物品のカテゴリ(例えば鍵)を探索対象物情報テーブルに登録してもよい。この場合、ユーザは登録したい物品を撮像するとともに、登録ボタンをタッチしたり、登録という言葉を発声するようにすればよい。また、画像認識部による画像認識には、画像データの特徴点を、例えばSURF(Speeded Up Robust Features)やSIFT(Scale Invariant Feature Transform)といった周知の特徴量検出アルゴリズムを用いればよい。
 登録ユーザの項目には、この物品名を登録したユーザが登録される。基準画像の項目には、後述する検出部314が、装着型機器10の撮像部101が撮像した画像の中に探索対象物が含まれるか否かを検出するときに使用する画像が格納される。履歴画像の項目には、装着型機器10の撮像部101が撮像した画像が、撮像日時及び撮像位置の情報と共に時系列に格納される。
 制御部302は、情報処理装置30全体を統括的に制御する。制御部302は、CPU、RAM、ROM等を備える。制御部302では、CPUがプログラムを実行することで、図1に示す情報蓄積部311、登録部312、決定部313、検出部314、及び報知部315として機能する。
 情報蓄積部311は、通信部301が装着型機器10から受信した画像を入力する。情報蓄積部311は、入力した画像のうち、探索対象物情報テーブルに登録されている物品を含む画像を、当該物品の履歴画像として記憶部303の探索対象物情報テーブル(図3参照)に記憶する。情報蓄積部311が実行する処理の詳細については後述する。
 登録部312は、物品を記憶部303の探索対象物情報テーブルに登録する。
 決定部313は、記憶部303に登録されている物品の中から、探索の対象となる物品、すなわち、探索対象物を決定し、検出部314に出力する。
 検出部314は、決定部313が決定した探索対象物が、装着型機器10の撮像部101が撮像した画像内に存在するか否かを検出し、検出結果を報知部315に出力する。
 報知部315は、検出結果に基づいて、探索対象物に関する報知を行う。例えば、報知部315は、通信部301を介して、探索対象物の検出結果を装着型機器10に送信する。報知部315から検出結果を受信した装着型機器10の制御部109は、表示部102やスピーカ106等を用いて、ユーザに、探索対象物の情報を報知する。
(情報処理装置30の処理)
 次に、情報処理装置30の制御部302が実行する処理について、図4のフローチャートを参照して説明する。本実施形態において、図4に示す処理は、ユーザが装着型機器10の電源を入れ、装着型機器10と情報処理装置30との間で通信が成立すると開始される。
 図4の処理では、まず、決定部313が、装着型機器10から探索対象物の探索要求を受け付けたか否かを判断する(ステップS10)。例えば、父親が装着型機器10Aのマイク104に向かって「探し物」と発音すると、装着型機器10Aから情報処理装置30に探索対象物の探索要求が送信される。決定部313は、当該探索要求を装着型機器10から受信すると、ステップS40に移行する。なお、探索対象物の探索要求の送信は、例えば、ユーザによる操作部103に対する所定の動作(例えば、タップ)があった場合に行うこととしてもよい。
 一方、決定部313が、装着型機器10から探索対象物の探索要求を受け付けていない場合には、登録部312及び情報蓄積部311が、通信部301を介して、装着型機器10から撮像部101が撮像した画像を入力する(ステップS11)。このとき、情報蓄積部311は、装着型機器10の位置検出部105が検出した位置情報も、装着型機器10から受信する。なお、登録部312及び情報蓄積部311は、装着型機器10A、10Bからそれぞれ画像を入力する。装着型機器10A、10Bから画像を入力するタイミングは、同時であってもよいし、異なっていてもよい。
 次に、登録部312は、前述の画像認識部を用いて、ステップS11で入力した画像を解析し、当該画像においてユーザが物品を手にしているか否かを判断する(ステップS13)。ここでの判断が否定された場合、情報蓄積部311はステップS20の探索対象物情報蓄積処理を実行する。
 一方、登録部312は、図5(A)のような画像を解析した結果、ユーザが物品を手にしていると判断した場合(ステップS13/YES)、ユーザが手にしている物品が、既に記憶部303の探索対象物情報テーブルに登録されているか否かを判断する(ステップS15)。例えば、登録部312は、ステップS11において、図5(A)に示す画像を入力した場合、鍵K10の画像を抽出し、抽出した鍵K10の画像と、探索対象物情報テーブル(図3参照)の基準画像との間でパターンマッチングを行い、ユーザが手にしている鍵K10が既に探索対象物情報テーブルに登録されているか否かを判断する。
 ユーザが手にしている物品が既に探索対象物情報テーブルに登録されている場合(ステップS15/YES)、情報蓄積部311はステップS20の探索対象物情報蓄積処理を実行する。
 一方、ユーザが手にしている物品が探索対象物情報テーブルに登録されていない場合(ステップS15/NO)、登録部312は、ユーザが手にしている物品を探索対象物情報テーブルに登録する(ステップS17)。例えば、図5(A)に示すように、父親が使用する装着型機器10Aから入力した画像において、父親が鍵K10を手にしていたとする。この場合、登録部312は、ステップS13の処理で抽出した鍵K10の画像を基準画像として探索対象物情報テーブルに登録するとともに、装着型機器10Aの使用者である父親を、登録ユーザの項目に登録する(図5(C)参照)。また、登録部312は、記憶部303に予め記憶されている各種物品のテンプレート画像と基準画像との間でマッチングを行い、抽出した画像の物品名を特定し、物品名の項目に登録する(図5(C)の例では、「鍵」)。なお、各物品のテンプレート画像には、各物品の名称が関連付けられているものとする。なお、このとき、登録部312は、図5(B)に示すように、前述の画像認識部を用いて、手に隠れた部分の画像を補間した画像を基準画像として登録してもよい。
 ステップS17の処理の終了後は、ステップS10に戻る。なお、図4のフローチャートにおいては、ユーザが物品を手にしていることを条件に探索対象として登録したが、ユーザが物品を注視している場合に登録処理を実行するようにしてもよい。この場合、撮像部101による撮像時間が5秒以上続いたり、撮像部101で撮像された中で一番面積が大きい物品や、所定の大きさ(撮像領域の1/5以上の面積)を有した物品を探索対象として登録してもよい。また、ユーザが登録したい物品を撮像した後、登録ボタンをタッチすることにより、登録処理を実行するようにしてもよい。
(探索対象物情報蓄積処理)
 次に、図4のステップS20の探索対象物情報蓄積処理の詳細について、図6のフローチャートを参照して説明する。ユーザが探索対象として登録する物品は、ユーザがその置き場所を忘れがちなため、本フローチャートでは探索対象の物品の撮像履歴(撮像日時、撮像位置、撮像場所など)を更新するものである。なお、情報蓄積部311は、撮像履歴に変化がないことを認識した時点で本フローチャートを終了するようにしてもよい。
 図6の処理では、情報蓄積部311は、図4のステップS11において入力した画像に、探索対象物情報テーブルに登録されている物品が存在するか否かを判断する(ステップS23)。例えば、情報蓄積部311は、探索対象物情報テーブルの基準画像の項目に登録されている基準画像と、入力した画像との間でパターンマッチングを行い、画像内に探索対象の物品が存在するか否かを判断する。ここでの判断が否定された場合、情報蓄積部311は、図6の全処理を終了し、図4のステップS10に戻る。
 一方、画像内に探索対象の物品が存在する場合(ステップS23/YES)、情報蓄積部311は、図4のステップS11で入力した画像を、当該画像が撮像された日時情報及び位置情報とともに、例えば、RAMに一次記憶する(ステップS25)。
 次に、情報蓄積部311は、再び、装着型機器10から画像を入力し(ステップS27)、ステップS23と同様に、入力した画像に探索対象の物品が存在するか否かを判断する(ステップS29)。探索対象の物品が存在する場合には、情報蓄積部311は、ステップS25に戻り、RAMに一次記憶されている情報を、ステップS27で入力した画像と、当該画像が撮像された日時情報及び位置情報とで上書きする。
 一方、入力した画像に探索対象の物品が存在しない場合(ステップS29/NO)、情報蓄積部311は、RAMに一次記憶されている画像を、探索対象物情報テーブルの履歴画像の項目に登録した後(ステップS31)、図6の全処理を終了し、図4のステップS10に戻る。例えば、図7(A)に示すように、母親の装着型機器10Bから入力した画像に、父親の探索対象の物品である鍵K10が存在していたとする。この場合、情報蓄積部311は、装着型機器10Bから入力した画像(図7(A))を「鍵」の履歴画像の項目に、当該画像が撮像された日時情報及び位置情報と共に登録する。このように、探索対象物情報テーブルの履歴画像の項目には、登録ユーザ(例えば、父親)の装着型機器10の撮像部101が撮像した画像に加えて登録ユーザとは異なるユーザ(例えば、母親)の装着型機器10の撮像部101が探索対象の物品を撮像した場合にも、当該探索対象の物品が最後に撮像されたときの画像が履歴画像として登録される。
 上述した処理により、各ユーザの装着型機器10の撮像部101が撮像した探索対象物を含む画像のうち、ステップS25~S29の処理が繰り返された最後に、RAM等に一次記憶されていた画像が、履歴画像として記憶部303に記憶される。
(探索対象物検出処理)
 次に、図4のステップS40の探索対象物検出処理について、図8のフローチャートを参照しつつ詳細に説明する。以下の説明では、父親が鍵K10を探す場合について説明する。
 図8の処理において、まず、決定部313が、探索対象物情報テーブルから探索対象物を決定する(ステップS41)。例えば、決定部313は、装着型機器10Aから探索対象物の探索要求を受け付けると、記憶部303に記憶された探索対象物情報テーブルにおいて、登録ユーザの項目に装着型機器10Aの使用者である“父親”が登録されている物品名の一覧、あるいは、基準画像の一覧を装着型機器10Aに送信する。なお、決定部313は、父親で登録された探索対象の物品がない場合には、母親で登録された探索対象の物品を参照するようにしてもよい。このように家族や、友人、特定のグループで登録された探索対象の物品を共有するようにしてもよい。装着型機器10Aの制御部109は、情報処理装置30から受信した当該物品名の一覧を表示部102に表示する。そして、例えば、ユーザが操作部103を用いて探索対象物を選択すると、制御部109は、通信部108を介してユーザが選択した探索対象物の情報を情報処理装置30に送信する。なお、ユーザが、装着型機器10のマイク104に向かって探索対象の物品の名称「鍵」を発音することによって、探索対象物を指定してもよい。この場合、決定部313は、家の鍵や車の鍵など探索対象物情報テーブルに記憶されている鍵の情報を探索対象物として検出部314に出力する。
 次に、検出部314が、装着型機器10の撮像部101が現在撮像している画像を入力する(ステップS43)。なお、このとき、検出部314は、装着型機器10A、10Bからそれぞれ画像を入力する。装着型機器10A、10Bから画像を入力するタイミングは、同時であってもよいし、異なっていてもよい。
 続いて、検出部314は、ステップS43で入力した画像内に、決定部313から入力した探索対象物が存在するか否かを判断する(ステップS45)。例えば、検出部314は、ステップS43で入力した画像と、鍵K10の基準画像(図5(B)参照)との間でパターンマッチングを行い、撮像部101が撮像している画像内に、鍵K10が存在するか否かを判断する。
 ステップS43で入力した画像内に探索対象物が存在する場合(ステップS45/YES)、検出部314は、当該画像が、探索対象物の検出を依頼した依頼者(ここでは、父親)の装着型機器10Aから入力された画像であるか否かを判断する(ステップS47)。
 探索対象物が存在する画像が、探索対象物の検出を依頼した依頼者(ここでは、父親)の装着型機器10Aから入力された画像である場合(ステップS47/YES)、報知部315は、当該画像内における探索対象物の位置を装着型機器10Aに通知する(ステップS49)ことにより、探索対象物に関する報知を行う。探索対象物の位置を情報処理装置30から受信した装着型機器10Aの制御部109は、表示部102に、撮像部101が現在撮像している画像を表示するとともに、探索対象物を示す情報(例えば、矢印や、マーカ等:図9のマーカ330参照)を表示する。なお、表示部102に、撮像部101が現在撮像している画像を表示せず、探索対象物を示す情報(マーカ330)を、ユーザの視界に重畳するように表示してもよい。これにより、装着型機器10Aのユーザ(父親)は、視界には入っているが見落としていた探索対象物に気づくことができる。
 一方、探索対象物が存在する画像が、例えば、母親の装着型機器10Bから入力された画像であった場合、ステップS47の判断が否定される。この場合、報知部315が、探索対象物が存在する画像を入力した装着型機器10を使用する他のユーザ(例えば、装着型機器10Bを使用する母親)に、探索対象物に関する報知を行う(ステップS51)。例えば、報知部315は、探索対象物(鍵)が存在する画像(図9参照)が装着型機器10Bから入力されたものである場合、父親が探索対象物(鍵)を探していること、及び、装着型機器10Bの撮像部101が現在撮像する画像における探索対象物の位置を装着型機器10Bに通知する。当該情報を受信した装着型機器10Bの制御部109は、表示部102に探索対象物を示す情報(例えば、矢印や、マーカ等)を表示するとともに、父親が当該探索対象物を探していることを表示部102に表示したり、スピーカ106を用いて音声により母親に報知する。これにより、母親は、父親が鍵K10を探していることを知ることができるとともに、自分の視界に入っている探索対象物(鍵K10)を見つけて、父親に渡す等の対応をとることができる。
 ところで、ステップS43で入力した画像内に、探索対象物が存在しない場合(ステップS45/NO)、検出部314はステップS43の処理を開始してから所定時間(例えば、10秒)が経過したか否かを判断する(ステップS53)。
 所定時間が経過していない場合、検出部314はステップS43からの処理を再び実行するが、所定時間が経過した場合には、記憶部303に記憶されている探索対象物情報テーブルにおいて、探索対象物に対して履歴画像が登録されているか否かを判断する(ステップS55)。
 探索対象物に対して履歴画像が登録されている場合(ステップS55/YES)、報知部315は、当該履歴画像の中で撮像日時が最も新しい画像を装着型機器10Aに送信する(ステップS57)。装着型機器10Aの制御部109は、情報処理装置30から受信した当該画像を表示部102に表示する。これにより、探索対象物(鍵K10)が最後に存在した場所を父親に報知することができる。父親は、装着型機器10のいずれかが最後に探索対象物(鍵K10)を撮像した場所を知ることができ、探索対象物を探す場所を変えたりするなどの対応をとることができる。なお、このとき、報知部315は、探索対象物が最後に撮像されたときの位置情報(緯度、経度)を報知するようにしてもよい。これにより、ユーザが探索対象物をより見つけやすくなる。
 一方、探索対象物に対して履歴画像が登録されていない場合(ステップS55/NO)、報知部315は、探索対象物を検出できない旨を装着型機器10Aに通知する(ステップS59)。
 続いて、決定部313が、装着型機器10Aから探索対象物の検出を終了する指示があったか否かを判断する(ステップS61)。例えば、装着型機器10Aの操作部103を用いて父親が探索対象物の検出を終了する指示を入力した場合、装着型機器10Aは探索対象物の検出を終了する指示を情報処理装置30に送信する。決定部313は、当該指示を装着型機器10Aから受信すると、探索対象物の検出を終了する指示を受け付けたと判断して(ステップS61/YES)、図8の全処理を終了し、図4のステップS10に戻る。一方、当該指示を受信していない場合、検出部314が、ステップS43からの処理を再び実行する。なお、図4の処理は、音声や操作部103の操作により所定のコマンドが入力されたタイミングや、装着型機器10の電源がOFFされたタイミングで強制終了される。なお、図8のフローチャートにおいて、ステップS43に先立ってステップS55を実施するなど各ステップの順番を変更してもよい。
 以上、詳細に説明したように、本第1の実施形態によれば、情報処理装置30は、ユーザに装着可能な装着型機器10から画像を入力し、当該画像に探索対象物が存在するか否かを検出する検出部314と、探索対象物に関する報知を行なう報知部315と、を備えるので、ユーザが探索対象物を見落としていても、特に意識することなく、装着型機器10から入力された画像に探索対象物が存在していれば、当該探索対象物の存在をユーザに報知することができる。
 また、本第1の実施形態によれば、検出部314は、複数の装着型機器10から画像を入力し、複数の装着型機器10から入力した複数の画像から探索対象物を検出する。これにより、探索対象物を探しているユーザとは異なるユーザが装着する装着型機器10により探索対象物が撮像された場合にも、探索対象物に関する報知を行うことができる。
 また、本第1の実施形態によれば、報知部315は、探索対象物を探しているユーザとは異なるユーザが装着する装着型機器10が現在撮像している画像内に探索対象物が存在する場合に、当該異なるユーザに探索対象物に関する報知を行なう。これにより、探索対象物を含む画像を撮像している装着型機器10のユーザに対して、当該画像内に他のユーザの探索対象物が存在していることを報知することができる。
 なお、上記第1の実施形態では、報知部315は、ユーザが指定した探索対象物に関する報知を行っていたが、探索対象物に関連した、探索対象物とは異なる物品の情報を報知してもよい。例えば、ユーザが指定した探索対象物が「鍵」であり、鍵が鞄にしまわれた画像が撮像されていたとする。この場合、決定部313は、当該画像に基づき、ユーザが指定した「鍵」ではなく「鞄」を探索対象物として決定し、検出部314は、装着型機器10が撮像した画像内に鞄が存在するか否かを検出する。報知部315は、検出部314の検出結果に基づいて、鞄に関する情報(鞄の位置情報や、鞄が存在する画像)を装着型機器10に送信する。装着型機器10は、情報処理装置30から受信した情報に基づいて、表示部102に鞄に関する情報を表示する。これにより、探索対象物(鍵)が他の物品(鞄)に隠れてしまったり、収納されてしまった場合にも、ユーザに探索対象物に関する情報を提供することができる。
 なお、上記第1の実施形態においては、検出部314は、複数の装着型機器10から画像を入力し、複数の画像から探索対象物を検出していたが、1つの装着型機器10から入力された画像から探索対象物を検出してもよい。また、登録部312は、複数の装着型機器10からの入力に基づいて探索対象の物品を登録していたが、1つの装着型機器10からの入力に基づいて探索対象の物品を登録するようにしてもよい。また、上記第1の実施形態は、少なくとも1つの装着型機器10と情報処理装置30とから構成されるようにしてもよい。
 また、上記第1の実施形態では、探索対象物情報テーブル(図3参照)の履歴画像の項目に画像が時系列に格納されていたが、常に最新の画像が格納されるようにしてもよい。また、例えば、各探索対象の物品に対して、所定数(例えば、10)の履歴画像が格納された場合には、最も古い履歴画像を、最新の履歴画像で上書きするようにしてもよい(FIFO:First In, First Out)。なお、複数の履歴画像を格納する場合には、報知部315が、当該履歴画像を時系列に装着型機器10の表示部102に表示させることで、探索対象物がどのような経緯で現在の位置に移動されたのかをユーザに報知してもよい。
 なお、上記第1の実施形態において、上述した情報処理装置30が備える機能を、装着型機器10A、10Bのいずれかが備えていてもよい。この場合、例えば、装着型機器10Aは、ネットワーク50を介して、探索対象物情報テーブルに登録する情報を装着型機器10Bから受信したり、探索対象物に関する情報を装着型機器10Bに送信すればよい。また、上述した情報処理装置30が備える機能を、例えば、装着型機器10Aが有する場合、探索対象物情報テーブルに物品を登録し、探索対象物情報を蓄積し、探索対象物を検出する一連の処理を装着型機器10A単体で実施することができる。
《第2の実施形態》
 次に、第2の実施形態について説明する。第2の実施形態は、装着型機器が第1の実施形態の情報処理装置30の機能を備えるものである。
 図10は、第2の実施形態に係る情報処理システム500Bの構成を例示するブロック図である。図10に示すように、情報処理システム500Bは、装着型機器10Cと、物品側機器40と、を備える。
(物品側機器40)
 物品側機器40は、ユーザが所持する物品等、探索対象物となりうる物品に取り付けられる。物品側機器40は、記憶部401と、通信ユニット402と、を備える。
 記憶部401は、例えば、不揮発性の半導体メモリであり、物品側機器40が取り付けられた物品の物品名と、当該物品が画像内に存在するか否かを検出するときに使用される物品の基準画像とを記憶する。
 通信ユニット402は、他の機器と通信を行うものであり、例えばBluetooth(登録商標)、RFID(Radio Frequency Identification)、TransferJet(登録商標)などの近接通信や、人体を介した人体通信などを用いることができる。本実施形態では、通信ユニット402は、物品のユーザと接触する部分に設けられた電極部402Bと、当該電極部402Bを用いて人体通信を行う人体通信部402Aと、を備える。本実施形態では、人体通信部402Aは、ユーザが装着型機器10Cを装着し、かつ、ユーザが物品側機器40を備える物品を保持した状態で、装着型機器10Cの人体通信部110Aと通信し、記憶部401に記憶された、物品名及び物品の検出に用いられる基準画像を装着型機器10Cに送信する。なお、人体通信には、人体に微弱な電流を流して、その電流を変調して情報を伝達する電流方式や、人体の表面に誘起する電界を変調して情報を伝達する電界方式などがある。本実施形態では、電流方式及び電界方式のいずれのタイプを用いることも可能である。なお、ユーザが素手である場合(すなわち、電極が手と接触している場合)はもちろん、手袋を着用している場合(すなわち、電極が手と対向している場合)でも、人体通信は可能である。
(装着型機器10C)
 装着型機器10Cは、通信ユニット110を備える点、記憶部107が記憶する情報、及び、制御部109が備える機能が、第1の実施形態の装着型機器10A、10Bと異なる。以下、装着型機器10Cと装着型機器10A、10Bとの相違点を中心に詳細に説明する。
 通信ユニット110は、他の機器と通信を行うものであり、例えばBluetooth(登録商標)、RFID、TransferJet(登録商標)などの近接通信や、人体を介した人体通信などを用いることができる。本実施形態では、通信ユニット110は、例えば、フレーム120のうちユーザと接触する部分(例えば、フレーム120のユーザ側)に設けられた電極部110Bと、当該電極部110Bを用いて人体通信を行う人体通信部110Aと、を備える。本実施形態では、人体通信部110Aは、ユーザが装着型機器10Cを装着し、かつ、ユーザが物品側機器40を備える物品を保持した状態で、物品側機器40の人体通信部402Aと通信し、物品側機器40の記憶部401に記憶された、物品名及び基準画像を物品側機器40から受信する。
 記憶部107は、図3に示した探索対象物情報テーブルを記憶する。
 制御部109は、CPUがプログラムを実行することで、図10に示す情報蓄積部111、登録部112、決定部113、検出部114、及び報知部115として機能する。
 情報蓄積部111は、探索対象物情報蓄積処理を実行し、撮像部101が撮像した画像のうち、探索対象の物品が含まれる画像を、履歴画像として探索対象物情報テーブルに登録する。なお、情報蓄積部111が実行する探索対象物情報蓄積処理は、撮像部101から画像を入力する点以外は、図6に示したフローチャートと同様の処理であるため、詳細な説明を省略する。
 登録部112は、後述する探索対象登録処理を実行して、必要な情報を記憶部107に登録する。
 決定部113は、記憶部107に登録されている物品のうち、操作部103又はマイク104を用いてユーザにより指定された物品を、探索対象物として決定し、検出部114に出力する。
 検出部114は、撮像部101が撮像した画像に決定部113により決定された探索対象物が存在するか否かを検出し、検出結果を報知部115に出力する。
 報知部115は、表示部102又はスピーカ106を用いて、検出部114による検出結果に基づき、探索対象物に関する情報を報知する。例えば、報知部115は、撮像部101が現在撮像している画像(ライブビュー画像)とともに、探索対象物の存在を示す情報を表示部102に表示する。
(探索対象登録処理)
 次に、登録部112が実行する探索対象登録処理について、図11のフローチャートを参照して説明する。本実施形態において、探索対象登録処理は、ユーザが装着型機器10Cの電源を入れると開始される。これに代えて、物品側機器40との人体通信もしくは近接通信が成立したことにより装着型機器10Cの電源が入り、探索対象登録処理が開始されるようにしてもよい。
 図11の処理では、まず、登録部112は、物品側機器40との人体通信が成立しているか否かを判断する(ステップS101)。言い換えれば、登録部112は、ユーザが物品側機器40を備えた物品を手に取ったか否かを判断する。これにより、ユーザが物品を手にしている画像が撮像部101により撮像されない場合でも、ユーザが手にした物品を登録することができる。物品側機器40との人体通信が成立していない場合には(ステップS101/NO)、登録部112は、物品側機器40との人体通信が成立するまでステップS101の判断を繰り返す。
 一方、物品側機器40との人体通信が成立した場合(ステップS101/YES)、登録部112は、通信ユニット110を介して、物品側機器40の記憶部401に記憶されている物品名と基準画像とを物品側機器40から受信する(ステップS103)。
 続いて、登録部112は、図4のステップS15と同様に、ステップS103で取得した物品の情報が、既に、探索対象物情報テーブル(図3参照)に登録されているか否かを判断する(ステップS105)。ここでの判断が肯定された場合、登録部112は、ステップS101に戻るが、否定された場合には、図4のステップS17と同様に、ステップS103で取得した物品の情報を、探索対象物情報テーブル(図3参照)に登録する(ステップS107)。
 以上の処理により、ユーザが手に取った物品が、自動的に記憶部107の探索対象物情報テーブルに登録される。
(探索対象物検出処理)
 次に、制御部109が実行する探索対象物検出処理について図12のフローチャートを用いて説明する。本実施形態において、装着型機器10Cは、ユーザから操作部103やマイク104を介して探索対象物の探索要求を受け付けると、探索対象物検出処理を開始する。例えば、装着型機器10Cのユーザである父親がマイク104に向かって「探し物」と発音すると、装着型機器10Cは、探索対象物の探索要求を受け付けたと判断し、図12の処理を開始する。
 図12の処理において、まず、制御部109が備える決定部113が、探索対象物を決定する(ステップS141)。例えば、決定部113は、操作部103又はスピーカ106を介して、ユーザから探索対象物の探索要求を受け付けると、記憶部107に記憶された探索対象物情報テーブルに登録されている物品名の一覧、あるいは、基準画像の一覧を表示部102に表示する。決定部113は、ユーザが探索対象物情報テーブルの一覧から、例えば、操作部103を用いて選択した物品を探索対象物として決定し、検出部114に出力する。
 次に、検出部114が、撮像部101が現在撮像している画像を入力する(ステップS143)。
 検出部114は、撮像部101が現在撮像している画像内に、決定部113から入力された探索対象物が存在するか否かを判断する(ステップS145)。ここでの判断が肯定された場合、報知部115は、撮像部101が現在撮像している画像内に探索対象物を示す情報(例えば、矢印や、マーカ等:図9のマーカ330参照)を付加して、表示部102に表示する(ステップS147)。これにより、装着型機器10Cのユーザは、自分の視界には入っているが見落としている探索対象物に気づくことができる。
 一方、撮像部101が現在撮像している画像内に、探索対象物が存在しない場合(ステップS145/NO)、検出部114はステップS143の処理を開始してから所定時間(例えば、10秒)が経過したか否かを判断する(ステップS149)。
 所定時間が経過してない場合には、検出部114はステップS143からの処理を再び実行するが、所定時間が経過した場合には、図8のステップS55~ステップS61と同様に、ステップS151~ステップS157の処理を実行する。そして、決定部113は、ユーザから探索対象物の検出を終了する指示を受け付けると(ステップS157/YES)、図12の全処理を終了する。
 以上、詳細に説明したように、本第2の実施形態によれば、装着型機器10Cは、ユーザに装着可能であり、画像を撮像する撮像部101と、撮像部101が撮像した画像に、探索対象物が存在するか否かを検出する検出部114と、検出結果に応じて、探索対象物に関する報知を行なう報知部115と、を備えるので、ユーザが探索対象物を見落としていても、撮像部101が撮像した画像に探索対象物が存在していれば、当該探索対象物の存在をユーザに報知することができる。
 また、本第2の実施形態によれば、装着型機器10Cは、探索対象物となりうる物品を登録する登録部112を備え、登録部112は、物品側機器40との人体通信により、ユーザが手にした物品を登録するので、ユーザに特別な操作を強いることなく、自動的に手にした物品を登録することができる。本第2の実施形態の登録方法を第1の実施形態に適用するようにしてもよい。
 また、報知部115は、撮像部101が現在撮像している画像に探索対象物が存在しない場合、撮像部101が過去に撮像した探索対象物が存在する画像の中から、最新の画像を表示部102に表示するため、ユーザは最後に探索対象物が撮像された画像を利用して、探索対象物を探す場所を変更する等の対応をとることが出来る。
 また、報知部115は、撮像部101が現在撮像している画像内に、探索対象物が存在する場合に、探索対象物の存在を示す情報を表示部102に表示するため、ユーザは自身の視界には入っているが見落としていた探索対象物の存在に気付くことが出来る。
 なお、上記第2の実施形態において、決定部113は、例えば、他の装着型機器10と通信を行って、他のユーザが探している物品の情報(基準画像)を受信し、他のユーザが探している物品を、探索対象物として決定してもよい。この場合、検出部114が探索対象物を検出した場合に、報知部315は、探索対象物を探しているユーザとは異なる装着型機器10Cのユーザに、他のユーザが探している物品が撮像部101が撮像する画像内に存在することを報知してもよい。
 なお、上記第2の実施形態において、登録部112は、第1の実施形態の登録部312と同様、撮像部101の撮像した画像に基づいた登録を行ってもよい。すなわち、ユーザが物品を手にしている場合に撮像部101による撮像を行って登録処理を行ってもよい。
 なお、上記各実施形態において、装着型機器10A~10Cは、眼鏡型の端末ではなくてもよい。例えば、体の任意の位置に装着可能な装着型端末であってもよく、その機能の一部が分離していてもよい。一例を挙げると、表示部を備えたコンタクトレンズ型の端末として、他の機能を腕時計型の端末に持たせるようにしてもよい。
 また、上記各実施形態においては、探索対象を自動で登録していたが、ユーザがマニュアルで登録してもよい。この場合、例えば、ユーザが探索対象として登録したい物品を撮像部101により撮像し、操作部103の操作により探索対象物情報テーブルに登録すればよい。また、多機能携帯(スマートフォン)や、タブレット型の端末により登録したい物品を撮像し、登録処理を行うようにしてもよい。
 また、上記各実施形態においては、探索対象として物品(例えば、鍵K10)を登録していたが、探索対象は物品に限られるものではない。例えば、ホームページ上に掲載されている店舗の外観写真を探索対象として登録してもよい。この場合、制御部109は、撮像部101が撮像した画像に店舗が存在する場合に、ユーザに報知を行う。これにより、当該店舗がユーザの視界に入っているにもかかわらず、ユーザが見落としている場合に、ユーザは店舗の存在に気付くことができる。
 また、例えば、探索対象としてキーワード(テキスト情報)を登録してもよい。この場合、制御部109は、ユーザが見ている(読んでいる)紙媒体を撮像部101が撮像した画像をOCR処理し、当該画像の中にキーワード(例えば、キーワード「期日」)が存在するか否かを判断する。そして、制御部109は、画像の中にキーワードが存在していた場合に、キーワードを取り囲むマーカ330等を表示部102に表示することにより、ユーザにキーワードの存在を報知する(図13参照)。これにより、ユーザは、自分が読んでいる文章の中にキーワードが存在するにも関わらず見落としている場合等において、当該キーワードの存在に気付くことができる。なお、制御部109は、紙媒体の中からキーワードを検出する場合に限らず、携帯型の端末の表示部に表示された画像内においてキーワードを検出したり、ユーザが見ている景色(例えば、案内表示板や、街中の看板など)からキーワードを検出したりすることもできる。
 また、上記各実施形態において、検出部314、114は、探索対象物を検出する場合に、探索対象物を検出する時間帯等に応じて基準画像を修正するようにしてもよい。例えば、店舗の外観写真を基準画像として登録した場合において、当該写真が日中に撮像されたものであり、店舗を検出する時間帯が夜間である場合、検出部314、114は、明るさ等を修正した基準画像を用いて、店舗を検出してもよい。
 また、上記各実施形態において、報知部315、115は、探索対象物に関する報知を、ユーザが探索対象物を見落としたと判断できるタイミングで行ってもよい。例えば、装着型機器10の撮像部101が、探索対象物を含む画像を撮像し、その後、探索対象物を含まない画像を撮像した場合に、報知部315、115が報知を行うようにしてもよい。これにより、頻繁に報知が行われることによる、ユーザの煩わしさを低減することができる。
 なお、上記各実施形態では、制御部109が、表示部102に、探索対象物として、矢印や、マーカ等を表示する場合について説明したがこれに限られるものではない。例えば、装着型機器10がユーザの視線の方向を検出可能な視線検出部を備えている場合には、制御部109は、視線検出部により検出されたユーザの視線の方向と、探索対象物の位置とに基づいて、ユーザの視線を誘導することとしてもよい。この場合、制御部109は、例えば、表示部102を用いて、ユーザの視線の方向にマークを表示し、当該マークを徐々に探索対象物の方向に移動させてもよい。また、制御部109は、スピーカ106を用いて“頭を動かさずに少し左側を見てください”などの音声を出力し、ユーザの視線を誘導することとしてもよい。
 なお、上記の処理機能は、コンピュータによって実現することができる。その場合、処理装置(CPU)が有すべき機能の処理内容を記述したプログラムが提供される。そのプログラムをコンピュータで実行することにより、上記処理機能がコンピュータ上で実現される。処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体(ただし、搬送波は除く)に記録しておくことができる。
 プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD(Digital Versatile Disc)、CD-ROM(Compact Disc Read Only Memory)などの可搬型記録媒体の形態で販売される。また、プログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することもできる。
 プログラムを実行するコンピュータは、例えば、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピュータは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピュータは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピュータは、サーバコンピュータからプログラムが転送されるごとに、逐次、受け取ったプログラムに従った処理を実行することもできる。
 上述した実施形態は本発明の好適な実施の例である。但し、これに限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変形実施可能である。なお、これまでの説明で引用した公報、米国特許出願公開明細書等の開示を援用して本明細書の一部とする。
 

Claims (18)

  1.  ユーザに装着可能な電子機器からの画像を入力する入力部と、
     前記画像に探索対象物が存在するか否かを検出する検出部と、
     前記探索対象物に関する報知を行なう報知部と、を備える情報処理装置。
  2.  前記入力部は、複数の電子機器から画像を入力し、
     前記検出部は、前記複数の電子機器から入力した複数の画像から前記探索対象物を検出する請求項1記載の情報処理装置。
  3.  前記探索対象物を決定する決定部を備える請求項1または2記載の情報処理装置。
  4.  前記報知部は、前記ユーザとは異なるユーザに前記探索対象物に関する報知を行なう請求項1から3のいずれか一項に記載の情報処理装置。
  5.  前記報知部は、前記探索対象物に関する位置情報を報知する請求項1から4のいずれか一項に記載の情報処理装置。
  6.  前記報知部は、前記探索対象物に関連し、前記探索対象物とは異なる物品の情報を報知する請求項1から5のいずれか一項に記載の情報処理装置。
  7.  ユーザに装着可能であり、画像を撮像する撮像部と、
     前記画像に、探索対象物が存在するか否かを検出する検出部と、
     前記検出部の検出結果に応じて、前記探索対象物に関する報知を行なう報知部と、を備える電子機器。
  8.  前記報知部は、前記ユーザとは異なるユーザに前記探索対象物に関する報知を行なう請求項7記載の電子機器。
  9.  前記探索対象物を決定する決定部を備える請求項7または8記載の電子機器。
  10.  前記探索対象物を登録する登録部を備え、
     前記登録部は、前記撮像部の撮像した情報に基づき前記探索対象物を登録する請求項9記載の電子機器。
  11.  前記探索対象物を登録する登録部を備え、
     前記登録部は、前記ユーザが手にした物品を前記探索対象物として登録する請求項9記載の電子機器。
  12.  前記検出部は、前記決定部が前記探索対象物を決定した後、決定された前記探索対象物が前記画像に存在するか否かの検出を開始し、
     前記報知部は、前記探索対象物に関する情報のうち最新の情報を報知する請求項9から11のいずれか一項に記載の電子機器。
  13.  前記画像を表示する表示部を備え、
     前記報知部は、前記撮像部が現在撮像している画像内に、前記探索対象物が存在する場合に、前記探索対象物の存在を示す情報を前記表示部に表示する請求項7から12のいずれか一項に記載の電子機器。
  14.  前記報知部は、前記画像に、前記探索対象物が存在することが検出された場合に、当該画像を表示する請求項7から12のいずれか一項に記載の電子機器。
  15.  前記報知部は、前記画像に前記探索対象物が存在した後、前記画像に前記探索対象物が存在しなくなった場合に、前記探索対象物に関する報知を行なう請求項7から12のいずれか一項に記載の電子機器。
  16.  前記検出部は、前記探索対象物の画像の撮像時刻と、前記検出部が検出を実行する時刻とに基づいて、前記探索対象物の画像を修正し、修正後の画像を用いて検出を実行する請求項7から15のいずれか一項に記載の電子機器。
  17.  前記登録部は、前記探索対象物を収納する収納物を第2探索対象物として登録する請求項10または11に記載の電子機器。
  18.  前記ユーザの視線を誘導する誘導部を備えた請求項7から17のいずれか一項に記載の電子機器。
     
     
PCT/JP2015/050061 2014-01-08 2015-01-05 情報処理装置及び電子機器 WO2015105075A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-001991 2014-01-08
JP2014001991A JP2015130631A (ja) 2014-01-08 2014-01-08 情報処理装置及び電子機器

Publications (1)

Publication Number Publication Date
WO2015105075A1 true WO2015105075A1 (ja) 2015-07-16

Family

ID=53523902

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/050061 WO2015105075A1 (ja) 2014-01-08 2015-01-05 情報処理装置及び電子機器

Country Status (2)

Country Link
JP (1) JP2015130631A (ja)
WO (1) WO2015105075A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6835187B2 (ja) * 2019-11-20 2021-02-24 富士ゼロックス株式会社 情報処理装置、情報処理方法、情報処理システム及びプログラム
JP7466318B2 (ja) 2020-01-27 2024-04-12 キヤノンメディカルシステムズ株式会社 画像情報処理装置及び画像情報処理システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005070985A (ja) * 2003-08-22 2005-03-17 Sony Corp 画像処理装置および方法、並びにプログラム
JP2012155313A (ja) * 2011-10-27 2012-08-16 Pioneer Electronic Corp 表示装置及び制御方法
JP2013192184A (ja) * 2012-03-15 2013-09-26 Casio Comput Co Ltd 被写体追尾表示制御装置、被写体追尾表示制御方法およびプログラム
JP2013218476A (ja) * 2012-04-06 2013-10-24 Denso Corp 画像認識装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005070985A (ja) * 2003-08-22 2005-03-17 Sony Corp 画像処理装置および方法、並びにプログラム
JP2012155313A (ja) * 2011-10-27 2012-08-16 Pioneer Electronic Corp 表示装置及び制御方法
JP2013192184A (ja) * 2012-03-15 2013-09-26 Casio Comput Co Ltd 被写体追尾表示制御装置、被写体追尾表示制御方法およびプログラム
JP2013218476A (ja) * 2012-04-06 2013-10-24 Denso Corp 画像認識装置

Also Published As

Publication number Publication date
JP2015130631A (ja) 2015-07-16

Similar Documents

Publication Publication Date Title
US10390213B2 (en) Social reminders
US11551726B2 (en) Video synthesis method terminal and computer storage medium
AU2015296833B2 (en) Providing notifications based on user activity data
US8948451B2 (en) Information presentation device, information presentation method, information presentation system, information registration device, information registration method, information registration system, and program
JP6092761B2 (ja) 買い物支援装置及び買い物支援方法
US10747490B2 (en) Method and device for displaying an image transmitted from a wearable device
CN104408402A (zh) 人脸识别方法及装置
CN110933468A (zh) 播放方法、装置、电子设备及介质
CN103886284A (zh) 人物属性信息识别方法、装置及电子设备
WO2013179883A1 (ja) 電子機器及び衣服
KR20170039506A (ko) 이동단말 제어장치 및 방법
JP2015191554A (ja) 電子機器
WO2015105075A1 (ja) 情報処理装置及び電子機器
US20140176689A1 (en) Apparatus and method for assisting the visually impaired in object recognition
US10219127B2 (en) Information processing apparatus and information processing method
US11536970B1 (en) Tracking of item of interest using wearable heads up display
US10635802B2 (en) Method and apparatus for accessing Wi-Fi network
CN110196633A (zh) 使用增强现实系统提供实体位置的方法及设备
JP2007133531A (ja) 注目状態検出装置、及び注目状態検出方法
CN110928867A (zh) 一种数据融合的方法及装置
JP5977697B2 (ja) 電子機器、および電子機器を制御するための方法
AU2017100235A4 (en) Social reminders
CN112925903A (zh) 文本分类的方法、装置、电子设备及介质
JP2004252883A (ja) 判定装置
KR20120078579A (ko) 전자 장치 및 이의 오브젝트 검색 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15735608

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15735608

Country of ref document: EP

Kind code of ref document: A1