JP2016192096A - Object recognition and selection device, object recognition and selection method, and program - Google Patents

Object recognition and selection device, object recognition and selection method, and program Download PDF

Info

Publication number
JP2016192096A
JP2016192096A JP2015072102A JP2015072102A JP2016192096A JP 2016192096 A JP2016192096 A JP 2016192096A JP 2015072102 A JP2015072102 A JP 2015072102A JP 2015072102 A JP2015072102 A JP 2015072102A JP 2016192096 A JP2016192096 A JP 2016192096A
Authority
JP
Japan
Prior art keywords
user
unit
information
object recognition
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015072102A
Other languages
Japanese (ja)
Inventor
秀行 増井
Hideyuki Masui
秀行 増井
健広 森
Takehiro Mori
健広 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2015072102A priority Critical patent/JP2016192096A/en
Publication of JP2016192096A publication Critical patent/JP2016192096A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable a user to preferentially select an object that the user wants to select or control from a plurality of objects that are photographed and displayed according to object recognition.SOLUTION: There is provide an object recognition and selection device that includes an attachment part attached to the face or head of a user, acquires state information specifying the state of the user, photographs a plurality of objects and captures the images, and recognizes the plurality of objects from the captured images. The object recognition and selection device stores in advance association information in which the state information and the objects are associated with each other, and specifies candidates for an object selected or controlled by the user from the plurality of recognized objects on the basis of acquired direction information, acquired position information, and the stored association information. Also provided are an object recognition and selection method and a program.SELECTED DRAWING: Figure 2

Description

本発明は、スマートグラス(メガネ型コンピュータ)等のカメラを搭載して頭部や顔面に装着するタイプのウエアラブルコンピュータ(端末)等に使用される物体認識選択装置、物体認識選択方法及びプログラムに関するものである。   The present invention relates to an object recognition selection apparatus, an object recognition selection method, and a program for use in a wearable computer (terminal) of a type that is mounted on a head or face with a camera such as a smart glass (glasses type computer). It is.

近年、身につけて持ち歩くことができるコンピュータ、いわゆるウエアラブルコンピュータが普及し始めているが、このウエアラブルコンピュータの中には、スマートグラスと呼ばれるメガネ型コンピュータがある。このスマートグラスは、カメラが搭載されて眼鏡として利用者に装着されることから、利用者の前方にある物体等をカメラで撮影して、これを眼鏡レンズ部分に設けられたディスプレイに表示することができるようになっている。このため、スマートグラスにおいては、利用者の目の間近にあるディスプレイに表示された物体に対して操作できるようにすれば、利用者は、あたかも実際に見ている物体に対して操作しているような感覚が得られることとなる。
そして、特開2011−209965号公報(特許文献1)には、スマートグラスに類するものとして、カメラとディスプレイを搭載したヘッドマウントディスプレイ(HMD)を備えた携帯型のコンピュータである情報処理装置が開示されている。この情報処理装置においては、ユーザがHMDを装着することにより、ユーザの前方にある操作対象機器(以下単に「機器」という。)がカメラで撮影され、ユーザの目の前にあるディスプレイには機器と共にボタン等の操作画像が表示され、ユーザがディスプレイに表示されたボタンを仮想的に押すことにより、機器を操作できるようになっている。
In recent years, computers that can be worn and carried, so-called wearable computers, have begun to spread. Among these wearable computers, there are glasses-type computers called smart glasses. This smart glass is equipped with a camera and worn by the user as eyeglasses, so an object in front of the user is photographed with the camera and displayed on a display provided in the eyeglass lens part. Can be done. For this reason, in smart glasses, if the user can operate on an object displayed on a display close to the user's eyes, the user operates as if the user is actually looking at the object. Such a feeling will be obtained.
Japanese Patent Application Laid-Open No. 2011-209965 (Patent Document 1) discloses an information processing apparatus that is a portable computer including a head-mounted display (HMD) equipped with a camera and a display as a smart glass. Has been. In this information processing apparatus, when the user wears the HMD, an operation target device (hereinafter simply referred to as “device”) in front of the user is photographed by the camera, and the display in front of the user has a device on the display. In addition, an operation image such as a button is displayed, and the user can operate the device by virtually pressing the button displayed on the display.

ここで、上記情報処理装置においては、利用者(ユーザ)の前方に複数の機器(例えば、ステレオ、テレビ、扇風機、エアコン、天井照明)がある場合、カメラで撮影された画像から物体認識により抽出された機器も複数あり、抽出された複数の機器がボタン等の操作画像と共にディスプレイに表示され、その各々に対して操作できるようになっている。
しかしながら、利用者にとっては、ディスプレイに表示された複数の機器のすべてを操作するとは限らず、特定の機器(例えば、天井照明)だけを操作したい場合も多い。
このような場合、利用者は、ディスプレイに表示された複数の機器から特定のものを選択して操作しなければならないという煩わしさが生じるのみならず、複数の機器が近接している場合は、各機器のボタン等を表示しても、どのボタンがどの機器のものであるかが判別しづらいという問題がある。また、各機器のボタン等に代えて、複数の機器のリストを別途作成してこれをディスプレイに表示し、このリストから操作したい機器を選択することも考えられるが、スマートグラスのディスプレイは表示領域が狭く、複数の機器のリストを表示すること自体が困難である。
Here, in the information processing apparatus, when there are a plurality of devices (for example, a stereo, a television, a fan, an air conditioner, and ceiling lighting) in front of the user (user), the information is extracted from the image captured by the camera by object recognition. There are a plurality of devices, and the plurality of extracted devices are displayed on the display together with operation images such as buttons and can be operated on each of them.
However, the user does not necessarily operate all of the plurality of devices displayed on the display, and often wants to operate only a specific device (for example, ceiling lighting).
In such a case, the user not only has the trouble of selecting and operating a specific device from a plurality of devices displayed on the display, but when a plurality of devices are close to each other, There is a problem that even if the buttons of each device are displayed, it is difficult to determine which button belongs to which device. In addition, instead of using buttons for each device, it is possible to create a list of multiple devices separately and display it on the display, and select the device you want to operate from this list. However, it is difficult to display a list of a plurality of devices.

ところで、スマートグラスやHMDの利用者)が、ある場所(例えば、利用者の自宅の部屋の中)で、ディスプレイに表示された複数の機器の中の1つを選択して制御・操作したい場合、通常、選択(制御・操作)したい機器がある方向に顔面を向ける(例えば、部屋の天井照明を操作したい場合は、天井照明のある上方に顔面を向ける。)。また、同一方向に複数の機器がある場合であっても、どの機器を選択(制御・操作)したいかは、利用者の習性によっておおよそ決まっている(例えば、利用者の真正面にステレオ、テレビ、扇風機がある場合、ある利用者は常にテレビを操作する。)。
したがって、利用者の選択(制御・操作)したい機器は、利用者がいる場所、利用者の顔面が向いている方向等の状態及び利用者の習性に依存しているといえる。
By the way, when a user of a smart glass or HMD wants to select and control / operate one of a plurality of devices displayed on the display at a certain place (for example, in the user's home room). Usually, the face to be directed (control / operated) is directed in a certain direction (for example, when the ceiling lighting of the room is to be operated, the face is directed upward with the ceiling lighting). Also, even if there are multiple devices in the same direction, which device you want to select (control / operate) is roughly determined by the user's habits (for example, stereo, TV, If there is a fan, some users always operate the TV.)
Therefore, it can be said that the device that the user wants to select (control / operate) depends on the location of the user, the state of the user's face facing, and the like and the user's habits.

特開2011−209965号公報JP 2011-209965 A

本発明が解決しようとする課題は、撮影されて物体認識された複数の物体から利用者が選択または制御したい物体を優先的に選択できるようにすることである。
そして、本発明は、利用者が選択または制御したい物体は、利用者がいる場所、利用者の顔面が向いている方向等の状態及び利用者の習性に依存している点に着目してなされたものである。
The problem to be solved by the present invention is to enable a user to preferentially select an object that the user wants to select or control from a plurality of objects that have been photographed and recognized as objects.
The present invention is made by paying attention to the fact that the object that the user wants to select or control depends on the location of the user, the direction of the user's face, etc., and the user's habits. It is a thing.

本発明は、利用者の顔面または頭部に装着される装着部を備えた物体認識選択装置であって、複数の物体を撮影してその画像を取り込む物体画像取込手段と、前記物体画像取込手段が取り込んだ画像から前記複数の物体を認識する物体認識手段と、前記状態情報と前記物体とを対応付けた対応付け情報を記憶する対応付け情報記憶手段と、前記状態情報取得手段が取得した状態情報及び前記対応付け情報記憶手段に記憶された対応付け情報に基づいて、前記物体認識手段が認識した複数の物体の中から前記利用者の選択または制御する物体の候補を特定する物体候補特定手段とを備えた物体認識選択装置を提供して、上記課題を解決するものである。   The present invention is an object recognition / selection device that includes a mounting unit that is mounted on a user's face or head, and that captures a plurality of objects and captures the images, and the object image capturing unit. Acquired by the object recognition means for recognizing the plurality of objects from the image captured by the capture means, the association information storage means for storing the association information in which the state information and the object are associated, and the state information acquisition means An object candidate that identifies a candidate for an object to be selected or controlled by the user from among a plurality of objects recognized by the object recognizing unit based on the state information that has been performed and the association information stored in the association information storage unit An object recognition / selection device including a specifying unit is provided to solve the above-described problem.

本発明は、前記物体認識手段が認識した複数の物体を表示する手段と、前記利用者の選択または制御する物体を確定する物体確定手段とをさらに備えた物体認識選択装置を提供して、上記課題を解決するものである。   The present invention provides an object recognition selection apparatus further comprising: means for displaying a plurality of objects recognized by the object recognition means; and object determination means for determining an object to be selected or controlled by the user. It solves the problem.

本発明は、前記対応付け情報は、前記物体確定手段が物体を確定したときに、前記状態情報取得手段が取得した状態情報と前記選択物体確定手段が確定した物体とを対応付けた履歴情報である物体認識選択装置を提供して、上記課題を解決するものである。   According to the present invention, the association information is history information that associates the state information acquired by the state information acquisition unit with the object determined by the selected object determination unit when the object determination unit determines an object. An object recognition / selection device is provided to solve the above problem.

本発明は、前記物体を指定する物体指定手段をさらに備え、前記物体確定手段は、前記物体候補特定手段が特定した前記物体の候補または前記物体指定手段が指定した前記物体を前記利用者の選択または制御する物体として確定する物体認識選択装置を提供して、上記課題を解決するものである。   The present invention further includes an object designating unit for designating the object, wherein the object determination unit selects the user candidate specified by the object candidate specifying unit or the object specified by the object specifying unit. Alternatively, an object recognition / selection device that determines the object to be controlled is provided to solve the above problem.

本発明は、前記物体確定手段が確定した物体の動作を制御する物体制御手段をさらに備えた物体認識選択装置を提供して、上記課題を解決するものである。   The present invention provides an object recognition / selection device further comprising object control means for controlling the movement of the object determined by the object determination means, and solves the above-mentioned problems.

本発明は、前記状態情報は、前記利用者の顔面が向いている方向情報及び前記利用者の位置情報である物体認識選択装置を提供して、上記課題を解決するものである。   The present invention provides an object recognition and selection device in which the state information is direction information that the user's face is facing and position information of the user, and solves the above problems.

本発明は、利用者の顔面または頭部に装着される装着部を備えた物体認識選択装置による物体認識選択方法であって、前記利用者の状態を特定する状態情報を取得し、複数の物体を撮影してその画像を取り込み、この取り込んだ画像から前記複数の物体を認識し、予め前記状態情報と前記物体とを対応付けた対応付け情報を記憶しておき、前記取得された状態情報及び前記記憶された対応付け情報に基づいて、前記認識された複数の物体の中から前記利用者の選択または制御する物体の候補を特定するステップを備えた物体認識選択方法を提供して、上記課題を解決するものである。   The present invention relates to an object recognition selection method by an object recognition selection device provided with a mounting unit to be worn on a user's face or head, which obtains state information for specifying the state of the user, and a plurality of objects And capturing the image, recognizing the plurality of objects from the captured image, storing association information that associates the state information with the object in advance, and acquiring the acquired state information and Provided is an object recognition selection method including a step of identifying a candidate for an object to be selected or controlled by the user from among the plurality of recognized objects based on the stored association information, Is a solution.

本発明は、前記認識した複数の物体を表示し、前記利用者の選択または制御する物体を確定するステップをさらに備えた物体認識選択方法を提供して、上記課題を解決するものである。   The present invention solves the above problems by providing an object recognition selection method further comprising the step of displaying the plurality of recognized objects and determining an object to be selected or controlled by the user.

本発明は、前記対応付け情報は、前記利用者の選択または制御する物体を確定したときに取得した前記状態情報と前記確定した物体とを対応付けた履歴情報である物体認識選択方法を提供して、上記課題を解決するものである。   The present invention provides an object recognition selection method in which the association information is history information in which the state information acquired when the user selects or controls an object to be determined is associated with the confirmed object. Thus, the above problems are solved.

本発明は、前記物体を指定するステップをさらに備え、前記利用者の選択または制御する物体を確定するステップは、前記特定された物体の候補または前記指定された物体を前記利用者の選択または制御する物体として確定するステップである物体認識選択方法を提供して、上記課題を解決するものである。   The present invention further comprises the step of specifying the object, and the step of determining the object to be selected or controlled by the user is to select or control the candidate of the specified object or the specified object by the user. An object recognition selection method, which is a step of determining as an object to be performed, is provided to solve the above problem.

本発明は、前記確定された物体の動作を制御するステップをさらに備えた物体認識選択方法を提供して、上記課題を解決するものである。   The present invention provides an object recognition and selection method further comprising the step of controlling the movement of the determined object, and solves the above-described problem.

本発明は、前記状態情報は、前記利用者の顔面が向いている方向情報及び前記利用者の位置情報である物体認識選択方法を提供して、上記課題を解決するものである。   The present invention solves the above-mentioned problems by providing an object recognition selection method in which the state information is direction information in which the user's face is facing and position information of the user.

本発明は、前記物体認識選択方法をコンピュータに実行させるプログラムを提供して、上記課題を解決するものである。   The present invention provides a program for causing a computer to execute the object recognition selection method, thereby solving the above-described problems.

本発明の物体認識選択装置においては、利用者の顔面または頭部に装着される装着部を備え、物体画像取込手段から複数の物体を撮影した画像が取り込まれ、物体認識手段によりその画像から前記物体が認識され、状態情報取得手段から前記物体画像取込手段が前記画像を取り込むときの前記利用者の状態を特定する状態情報が取得され、対応付け情報記憶手段には前記状態情報と前記物体とを対応付けた対応付け情報が記憶され、前記状態情報取得手段が取得した状態情報及び前記対応付け情報記憶手段に記憶された対応付け情報に基づいて、物体候補特定手段が、物体認識手段が認識した複数の物体の中から、前記利用者の選択または制御する物体の候補を特定するため、前記利用者の選択または制御したい物体を優先的に選択できるという効果を奏する。   The object recognition / selection device according to the present invention includes a mounting unit to be worn on the user's face or head, and an image obtained by photographing a plurality of objects is captured from the object image capturing unit. State information for identifying the state of the user when the object is recognized and the object image capturing unit captures the image is acquired from the state information acquiring unit, and the state information and the state are stored in the association information storage unit. Correlation information associated with an object is stored, and based on the state information acquired by the state information acquisition unit and the association information stored in the association information storage unit, the object candidate specifying unit is an object recognition unit. When the user can select or preferentially select an object that the user wants to control or control in order to identify a candidate for the object to be selected or controlled from the plurality of objects recognized by the user Achieve the cormorant effect.

本発明の物体認識選択装置においては、さらに物体表示手段が前記物体認識手段が認識した複数の物体を表示し、物体確定手段が前記利用者の選択または制御する物体を確定するため、前記利用者の選択または制御したい物体を優先的に選択できるという効果を奏する。   In the object recognition and selection apparatus of the present invention, the object display means further displays a plurality of objects recognized by the object recognition means, and the object determination means determines the object to be selected or controlled by the user. It is possible to preferentially select an object to be selected or controlled.

本発明の物体認識選択装置においては、前記対応付け情報は、前記物体確定手段が物体を確定したときに、前記状態情報取得手段が取得した状態情報と前記選択物体確定手段が確定した物体とを対応付けた履歴情報であるため、履歴情報である前記対応付け情報に基づいて、前記利用者の選択または制御したい物体を優先的に選択できるという効果を奏する。   In the object recognition / selection device of the present invention, the association information includes the state information acquired by the state information acquisition unit and the object determined by the selected object determination unit when the object determination unit determines an object. Since the history information is associated with each other, the object that the user wants to select or control can be preferentially selected based on the association information that is history information.

本発明の物体認識選択装置においては、さらに物体指定手段が前記物体を指定し、前記物体確定手段が、前記物体候補特定手段が特定した前記物体の候補または前記物体指定手段が指定した前記物体を前記利用者の選択または制御る物体として確定するため、前記利用者の選択または制御したい物体を優先的に選択できて、前記利用者はそれを指定できるという効果を奏する。   In the object recognition / selection device of the present invention, the object designating unit further specifies the object, and the object determination unit selects the object candidate specified by the object candidate specifying unit or the object specified by the object specifying unit. Since the object to be selected or controlled by the user is determined, an object to be selected or controlled by the user can be preferentially selected, and the user can designate it.

本発明の物体認識選択装置においては、さらに物体制御手段が、前記選択物体確定手段が確定した物体の動作を制御するため、前記利用者の選択または制御したい物体を優先的に選択できて、前記利用者はそれを制御できるという効果を奏する。   In the object recognition / selection device of the present invention, the object control means can preferentially select an object to be selected or controlled by the user because the object control means controls the operation of the object decided by the selected object decision means. The user can control it.

本発明の物体認識選択装置においては、前記状態情報は、前記利用者の顔面が向いている方向情報及び前記利用者の位置情報であるため、前記利用者の選択または制御したい物体を優先的に選択できるという効果を奏する。   In the object recognition / selection device of the present invention, the state information includes direction information that the user's face is facing and position information of the user. Therefore, the object that the user wants to select or control is given priority. There is an effect that it can be selected.

本発明の物体認識選択方法は、利用者の顔面または頭部に装着される装着部を備えた物体認識選択装置による物体認識選択方法であって、利用者の状態を特定する状態情報を取得し、複数の物体を撮影してその画像を取り込み、この取り込んだ画像から前記物体を認識し、予め前記状態情報と前記物体とを対応付けた対応付け情報を記憶しておき、前記取得された状態情報び前記記憶された対応付け情報に基づいて、前記認識した複数の物体の中から前記利用者の選択または制御する物体の候補を特定するため、前記利用者の選択または制御したい物体を優先的に選択できるという効果を奏する。   An object recognition selection method according to the present invention is an object recognition selection method by an object recognition selection device having a mounting portion worn on a user's face or head, and acquires state information for specifying a user's state. , Capturing a plurality of objects, capturing the images, recognizing the object from the captured images, storing association information that associates the state information with the object in advance, and acquiring the acquired state Based on the information and the stored association information, the user selects or controls the object to be selected or controlled from among the plurality of recognized objects. There is an effect that can be selected.

本発明の物体認識選択方法は、前記認識した複数の物体を表示し、前記利用者の選択または制御する物体を確定するため、前記利用者の選択または制御したい物体を優先的に選択できるという効果を奏する。   The object recognition selection method of the present invention displays the plurality of recognized objects, and determines the object to be selected or controlled by the user, so that the object to be selected or controlled by the user can be preferentially selected. Play.

本発明の物体認識選択方法は、前記対応付け情報は、前記利用者の選択または制御する物体を確定したときに取得した前記状態情報と前記確定した物体とを対応付けた履歴情報であるため、履歴情報である前記対応付け情報に基づいて、前記利用者の選択または制御したい物体を優先的に選択できるという効果を奏する。   In the object recognition selection method of the present invention, the association information is history information in which the state information acquired when the user selects or controls an object to be determined is associated with the confirmed object. Based on the association information that is history information, there is an effect that an object that the user wants to select or control can be preferentially selected.

本発明の物体認識選択方法は、さらに物体を指定し、前記特定された物体の候補または前記指定された物体を前記利用者の選択または制御する物体として確定するため、前記利用者の選択または制御したい物体を優先的に選択できて、前記利用者はそれを指定できるという効果を奏する。   The object recognition / selection method of the present invention further specifies an object, and determines or identifies the specified object candidate or the specified object as an object to be selected or controlled by the user. It is possible to preferentially select the desired object, and the user can designate it.

本発明の物体認識選択方法は、さらに確定された物体の動作を制御するため、前記利用者の選択または制御したい物体を優先的に選択できて、前記利用者はそれを制御できるという効果を奏する。   The object recognition / selection method of the present invention further controls the movement of the determined object, so that the user can select or preferentially select the object to be controlled, and the user can control it. .

本発明の物体認識選択方法は、前記状態情報は、前記利用者の顔面が向いている方向情報及び前記利用者の位置情報であるため、前記利用者の選択または制御したい物体を優先的に選択できるという効果を奏する。   In the object recognition selection method of the present invention, since the state information includes direction information of the user's face and position information of the user, the user selects or preferentially selects an object to be controlled. There is an effect that can be done.

本発明の物体認識選択装置をスマートグラスに利用した場合の一実施形態の装置構成を示す外観図である。It is an external view which shows the apparatus structure of one Embodiment at the time of utilizing the object recognition selection apparatus of this invention for a smart glass. 図1に示す物体認識選択装置1の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the object recognition selection apparatus 1 shown in FIG. 図1に示す物体認識選択装置1の具体的構成の一例を示すブロック図である。It is a block diagram which shows an example of the specific structure of the object recognition selection apparatus 1 shown in FIG. 利用者の姿勢と利用者に装着されたスマートグラス1(装着部2)に作用する重力との関係を説明するための図である。It is a figure for demonstrating the relationship between a user's attitude | position and the gravity which acts on the smart glass 1 (mounting part 2) with which the user was mounted | worn. 利用者の顔面の向いている方位と利用者に装着されたスマートグラス1(装着部2)に作用する磁界の向きとの関係を説明するための図である。It is a figure for demonstrating the relationship between the direction which the user's face is facing, and the direction of the magnetic field which acts on the smart glass 1 (mounting part 2) with which the user was mounted | worn. ディスプレイ50に表示された物体の画像の例を示した説明図である。6 is an explanatory diagram illustrating an example of an image of an object displayed on a display 50. FIG. 対応付け情報記憶部60が記憶する対応付け情報を表した履歴情報テーブルの例を示した説明図である。It is explanatory drawing which showed the example of the log | history information table showing the correlation information which the correlation information storage part 60 memorize | stores. 物体候補特定部70が特定した物体の候補をディスプレイ50(画面51)に表示した例を説明する図である。It is a figure explaining the example which displayed the candidate of the object which the object candidate specific | specification part 70 specified on the display 50 (screen 51). 物体確定部90が利用者の選択する物体を確定する例を説明するための図である。It is a figure for demonstrating the example which the object determination part 90 determines the object which a user selects. 物体認識選択装置(スマートグラス)1の動作の概要を示すフローチャートである。3 is a flowchart showing an outline of the operation of the object recognition / selection device (smart glasses) 1. 方向情報取得部10が行う方向情報の取得の動作の詳細を示すフローチャートである。4 is a flowchart illustrating details of an operation of acquiring direction information performed by the direction information acquisition unit 10. 位置情報取得部20が行う位置情報の取得の動作の詳細を示すフローチャートである。5 is a flowchart showing details of an operation of acquiring position information performed by a position information acquisition unit 20. 物体画像取込部30が行う物体画像取込の動作の詳細を示すフローチャートである。It is a flowchart which shows the detail of the operation | movement of the object image taking-in which the object image taking-in part 30 performs. 物体認識部40が行う物体認識の動作の詳細を示すフローチャートである。It is a flowchart which shows the detail of the operation | movement of the object recognition which the object recognition part 40 performs. 画像表示部(ディスプレイ)50が、物体画像取込部40の認識した物体の画像を表示する動作の詳細を示すフローチャートである。5 is a flowchart showing details of an operation in which an image display unit (display) 50 displays an image of an object recognized by the object image capturing unit 40. 物体候補特定部70及び選択物体確定部90が行う物体候補特定及び選択物体の確定の動作の詳細を示すフローチャートである。It is a flowchart which shows the detail of the operation | movement of object candidate specification and selection object determination which the object candidate specific | specification part 70 and the selection object determination part 90 perform.

[物体認識選択装置(スマートグラス)の外観構成]
本発明の物体認識選択装置をスマートグラスに利用した場合の装置の外観構成について説明する。
図1は、本発明の物体認識選択装置をスマートグラスに利用した場合の一実施形態の装置の外観を示す外観図である。図中、1は物体認識選択装置(スマートグラス)、2は装着部、3はフレーム、4はレンズ部である。スマートグラス1は、メガネ型の装着部2とこれに内蔵されたコントローラー(図示せず)からなり、コントローラーには無線部が設けられてインターネットを介してサーバーに接続するようになっている。装着部2は、フレーム3と一対のレンズ部4からなり、フレームにはカメラが搭載され、加速度センサーと地磁気センサー等が内蔵され、さらにGPS受信機等の位置検出センサーが内蔵されている。装着部2は、利用者の顔面にメガネと同様にして装着される。なお、コントローラーは、メガネ型の装着部2に内蔵せず、これと別体のものとしてもよい。
[Appearance configuration of object recognition selection device (smart glasses)]
An external configuration of the apparatus when the object recognition / selection apparatus of the present invention is used for smart glasses will be described.
FIG. 1 is an external view showing an external appearance of an apparatus according to an embodiment when the object recognition / selection apparatus of the present invention is used for a smart glass. In the figure, 1 is an object recognition / selection device (smart glass), 2 is a mounting part, 3 is a frame, and 4 is a lens part. The smart glass 1 includes a glasses-type mounting unit 2 and a controller (not shown) built therein. The controller is provided with a wireless unit and is connected to a server via the Internet. The mounting unit 2 includes a frame 3 and a pair of lens units 4. A camera is mounted on the frame, an acceleration sensor, a geomagnetic sensor, and the like, and a position detection sensor such as a GPS receiver is also incorporated. The wearing unit 2 is worn on the user's face in the same manner as glasses. It should be noted that the controller may not be built in the glasses-type mounting unit 2 but may be a separate one.

[物体認識選択装置(スマートグラス)1の概略構成]
図2は、図1に示す物体認識選択装置1の概略構成を示すブロック図である。図において、10は方向情報取得部、20は位置情報取得部、30は物体画像取込部、40は物体認識部、50は物体表示部、60は対応付け情報記憶部、70は物体候補特定部、80は物体指定部、90は物体確定部、100は物体制御部である。
方向情報取得部10は、スマートグラス1の装着部2(フレーム3)に内蔵された加速度センサー及び地磁気センサーにより測定されたデータから、スマートグラス1を装着した利用者の顔面がどの方向を向いているかを分析し、利用者の顔面が向いている方向情報を取得する。
位置情報取得部20は、スマートグラス1に内蔵されたGPS受信機等の位置検出センサーで検出されたデータから、スマートグラス1を装着した利用者の位置情報を取得する。
物体画像取込部30は、スマートグラス1の装着部2(フレーム3)に搭載されたカメラにより、スマートグラス1を装着した利用者の前方に存在する各種機器類(例えば、ステレオ、テレビ、扇風機、エアコン、天井照明)等の複数の物体を撮影してその画像を取り込む。
物体認識部40は、物体画像取込部30が取り込んだ複数の物体を含む画像から、その複数の物体を認識する物体認識を行う。
物体表示部50は、スマートグラス1のレンズ部4に取り付けられ、物体認識部40が認識した複数の物体の画像を表示する。
対応付け情報記憶部60は、各種機器類等の物体ごとに、利用者の顔面が向いている方向情報及び利用者の位置情報が対応付けられた対応付け情報を記憶している。
物体候補特定部70は、方向情報取得部10が取得した利用者の方向情報、位置情報取得部20が取得した利用者の位置情報及び対応付け情報記憶部60に記憶された対応付け情報に基づいて、物体表示部50に表示された複数の物体の中から、利用者の選択または制御する物体の候補を特定する。
物体指定部80は、利用者の操作により、利用者の選択または制御する物体を指定する。
選択物体確定部90は、物体候補特定部70が特定した利用者の選択または制御する物体の候補、または、物体指定部80により利用者が指定した物体を、利用者の選択または制御する物体として確定する。
物体制御部100は、通信部(図示せず)を制御し、選択物体確定部90が確定した物体(各種機器類等)と通信を行い、その動作(例えば、スイッチのON・OFF)を制御する。
[Schematic Configuration of Object Recognition Selection Device (Smart Glass) 1]
FIG. 2 is a block diagram showing a schematic configuration of the object recognition / selection apparatus 1 shown in FIG. In the figure, 10 is a direction information acquisition unit, 20 is a position information acquisition unit, 30 is an object image capture unit, 40 is an object recognition unit, 50 is an object display unit, 60 is an association information storage unit, and 70 is an object candidate specification. , 80 is an object designation unit, 90 is an object determination unit, and 100 is an object control unit.
The direction information acquisition unit 10 determines in which direction the face of the user wearing the smart glass 1 is directed from the data measured by the acceleration sensor and the geomagnetic sensor built in the wearing unit 2 (frame 3) of the smart glass 1. Direction information that the user's face is facing is acquired.
The position information acquisition unit 20 acquires position information of a user wearing the smart glass 1 from data detected by a position detection sensor such as a GPS receiver built in the smart glass 1.
The object image capturing unit 30 is a camera mounted on the mounting unit 2 (frame 3) of the smart glass 1, and various devices (for example, a stereo, a television, a fan) existing in front of the user wearing the smart glass 1. A plurality of objects such as air conditioners and ceiling lights) and capture the images.
The object recognition unit 40 performs object recognition for recognizing a plurality of objects from an image including the plurality of objects captured by the object image capturing unit 30.
The object display unit 50 is attached to the lens unit 4 of the smart glass 1 and displays images of a plurality of objects recognized by the object recognition unit 40.
The association information storage unit 60 stores association information in which direction information that the user's face is facing and position information of the user are associated for each object such as various devices.
The object candidate specifying unit 70 is based on the user direction information acquired by the direction information acquisition unit 10, the user position information acquired by the position information acquisition unit 20, and the association information stored in the association information storage unit 60. Thus, a candidate for an object to be selected or controlled by the user is specified from among a plurality of objects displayed on the object display unit 50.
The object designating unit 80 designates an object to be selected or controlled by a user operation.
The selected object determination unit 90 selects an object candidate to be selected or controlled by the user specified by the object candidate specifying unit 70 or an object specified by the user by the object specifying unit 80 as an object to be selected or controlled by the user. Determine.
The object control unit 100 controls a communication unit (not shown), communicates with an object (such as various devices) determined by the selected object determination unit 90, and controls its operation (for example, ON / OFF of a switch). To do.

[物体認識選択装置1の具体的構成]
図3は、図2に示す物体認識選択装置1の具体的構成の一例を示すブロック図であり、図において、5はスマートグラス1の制御部、6はインターネットに接続されるサーバーである。以下図3に基づいて物体認識選択装置1の具体的構成について説明する。
[Specific Configuration of Object Recognition Selection Device 1]
FIG. 3 is a block diagram showing an example of a specific configuration of the object recognition / selection apparatus 1 shown in FIG. 2, in which 5 is a control unit of the smart glass 1 and 6 is a server connected to the Internet. Hereinafter, a specific configuration of the object recognition / selection apparatus 1 will be described with reference to FIG.

[方向情報取得部10]
図2に示す方向情報取得部10は、加速度センサー11、データ取得蓄積部12、姿勢 分析特定部13、地磁気センサー14、データ取得部15、方位算出特定部16、方向情報作成部17等から構成される。
[Direction information acquisition unit 10]
The direction information acquisition unit 10 shown in FIG. 2 includes an acceleration sensor 11, a data acquisition storage unit 12, a posture analysis specification unit 13, a geomagnetic sensor 14, a data acquisition unit 15, a direction calculation specification unit 16, a direction information generation unit 17, and the like. Is done.

加速度センサー11は、フレーム3の左側のレンズ部4の近傍に内蔵され、スマートグラス1(装着部2)に作用する重力加速度を測定するものであり、加速度センサー11によって測定された重力加速度データは、データ取得蓄積部12に一旦保存されて蓄積された後、姿勢分析特定部13に送られる。   The acceleration sensor 11 is built in the vicinity of the lens unit 4 on the left side of the frame 3 and measures the gravitational acceleration acting on the smart glass 1 (mounting unit 2). The gravitational acceleration data measured by the acceleration sensor 11 is After being stored and accumulated in the data acquisition / storage unit 12, it is sent to the posture analysis specifying unit 13.

姿勢分析特定部13は、データ取得蓄積部12から送られてくる重力加速度データを分析して、利用者がどのような姿勢でいるかを特定する。
図4は、利用者の姿勢と利用者に装着されたスマートグラス1(装着部2)に作用する重力との関係を説明するための図であり、図において、Uは利用者、UFは利用者の顔面、VDは顔面UFが向く方向の範囲である。以下図に基づいて利用者の姿勢とスマートグラス1に作用する重力との関係の関係を説明するが、ここでは、スマートグラス1(装着部2)の奥行き方向をX軸、左右方向をZ軸、上下方向(鉛直方向)をY軸とする。
図4(a)に示すように利用者Uが起立した姿勢であるときは、顔面UFは水平方向を向くこととなり、顔面UFに装着されたスマートグラス1のXZ軸方向が水平方向となるから、重力加速度はY軸方向に作用する。
一方、図4(b)に示すように利用者Uが寝た姿勢であるときは、顔面UFは上方を向くこととなり、顔面UFに装着されたスマートグラス1のYZ軸方向が水平方向となるから、重力加速度はX軸方向に作用する。
このようにスマートグラス1に作用する重力加速度データから、利用者Uがどのような姿勢であるか、すなわち、顔面UFが上下方向(鉛直方向)VDのどの方向を向いているかを特定することができる。
利用者の姿勢としては、起立(顔面が水平方向を向いている)、寝る(顔面が真上方向を向いている)の他、斜め上(顔面が斜め上方向を向いている)、斜め下(顔面が斜め下方向を向いている)を設けてもよく、さらに細かく設定してもよい。また、連続的に測定した重力加速度データの時間的な変化を分析して、利用者の顔面の上下方向の向きの変化を求め、これより推定される姿勢(例えば、座った姿勢、うつ伏せ等)を設定してもよい。
このようにして姿勢分析特定部13が特定した利用者の姿勢(顔面が上下方向(鉛直方向)VDのどの方向を向いているか)の情報は、方向情報作成部17に送られる。
The posture analysis specifying unit 13 analyzes the gravitational acceleration data sent from the data acquisition and storage unit 12 and specifies the posture of the user.
FIG. 4 is a diagram for explaining the relationship between the posture of the user and the gravity acting on the smart glass 1 (mounting unit 2) attached to the user, where U is the user and UF is the use. A person's face, VD, is a range in a direction in which the face UF faces. The relationship between the user's posture and the gravity acting on the smart glass 1 will be described below with reference to the drawings. Here, the depth direction of the smart glass 1 (mounting part 2) is the X axis, and the left and right direction is the Z axis. The vertical direction is the Y axis.
As shown in FIG. 4A, when the user U is in an upright posture, the face UF faces in the horizontal direction, and the XZ axis direction of the smart glass 1 attached to the face UF is in the horizontal direction. Gravitational acceleration acts in the Y-axis direction.
On the other hand, when the user U is in a sleeping posture as shown in FIG. 4B, the face UF faces upward, and the YZ-axis direction of the smart glass 1 attached to the face UF becomes the horizontal direction. Therefore, the gravitational acceleration acts in the X-axis direction.
Thus, from the gravity acceleration data acting on the smart glass 1, it is possible to specify the posture of the user U, that is, the direction in which the face UF is directed in the vertical direction (vertical direction) VD. it can.
The posture of the user is standing up (face is facing horizontally), sleeping (face is facing directly upward), diagonally up (face is facing diagonally upward), diagonally downward (The face faces obliquely downward) may be provided, or may be set more finely. In addition, by analyzing the temporal change of gravity acceleration data measured continuously, the change in the vertical direction of the user's face is obtained, and the estimated posture (for example, sitting posture, prone position, etc.) May be set.
Information on the user's posture (which direction the face is facing in the vertical direction (vertical direction) VD) specified by the posture analysis specifying unit 13 in this way is sent to the direction information creating unit 17.

地磁気センサー14は、フレーム3の左側のレンズ部4の近傍に内蔵され、スマートグラス1(装着部2)に作用する磁界の向きを測定するものであり、地磁気センサー14によって測定されたデータは、データ取得部15に一旦取り込まれた後、方位算出特定部16に送られる。
方位算出特定部16は、データ取得部15から送られてくるデータ(磁界の向き)から、北、北東、東等の方位を45度単位で計算して、利用者の顔面がどの方位を向いているかを特定する。計算する方位は、北、北東、東等の他さらに北北東等を加えた15度単位でもよく、さらに細かくしてもよい。
図5は、利用者の顔面の向いている方位と利用者に装着されたスマートグラス1(装着部2)に作用する磁界の向きとの関係を説明するための図であり。図において、UDはスマートグラス1に作用する磁界の向き、HDは利用者Uの顔面UFが向く方向の範囲である。図に示すように、地磁気センサー14によって測定される磁界の向きUDが、東西南北のどの方位にあるのかを求めることにより、利用者Uの顔面UFが水平方向HDのどの方向(方位)を向いているのかを求めることができる。
このようにして方位算出特定部16が特定した利用者の方位(顔面が水平方向HDのどの方向を向いているか)の情報は、方向情報作成部17に送られる。
なお、スマートグラス1は傾いて使用されること(スマートグラス1を装着した利用者の顔が上下方向に傾くこと)も多いことから、地磁気センサー14は3軸型が使用される。
The geomagnetic sensor 14 is built in the vicinity of the lens unit 4 on the left side of the frame 3 and measures the direction of the magnetic field acting on the smart glass 1 (mounting unit 2). The data measured by the geomagnetic sensor 14 is After being once taken into the data acquisition unit 15, it is sent to the direction calculation specifying unit 16.
The azimuth calculation specifying unit 16 calculates the azimuth of north, northeast, east, etc. in units of 45 degrees from the data (magnetic field direction) sent from the data acquisition unit 15, and which direction the user's face is facing. To identify. The azimuth to be calculated may be a unit of 15 degrees including north, northeast, east, etc., and further north, northeast, etc., or may be further reduced.
FIG. 5 is a diagram for explaining the relationship between the orientation of the user's face and the direction of the magnetic field acting on the smart glass 1 (mounting unit 2) mounted on the user. In the figure, UD is the direction of the magnetic field acting on the smart glass 1, and HD is the range of the direction in which the face UF of the user U faces. As shown in the figure, the direction UD of the magnetic field measured by the geomagnetic sensor 14 is determined in which direction in the east, west, south, and north directions. Can ask.
Information on the user's azimuth (which direction the face faces in the horizontal direction HD) identified by the azimuth calculation / identification unit 16 in this way is sent to the direction information creation unit 17.
Since the smart glass 1 is often used while being tilted (the face of the user wearing the smart glass 1 is often tilted vertically), the geomagnetic sensor 14 is a three-axis type.

方向情報作成部17は、姿勢分析特定部13から送られてくる利用者の姿勢(顔面が上下方向(鉛直方向)VDのどの方向を向いているか)の情報と、方位算出特定部16から送られてくる利用者の方位(顔面が水平方向HDのどの方向を向いているか)の情報を合わせ、これを利用者の顔面が向いている方向情報として物体候補特定部70に送る。   The direction information creation unit 17 sends information about the user's posture (which direction the face is facing in the vertical direction (vertical direction) VD) sent from the posture analysis specifying unit 13 and the direction calculation specifying unit 16. Information on the orientation of the user (which direction the face is facing in the horizontal direction HD) is combined, and this is sent to the object candidate specifying unit 70 as direction information that the user's face is facing.

[位置情報取得部20]
図2に示す位置情報取得部20は、位置検出センサー21、データ取得部22、位置情報作成部23等から構成される。
[Position information acquisition unit 20]
The position information acquisition unit 20 illustrated in FIG. 2 includes a position detection sensor 21, a data acquisition unit 22, a position information creation unit 23, and the like.

位置検出センサー21は、GPS受信機、Wifi、IMES、ビーコン等であり、スマートグラス1のコントローラー6に内蔵され、スマートグラス1を装着した利用者の位置を検出して出力する。GPS受信機は利用者が屋外にいるときの位置を検出するもので、GPS衛星からの電波を受信して位置データとして出力する。また、Wifi、IMES、ビーコン等は、利用者が屋内にいるときの位置を検出ものである。そして、位置検出センサー21から出力される位置データは、データ取得部22に一旦取り込まれた後、位置情報作成部23に送られる。
位置情報作成部23は、データ取得部22から送られた位置データに基づいて、利用者の位置情報を作成し、作成した位置情報を物体候補特定部70に送る。位置情報作成部23が作成する位置情報は、位置検出センサー21が出力する緯度経度等の数値データであってもよく、位置データに対応付けられた住所、施設・建物名であってもよく、利用者が特定した部屋名(リビング、寝室等)や部屋の一部(リビング窓際、リビングソファ)であってもよい(この場合は予め位置データと部屋名や部屋の一部を対応付けておく。)。
The position detection sensor 21 is a GPS receiver, WiFi, IMES, beacon or the like, and is built in the controller 6 of the smart glass 1 to detect and output the position of the user wearing the smart glass 1. The GPS receiver detects a position when the user is outdoors, receives a radio wave from a GPS satellite, and outputs it as position data. Wifi, IMES, beacons, and the like detect the position when the user is indoors. The position data output from the position detection sensor 21 is once taken into the data acquisition unit 22 and then sent to the position information creation unit 23.
The position information creation unit 23 creates user position information based on the position data sent from the data acquisition unit 22, and sends the created position information to the object candidate identification unit 70. The position information created by the position information creating unit 23 may be numerical data such as latitude and longitude output by the position detection sensor 21, or may be an address, facility / building name associated with the position data, It may be a room name specified by the user (living room, bedroom, etc.) or a part of the room (by the living window, living sofa) (in this case, the position data is associated with the room name or a part of the room in advance) .)

[物体画像取得部30]
図2に示す物体画像取込部30は、カメラ31、画像取得部32、送信部33、インターネット回線34、受信部35、画像取得部36等から構成される。
カメラ31は、スマートグラス1のフレーム3の右側のレンズ部4の近傍に取付けられ、スマートグラス1(装着部2)を装着した利用者の前方に存在する物体を撮影する。画像取得部32は、カメラ31が撮影した画像を取り込み、送信部33はこの画像をインターネット回線34によりサーバー6に送信する。
サーバー8側では、受信部35がインターネット回線34から送られてくる画像を受信し、画像取得部36が受信した画像を取り込み、物体認識部40に送る。
[Object Image Acquisition Unit 30]
The object image capturing unit 30 shown in FIG. 2 includes a camera 31, an image acquisition unit 32, a transmission unit 33, an Internet line 34, a reception unit 35, an image acquisition unit 36, and the like.
The camera 31 is attached in the vicinity of the lens unit 4 on the right side of the frame 3 of the smart glass 1 and photographs an object existing in front of the user wearing the smart glass 1 (mounting unit 2). The image acquisition unit 32 captures an image captured by the camera 31, and the transmission unit 33 transmits this image to the server 6 through the Internet line 34.
On the server 8 side, the receiving unit 35 receives an image sent from the Internet line 34, the image acquisition unit 36 takes in the received image, and sends it to the object recognition unit 40.

[物体認識部40]
物体認識部40は、画像取得部36から送られてくる画像について、その画像に含まれている物体をモデルデータ記憶部(図示せず)に記憶されているモデルデータに基づいて認識する。モデルデータ記憶部には、各種機器類(例えば、ステレオ、テレビ、扇風機、エアコン、天井照明)等の物体の外形データがモデルデータとしてその名称(識別記号)を付して記憶されている。
よって、物体認識部40では、画像取得部36から送られてくる画像に含まれる物体の外形を抽出し、抽出した物体の外形とモデルデータ記憶部に記憶されているモデルデータ(物体の外形データ)とのマッチングを行い、マッチしたモデルデータをその画像に含まれている物体として認識し、その名称(識別記号)を対応付ける。
そして、物体認識部40は、認識した物体の画像とそれに対応付けた名称(識別記号)を送信部41に送り、送信部41はこれをインターネット回線42(34)によりスマートグラス1に送信する。
[Object recognition unit 40]
The object recognition unit 40 recognizes an object included in the image sent from the image acquisition unit 36 based on model data stored in a model data storage unit (not shown). In the model data storage unit, external data of an object such as various devices (for example, stereo, television, electric fan, air conditioner, ceiling lighting) is stored as model data with its name (identification symbol).
Therefore, the object recognizing unit 40 extracts the outer shape of the object included in the image sent from the image acquisition unit 36, and the extracted object outer shape and the model data (object outer shape data stored in the model data storage unit). ), The matched model data is recognized as an object included in the image, and the name (identification symbol) is associated.
Then, the object recognition unit 40 sends the recognized object image and the name (identification symbol) associated therewith to the transmission unit 41, and the transmission unit 41 transmits this to the smart glass 1 via the Internet line 42 (34).

スマートグラス1側では、受信部43がインターネット回線42(34)から送られてくる物体の画像とその名称(識別記号)を受信し、物体画像取得部44がこれを取得し、ディスプレイ50と物体候補特定部70に送る。
なお、物体認識40は、サーバー6側に設けるのではなく、スマートグラス1側に設けてもよい。その場合は、送信部33、インターネット回線34、受信部35、画像取得部36等は不要となり、物体認識40は、画像取得部32からの画像を直接物体認識する。
On the smart glass 1 side, the receiving unit 43 receives the image of the object and its name (identification symbol) sent from the Internet line 42 (34), and the object image acquiring unit 44 acquires this, and the display 50 and the object The data is sent to the candidate specifying unit 70.
The object recognition 40 may be provided not on the server 6 side but on the smart glass 1 side. In this case, the transmission unit 33, the Internet line 34, the reception unit 35, the image acquisition unit 36, and the like are not necessary, and the object recognition 40 directly recognizes an image from the image acquisition unit 32.

[画像表示部(ディスプレイ)50]
図2の画像表示部50であるディスプレイ50は、スマートグラス1のレンズ部4、4の上部に設けられ、物体認識部40が認識し物体画像取得部44が取得した物体の画像を投影表示する。
図6は、ディスプレイ50に表示された物体の画像の例を示したものであり、51は画面である。この例では、物体認識部40が、物体認識により、ステレオ、テレビ、扇風機、エアコン、天井照明を認識したため、これらの画像200が実際に配置されている状態でデ表示画面51に表示されている。すなわち、画面51の上部には天井照明の画像201とエアコンの画像202が表示され、中央部にはテレビの画像203が表示され、下部にはステレオの画像204と扇風機の画像205が表示されている。
そして、利用者は、レンズ部4、4を通して実際にステレオ、テレビ、扇風機、エアコン、天井照明を視認すると共に、画面51に表示されたこれらの画像201〜205を見ることとなる。
[Image Display Unit (Display) 50]
A display 50, which is the image display unit 50 of FIG. 2, is provided on the upper part of the lens units 4 and 4 of the smart glass 1, and projects and displays an object image recognized by the object recognition unit 40 and acquired by the object image acquisition unit 44. .
FIG. 6 shows an example of an image of an object displayed on the display 50, and 51 is a screen. In this example, since the object recognition unit 40 has recognized stereo, television, electric fan, air conditioner, and ceiling lighting by object recognition, these images 200 are displayed on the display screen 51 in a state where they are actually arranged. . That is, a ceiling lighting image 201 and an air conditioner image 202 are displayed at the top of the screen 51, a television image 203 is displayed at the center, and a stereo image 204 and a fan image 205 are displayed at the bottom. Yes.
The user actually sees the stereo, television, fan, air conditioner, and ceiling lighting through the lens units 4 and 4 and sees these images 201 to 205 displayed on the screen 51.

[対応付け情報記憶部60]
対応付け情報記憶部60は、方向情報作成部17が作成する利用者の顔面が向いている方向情報及び位置情報作成部23が作成する利用者の位置情報と、カメラ31が撮影し物体認識部40が認識する物体とを対応付けた対応付け情報を記憶する。
図7は、対応付け情報記憶部60が記憶する対応付け情報を表した履歴情報テーブルの例を示したものである。
図7の履歴情報テーブル61は、「履歴ID」、「方向情報(姿勢、方位)」、「位置情報」、「認識した物体」及び「選択した物体」の項目からなる履歴情報を記録したものである。
「履歴ID」は、利用者が過去にスマートグラス1を装着して物体を選択した履歴情報を区別する番号等であり、「方向情報」は、利用者がある物体を選択したときの姿勢(顔面が上下方向(鉛直方向)のどの方向を向いているか)と方位(顔面が水平方向HDのどの方向を向いているか)の情報を記録したものであり、「位置情報」は、そのときに利用者がいた位置情報を記録したものであり、「認識した物体」は、そのときに物体認識部40が認識しディスプレイ50(画面51)に表示された物体を記録したものであり、「選択した物体」は、そのときに利用者が選択した物体を記録したものである。
例えば、履歴ID「1」には、利用者が「起立」姿勢で、顔面が「東」を向いており、「リビング」にいるとき、「天井照明、エアコン、テレビ、ステレオ、扇風機」の物体が認識され、利用者が選択した物体が「天井照明」である履歴情報が記録されている。
また、履歴情報テーブル61は、過去に利用者が物体を選択したときの履歴情報がすべて記録されており、過去に「方向情報(姿勢、方位)」、「位置情報」、「認識した物体」及び「選択した物体」のすべてが同じ履歴情報があっても、別の履歴IDを付して新たな履歴情報として記録される。例えば、履歴ID「1」と「6」は、「方向情報(姿勢、方位)」、「位置情報」、「認識した物体」及び「選択した物体」のすべてが同一の履歴情報となっている。
なお、履歴テーブル61においては、方向情報のうち姿勢は、「起立」と「寝る」としたが、さらに「斜め上」、「斜め下」等を加えてより細かく設定してもよく、方位も「北」、「東」、「南」、「西」の他に「北東」、「北北東」等を加えてより細かく設定してもよい。また、位置情報も「リビング」、「寝室」等の部屋の他に「リビング窓際」、「リビングソファ」といったように部屋の一部まで細かく設定してもよい。
[Association Information Storage Unit 60]
The association information storage unit 60 includes the direction information created by the direction information creation unit 17 and the position information of the user created by the camera 31 and the object recognition unit. The association information that associates the object recognized by 40 is stored.
FIG. 7 shows an example of a history information table representing the association information stored in the association information storage unit 60.
The history information table 61 in FIG. 7 records history information including items of “history ID”, “direction information (attitude and orientation)”, “position information”, “recognized object”, and “selected object”. It is.
“History ID” is a number or the like that distinguishes history information that the user has selected the object by wearing the smart glass 1 in the past, and “direction information” is the posture when the user selects an object ( Information on which direction the face is facing in the vertical direction (vertical direction)) and orientation (which direction the face is facing in the horizontal direction HD) is recorded. The user's position information is recorded, and the “recognized object” is a record of the object recognized by the object recognition unit 40 at that time and displayed on the display 50 (screen 51). The “selected object” is a record of the object selected by the user at that time.
For example, in the history ID “1”, when the user is in the “standing” posture, the face is facing “east”, and in the “living room”, the object “ceiling lighting, air conditioner, TV, stereo, electric fan” Is recorded, and history information that the object selected by the user is “ceiling lighting” is recorded.
The history information table 61 records all the history information when the user has selected an object in the past. In the past, “direction information (attitude, orientation)”, “position information”, “recognized object” Even if all the “selected objects” have the same history information, they are recorded as new history information with different history IDs. For example, in the history IDs “1” and “6”, all of “direction information (posture and orientation)”, “position information”, “recognized object”, and “selected object” are the same history information. .
In the history table 61, the postures of the direction information are “standing” and “sleeping”, but may be set more finely by adding “diagonally up”, “diagonally below”, etc. In addition to “north”, “east”, “south”, and “west”, “north-east”, “north-north-east”, and the like may be added for more detailed setting. In addition to the room such as “living room” and “bedroom”, the position information may be set finely to a part of the room such as “living window” and “living sofa”.

上記のように利用者がどの位置にいて顔面がどの方向を向いている場合にどの物体を選択したかという履歴情報に基づいて、利用者の方向情報及び位置情報と物体との対応付けを行うのは、以下の理由による。
どのような物体が存在するかは利用者の位置によって決まり、一般的に利用者は選択したい物体の方に顔面を向けることから、利用者の方向情報及び位置情報から利用者が選択した物体はおおよそ特定できる。
しかしながら、利用者によっては必ずしも選択したい物体の方に顔面を向けるとは限らない。例えば、天井照明を選択したい場合、天井照明の方に顔面を向けず、上目遣いに天井照明を見る利用者もいる。また、利用者から見て同一方向に複数の物体がある場合、顔面の向きからだけでは、選択したい物体を特定できない。
このような場合、利用者の習性を利用すれば、利用者の選択したい物体を選択することができる。すなわち、選択したい物体に対して顔面をどの方向に向けるかは、利用者の習性によることが多く、また、利用者から見て同一方向に複数の物体がある場合、どの物体を選択したいかも、利用者の習性によることが多い(例えば、利用者の真正面にステレオ、テレビ、扇風機がある場合、ある利用者は常にテレビを選択して操作するという習性がある。)。
したがって、利用者がどの位置にいて顔面がどの方向を向いている場合にどの物体を選択したかという履歴情報に基づけば、利用者の習性等が反映され、利用者が選択したい物体をより的確に選択することができる。
As described above, the user's direction information and position information are associated with the object based on the history information indicating which object is selected when the user is in which position and in which direction the face is facing. The reason is as follows.
What kind of object exists depends on the position of the user, and since the user generally turns his face toward the object he wants to select, the object selected by the user based on the user's direction information and position information is It can be roughly identified.
However, some users do not always turn their face toward the object they want to select. For example, when it is desired to select ceiling lighting, there are some users who do not turn their face toward the ceiling lighting and watch the ceiling lighting as an upper eye. Further, when there are a plurality of objects in the same direction as viewed from the user, the object to be selected cannot be specified only from the direction of the face.
In such a case, if the user's behavior is used, an object that the user wants to select can be selected. In other words, the direction in which the face is directed to the object to be selected often depends on the user's habits, and when there are multiple objects in the same direction as seen from the user, which object to select It often depends on the habits of the user (for example, when there is a stereo, a TV, or a fan in front of the user, a certain user always has the habit of selecting and operating the TV).
Therefore, based on the history information on which object is selected when the user is in which position and in which direction the face is facing, the user's habits and the like are reflected, and the object that the user wants to select is more accurate. Can be selected.

[物体候補特定部70]
物体候補特定部70は、方向情報作成部17から送られてくる利用者の顔面が向いている方向情報(利用者の姿勢と方位の情報)、位置情報作成部23から送られてくる利用者の位置情報及び対応付け情報記憶部60に記憶された履歴情報テーブル61の履歴情報(対応付け情報)に基づいて、物体認識部40が認識しディスプレイ50に表示した複数の物体の中から、利用者の選択する物体の候補を特定する。
すなわち、物体候補特定部70は、履歴情報テーブル61を検索して、方向情報作成部17からの方向情報(姿勢と方位)と位置情報作成部23からの位置情報と一致する方向情報(姿勢と方位)と位置情報が記録された履歴IDの履歴情報を探し、一致する履歴IDの履歴情報において選択した物体を物体の候補とする。
例えば、方向情報作成部17からの方向情報(姿勢と方位)が「起立」と「東」であり、位置情報作成部23からの位置情報が「リビング」の場合、履歴情報テーブル61の方向情報(姿勢と方位)と位置情報が一致する履歴IDは、「1」と「6」であり、履歴ID「1」と「6」の履歴情報において「選択した物体」は、共に「天井照明」であるから、物体候補特定部70が特定する物体の候補は「天井照明」となる。
また、物体候補特定部70は、方向情報作成部17からの方向情報(姿勢と方位)と位置情報作成部23からの位置情報と一致する方向情報(姿勢と方位)と位置情報が記録された履歴IDが複数あって、その履歴IDの選択した物体が異なる場合は、物体の候補に優先順位を付け、一致した回数の多い物体ほど優先順位の高い物体の候補とする。
このようにして物体候補特定部70が特定した物体の候補は、ディスプレイ50(画面51)に表示されるが、物体の候補の候補が複数ある場合は、優先順位を付けて表示される。
[Object candidate specifying unit 70]
The object candidate specifying unit 70 receives direction information (information on the user's posture and orientation) sent from the direction information creation unit 17 and information sent from the position information creation unit 23. Of the plurality of objects recognized by the object recognizing unit 40 and displayed on the display 50 based on the position information and the history information (association information) of the history information table 61 stored in the association information storage unit 60. The candidate of the object which a person selects is specified.
That is, the object candidate specifying unit 70 searches the history information table 61, and direction information (attitude and orientation) that matches the direction information (posture and orientation) from the direction information creation unit 17 and the position information from the position information creation unit 23. The history information of the history ID in which the (azimuth) and the position information are recorded is searched, and the object selected in the history information of the matching history ID is set as the object candidate.
For example, when the direction information (posture and direction) from the direction information creation unit 17 is “standing” and “east” and the position information from the position information creation unit 23 is “living”, the direction information in the history information table 61 The history IDs whose position information matches (posture and orientation) are “1” and “6”, and the “selected object” in the history information of the history IDs “1” and “6” is both “ceiling lighting”. Therefore, the object candidate specified by the object candidate specifying unit 70 is “ceiling lighting”.
In addition, the object candidate specifying unit 70 stores the direction information (posture and orientation) from the direction information creation unit 17 and the direction information (posture and orientation) that matches the position information from the position information creation unit 23 and the position information. If there are a plurality of history IDs and the selected objects of the history IDs are different, priorities are assigned to the object candidates, and objects with a higher number of matches are set as higher priority object candidates.
The object candidates specified by the object candidate specifying unit 70 in this way are displayed on the display 50 (screen 51), but when there are a plurality of object candidate candidates, they are displayed with priorities.

図8は、物体候補特定部70が特定した物体の候補をディスプレイ50(画面51)に表示した例を説明する図である。図においては、物体候補特定部70が特定した物体の候補が「天井照明」あるため、天井照明を表す画像201に対して、その周囲を囲む選択枠210を表示した例を示している。物体候補特定部70が特定した物体の候補をディスプレイ50(画面51)に表示する方法は、このような選択枠を表示することの他、特定した物体の候補を点滅表示してもよく、特定した物体の候補の名称を表示してもよい。   FIG. 8 is a diagram for explaining an example in which object candidates specified by the object candidate specifying unit 70 are displayed on the display 50 (screen 51). In the figure, since the object candidate specified by the object candidate specifying unit 70 is “ceiling lighting”, an example is shown in which a selection frame 210 surrounding the image 201 representing ceiling lighting is displayed. The method of displaying the object candidate specified by the object candidate specifying unit 70 on the display 50 (screen 51) is not limited to displaying such a selection frame, and the specified object candidate may be displayed blinking. You may display the name of the candidate of the made object.

[物体指定部80、物体確定部90]
物体指定部80は、物体候補特定部70が特定した物体の候補以外の物体を利用者の選択または制御する物体として選択する場合、利用者の操作により、利用者の選択する物体を指定する。
物体確定部90は、物体候補特定部70が特定した物体の候補、または、物体指定部80が指定した物体を利用者の選択する物体として確定する。
[Object designation unit 80, object determination unit 90]
When the object specifying unit 80 selects an object other than the object candidate specified by the object candidate specifying unit 70 as an object to be selected or controlled by the user, the object specifying unit 80 specifies the object to be selected by the user through the operation of the user.
The object determining unit 90 determines the object candidate specified by the object candidate specifying unit 70 or the object specified by the object specifying unit 80 as an object to be selected by the user.

図9は、物体確定部90が利用者の選択する物体を確定する例を説明するための図である。以下、物体候補特定部70が特定した物体の候補「天井照明」に対して、物体指定部80が他の物体「エアコン」を指定した場合について説明する。
物体指定部80は、ディスプレイ50(画面51)に表示された「天井照明」の画像210を囲む選択枠210の下方に、「他候補選択」の文字が入ったボタン211と「確定」の文字が入ったボタン212を表示する(図9(a))。利用者が「確定」のボタン212を押すと、物体確定部90は、物体候補特定部70が特定した物体の候補「天井照明」を利用者の選択する物体として確定する。一方、利用者が「他候補選択」のボタン211を押すと、選択枠210が利用者の操作により移動できるようになり、利用者が選択枠210を「エアコン」の画像202の周囲に移動させると、物体指定部80は、選択枠210の下方に再び「他候補選択」のボタン211と「確定」のボタン212が表示する。ここで、利用者が「確定」のボタン212を押すと、物体確定部90は、物体指定部80が指定した物体「エアコン」を利用者の選択する物体として確定する。
このようにして物体確定部90は利用者の選択する物体を確定するが、そのときの利用者の方向情報(姿勢と方位)及び位置情報と、物体確定部90が確定した物体とを対応付けて新たな履歴情報とし、これを履歴情報書込部(図示せず)が履歴情報テーブル61に追加記録する。
そして、物体確定部90が確定した物体の情報は、物体制御部100に送られる。
FIG. 9 is a diagram for explaining an example in which the object determination unit 90 determines an object selected by the user. Hereinafter, a case where the object specifying unit 80 specifies another object “air conditioner” for the object candidate “ceiling lighting” specified by the object candidate specifying unit 70 will be described.
The object designating unit 80 includes a button 211 containing “other candidate selection” characters and a “confirm” character below a selection frame 210 surrounding the “ceiling lighting” image 210 displayed on the display 50 (screen 51). A button 212 containing is displayed (FIG. 9A). When the user presses the “determine” button 212, the object determination unit 90 determines the object candidate “ceiling illumination” specified by the object candidate specification unit 70 as the object to be selected by the user. On the other hand, when the user presses the “select other candidates” button 211, the selection frame 210 can be moved by the user's operation, and the user moves the selection frame 210 around the “air conditioner” image 202. Then, the object designating unit 80 displays a “select other candidate” button 211 and a “confirm” button 212 again below the selection frame 210. Here, when the user presses the “determine” button 212, the object determination unit 90 determines the object “air conditioner” designated by the object designation unit 80 as the object to be selected by the user.
In this way, the object determination unit 90 determines the object selected by the user, and associates the direction information (posture and orientation) and position information of the user at that time with the object determined by the object determination unit 90. The history information writing unit (not shown) additionally records the new history information in the history information table 61.
Then, the information on the object determined by the object determination unit 90 is sent to the object control unit 100.

[物体制御部100]
物体制御部100は、各種操作機器を制御するサーバー(図示せず)と通信を行う通信部(図示せず)を制御し、このサーバーを介して、物体確定部90が確定した物体(各種機器類等)と通信を行い、その動作(例えば、スイッチのON・OFF)を制御する。
[Object control unit 100]
The object control unit 100 controls a communication unit (not shown) that communicates with a server (not shown) that controls various operation devices, and the object (various devices) determined by the object determination unit 90 via this server. Communication) and control its operation (eg, switch ON / OFF).

[物体認識選択装置(スマートグラス)1の動作の概要]
図10は、物体認識選択装置(スマートグラス)1の動作の概要を示すフローチャートであり、以下図10に基づいて物体認識選択装置1の動作の概要を説明する。
まず、方向情報取得部10が、加速度センサー11及び地磁気センサー14により測定されたデータから、スマートグラス1を装着した利用者の顔面がどの方向を向いているかを分析し、利用者の顔面が向いている方向情報を取得する(S1)。
次いで、位置情報取得部20が、位置検出センサー21で検出されたデータから、スマートグラス1を装着した利用者の位置情報を取得する(S2)。
次いで、物体画像取込部30が、スマートグラス1に搭載されたカメラ31により、利用者の前方に存在する複数の物体を撮影してその画像を取り込む(S3)。
次いで、物体認識部40が、物体画像取込部30が取り込んだ複数の物体を含む画像から、その複数の物体を認識する物体認識を行い(S4)、認識した複数の物体の画像を画像表示部50に表示する(S5)。
次いで、物体候補特定部70が、方向情報取得部10が取得した利用者の方向情報、位置情報取得部20が取得した利用者の位置情報及び対応付け情報記憶部60に記憶された対応付け情報に基づいて、物体表示部50に表示された複数の物体の中から、利用者の選択または制御する物体の候補を特定する(S6)。
次いで、物体確定部90が、物体候補特定部70が特定した利用者の選択または制御する物体の候補、または、物体指定部80により利用者が指定した物体を、利用者の選択または制御する物体として確定する(S7)。
最後に、物体制御部100が、物体確定部90が確定した利用者の選択または制御する物体(各種機器類等)と通信を行い、その動作(例えば、スイッチのON・OFF)を制御し(S8)、終了する。
[Outline of Operation of Object Recognition Selection Device (Smart Glass) 1]
FIG. 10 is a flowchart showing an outline of the operation of the object recognition / selection apparatus (smart glasses) 1. The outline of the operation of the object recognition / selection apparatus 1 will be described below with reference to FIG.
First, the direction information acquisition unit 10 analyzes which direction the face of the user wearing the smart glass 1 is facing from the data measured by the acceleration sensor 11 and the geomagnetic sensor 14, and the face of the user is facing. Direction information is acquired (S1).
Next, the position information acquisition unit 20 acquires the position information of the user wearing the smart glass 1 from the data detected by the position detection sensor 21 (S2).
Next, the object image capturing unit 30 captures and captures a plurality of objects existing in front of the user with the camera 31 mounted on the smart glass 1 (S3).
Next, the object recognition unit 40 performs object recognition for recognizing the plurality of objects from the image including the plurality of objects captured by the object image capturing unit 30 (S4), and displays the images of the recognized plurality of objects as images. It is displayed on the part 50 (S5).
Next, the object candidate identification unit 70 acquires the user direction information acquired by the direction information acquisition unit 10, the user position information acquired by the position information acquisition unit 20, and the association information stored in the association information storage unit 60. Based on the above, a candidate for an object to be selected or controlled by the user is specified from among a plurality of objects displayed on the object display unit 50 (S6).
Next, the object determination unit 90 selects the user candidate selected or controlled by the object candidate specifying unit 70 or the object specified by the user using the object specifying unit 80, or the object selected or controlled by the user. (S7).
Finally, the object control unit 100 communicates with an object (such as various devices) selected or controlled by the user determined by the object determination unit 90 and controls its operation (for example, switch ON / OFF) ( S8), the process ends.

[方向情報取得部10の動作]
図11は、方向情報取得部10が行う方向情報の取得の動作(図10のS1)の詳細を示すフローチャートであり、以下図11に基づいて方向情報取得部10の動作を説明する。
まず、加速度センサー11が、利用者が装着したスマートグラス1に作用する重力加速度を測定し(S10)、データ取得蓄積部12が測定されたデータを一旦保存蓄積する(S11)。
次いで、姿勢分析特定部13が、データ取得蓄積部12から送られてくる重力加速度データを分析して、利用者の顔面が上下方向(鉛直方向)のどの方向を向いているか、すなわち、利用者がどのような姿勢でいるかを特定し(S12)、特定した利用者の姿勢情報を方向情報作成部17に送る(S13)。
利用者の姿勢情報には、起立(顔面が水平方向を向いている)、寝る(顔面が真上方向を向いている)、斜め上(顔面が斜め上方向を向いている)、斜め下(顔面が斜め下方向を向いている)等がある。
次いで、地磁気センサー14が、スマートグラス1に作用する磁界の向きを測定し(S14)、方位算出特定部16が、測定データ(磁界の向き)から、北、北東、東等の方位を計算して、利用者の顔面がどの方位を向いているかを特定し(S15)、特定した利用者の方位情報を方向情報作成部17に送る(S16)。
最後に、方向情報作成部17が、姿勢分析特定部13から送られてくる利用者の姿勢情報と、方位算出特定部16から送られてくる利用者の方位情報を合わせて、利用者の顔面が向いている方向情報を作成し(S17)、方向情報の取得処理を終了する。
[Operation of Direction Information Acquisition Unit 10]
FIG. 11 is a flowchart showing details of the direction information acquisition operation (S1 in FIG. 10) performed by the direction information acquisition unit 10, and the operation of the direction information acquisition unit 10 will be described below with reference to FIG.
First, the acceleration sensor 11 measures the gravitational acceleration acting on the smart glass 1 worn by the user (S10), and the data acquisition / storage unit 12 temporarily stores and stores the measured data (S11).
Next, the posture analysis specifying unit 13 analyzes the gravitational acceleration data sent from the data acquisition and storage unit 12 to determine which direction of the user's face is in the vertical direction (vertical direction), that is, the user Is identified (S12), and the identified posture information of the user is sent to the direction information creation unit 17 (S13).
User posture information includes standing (face is facing horizontally), sleeping (face is facing directly upward), diagonally upward (face is facing diagonally upward), diagonally downward ( The face is facing diagonally downward).
Next, the geomagnetic sensor 14 measures the direction of the magnetic field acting on the smart glass 1 (S14), and the direction calculation specifying unit 16 calculates the direction of north, northeast, east, etc. from the measurement data (direction of the magnetic field). Then, the orientation of the user's face is specified (S15), and the specified orientation information of the user is sent to the direction information creation unit 17 (S16).
Finally, the direction information creation unit 17 combines the user's posture information sent from the posture analysis specifying unit 13 and the user's heading information sent from the direction calculation specifying unit 16 to obtain the user's face. Is created (S17), and the direction information acquisition process is terminated.

[位置情報取得部20の動作]
図12は、位置情報取得部20が行う位置情報の取得の動作(図10のS2)の詳細を示すフローチャートであり、以下図12に基づいて位置情報取得部20の動作を説明する。
まず、GPS受信機等の位置検出センサー21が、スマートグラス1を装着した利用者の位置を検出して、位置データを出力する(S20)。
次いで、データ取得部22が出力される位置データを取り込み(S21)、この位置データに基づいて位置情報作成部23が利用者の位置情報を作成し(S22)、位置情報の取得処理を終了する。
[Operation of Position Information Acquisition Unit 20]
FIG. 12 is a flowchart showing details of the position information acquisition operation (S2 in FIG. 10) performed by the position information acquisition unit 20. The operation of the position information acquisition unit 20 will be described below with reference to FIG.
First, the position detection sensor 21 such as a GPS receiver detects the position of the user wearing the smart glass 1 and outputs position data (S20).
Next, the data acquisition unit 22 takes in the output position data (S21), and based on this position data, the position information creation unit 23 creates the user's position information (S22), and ends the position information acquisition process. .

[物体画像取込部30の動作]
図13は、物体画像取込部30が行う物体画像取込の動作(図10のS3)の詳細を示すフローチャートであり、以下図13に基づいて物体画像取込部30の動作を説明する。
まず、カメラ31が、スマートグラス1を装着した利用者の前方に存在する物体を撮影し(S30)、画像取得部32が、撮影した画像を取り込み(S31)、送信部33がこの画像をインターネット回線34によりサーバー8に送信する(S32)。
次いで、サーバー6側の受信部35がインターネット回線34から送られてくる画像を受信し(S33)、画像取得部36が受信した画像を取り込み(S34)、物体画像取込処理を終了する。
[Operation of Object Image Capture Unit 30]
FIG. 13 is a flowchart showing details of the object image capturing operation (S3 in FIG. 10) performed by the object image capturing unit 30, and the operation of the object image capturing unit 30 will be described below with reference to FIG.
First, the camera 31 captures an object existing in front of the user wearing the smart glass 1 (S30), the image acquisition unit 32 captures the captured image (S31), and the transmission unit 33 captures the image on the Internet. The data is transmitted to the server 8 through the line 34 (S32).
Next, the receiving unit 35 on the server 6 side receives the image sent from the Internet line 34 (S33), captures the image received by the image acquisition unit 36 (S34), and ends the object image capturing process.

[物体画像取込部40の動作]
図14は、物体認識部40が行う物体認識の動作(図10のS4)の詳細を示すフローチャートであり、以下図14に基づいて物体認識部40の動作を説明する。
まず、画像取得部36から送られてくる画像に含まれる物体の外形を抽出し(S40)、抽出した物体の外形と、モデルデータ記憶部に記憶されているモデルデータ(物体の外形データ)とのマッチングを行う(S41)。
次いで、マッチしたモデルデータをその画像に含まれている物体として認識し(S42)、その名称(識別記号)を対応付け(S43)、物体認識処理を終了する。
[Operation of Object Image Capture Unit 40]
FIG. 14 is a flowchart showing details of the object recognition operation (S4 in FIG. 10) performed by the object recognition unit 40. Hereinafter, the operation of the object recognition unit 40 will be described with reference to FIG.
First, the outer shape of the object included in the image sent from the image acquisition unit 36 is extracted (S40), and the extracted outer shape of the object, model data (object outer shape data) stored in the model data storage unit, and Are matched (S41).
Next, the matched model data is recognized as an object included in the image (S42), the name (identification symbol) is associated (S43), and the object recognition process is terminated.

[画像表示部(ディスプレイ)50の動作]
図15は、画像表示部(ディスプレイ)50が、物体画像取込部40の認識した物体の画像を表示する動作(図10のS5)の詳細を示すフローチャートであり、以下図15に基づいて画像表示部(ディスプレイ)50の動作を説明する。
まず、サーバー6側の送信部41が、物体認識部40の認識した物体の画像とそれに対応付けた名称(識別記号)を、インターネット回線42(34)により送信する(S50)。
次いで、スマートグラス1側の受信部43が、送られてきた物体の画像等を受信し(S51)、物体画像取得部44がこの物体の画像等を取得し(S52)、画像表示部(ディスプレイ)50が、画面51に物体の画像を表示し(S53、図6参照)、処理を終了する。
[Operation of Image Display Unit (Display) 50]
FIG. 15 is a flowchart showing details of an operation (S5 in FIG. 10) in which the image display unit (display) 50 displays the image of the object recognized by the object image capturing unit 40. Hereinafter, the image is displayed based on FIG. The operation of the display unit (display) 50 will be described.
First, the transmission unit 41 on the server 6 side transmits the image of the object recognized by the object recognition unit 40 and the name (identification symbol) associated therewith via the Internet line 42 (34) (S50).
Next, the reception unit 43 on the smart glass 1 side receives the image of the object that has been sent (S51), the object image acquisition unit 44 acquires the image of this object (S52), and the image display unit (display) ) 50 displays the image of the object on the screen 51 (S53, see FIG. 6), and the process is terminated.

[物体候補特定部70及び物体確定部90の動作]
図16は、物体候補特定部70及び物体確定部90が行う物体候補特定及び物体の確定の動作(図10のS6、S7)の詳細を示すフローチャートであり、以下図16に基づいて物体候補特定部70及び物体確定部90の動作を説明する。
まず、物体候補特定部70は、履歴情報テーブル61を検索して、方向情報作成部17からの方向情報(姿勢と方位)と位置情報作成部23からの位置情報と一致する方向情報(姿勢と方位)と位置情報が記録された履歴IDがあるかを判断する(S60)。一致する履歴IDがあれば、一致する履歴IDの履歴情報において選択した物体を物体の候補として特定し(S61)、一致する履歴IDがなければ処理を終了する。
次いで、物体候補特定部70は、物体の候補が二以上(複数)あるかを判断し(S62)、二以上(複数)なければ、物体の候補として特定したものをディスプレイ50(画面51)に表示する(S63、図8参照)。
次いで、物体確定部90が、利用者の操作により、物体指定部80から物体の候補以外の物体の指定があるかを判断し(S64)、物体の指定がなければ、表示された物体の候補を利用者の選択する物体として確定し(S65)、物体の指定があれば、指定された物体を物体の候補として表示し(S63)、S64の処理を行う(図9参照)。
そして、このときの利用者の方向情報(姿勢と方位)及び位置情報と、選択物体確定部90が確定した物体とを対応付けて新たな履歴情報とし、これを履歴情報書込部(図示せず)が履歴情報テーブル61に追加記録する(S66)。
また、S62で物体の候補が二以上(複数)ある場合は、物体候補特定部70が、物体の候補が同一か否かを判断し(S67)、同一でなければ、すなわち物体の候補が異なる場合は、物体の候補に優先順位を付け(S68)、優先順位を付けた物体の候補を表示し(S63)、例えば、方向情報と位置情報が一致した回数の多い物体ほど優先順位の高い物体の候補とし、優先順位の高い物体について選択枠210を表示し、S64以降の処理を行う。
[Operations of Object Candidate Identification Unit 70 and Object Determination Unit 90]
FIG. 16 is a flowchart showing details of the object candidate specification and object determination operations (S6 and S7 in FIG. 10) performed by the object candidate specification unit 70 and the object determination unit 90. Hereinafter, the object candidate specification will be described based on FIG. Operations of the unit 70 and the object determination unit 90 will be described.
First, the object candidate specifying unit 70 searches the history information table 61, and direction information (attitude and orientation) that matches the direction information (posture and orientation) from the direction information creation unit 17 and the position information from the position information creation unit 23. It is determined whether there is a history ID in which the (azimuth) and position information is recorded (S60). If there is a matching history ID, the object selected in the history information of the matching history ID is specified as an object candidate (S61), and if there is no matching history ID, the process ends.
Next, the object candidate specifying unit 70 determines whether there are two or more (plural) object candidates (S62). If there are two or more (plural) object candidates, the object candidate specified on the display 50 (screen 51) is displayed. Displayed (S63, see FIG. 8).
Next, the object determination unit 90 determines whether an object other than the object candidate is specified from the object specifying unit 80 by the user's operation (S64). If there is no object specification, the displayed object candidate is displayed. Is determined as the object to be selected by the user (S65), and if the object is specified, the specified object is displayed as a candidate for the object (S63), and the process of S64 is performed (see FIG. 9).
Then, the direction information (attitude and orientation) and position information of the user at this time is associated with the object determined by the selected object determination unit 90 to obtain new history information, which is used as a history information writing unit (not shown). Are additionally recorded in the history information table 61 (S66).
If there are two or more (plural) object candidates in S62, the object candidate specifying unit 70 determines whether or not the object candidates are the same (S67). If they are not the same, the object candidates are different. In this case, priorities are assigned to the object candidates (S68), and the object candidates with priorities are displayed (S63). For example, an object having a higher number of times that the direction information and the position information coincide with each other has a higher priority. The selection frame 210 is displayed for an object having a high priority, and the processes after S64 are performed.

本発明の物体認識選択装置、物体認識選択方法及びプログラムは、スマートグラス(メガネ型コンピュータ)等のカメラを搭載して頭部や顔面に装着するタイプのウエアラブルコンピュータ(端末)等から、利用者の選択または制御したい物体(機器)を優先的に選択できる。   An object recognition selection device, an object recognition selection method, and a program according to the present invention are provided from a wearable computer (terminal) of a type that is mounted on a head or a face by mounting a camera such as a smart glass (glasses type computer). An object (device) to be selected or controlled can be preferentially selected.

1 物体認識選択装置(スマートグラス)
2 装着部
3 フレーム
4 レンズ部
5 制御部
6 サーバー
10 方向情報取得部
11 加速度センサー
12 データ取得蓄積部
13 姿勢分析特定部
14 地磁気センサー
15 データ取得部
16 方位算出特定部、
17 方向情報作成部
20 位置情報取得部
21 位置検出センサー
22 データ取得部
23 位置情報作成部
30 物体画像取込部
31 カメラ
32 画像取得部
33 送信部
34、42 インターネット回線
35、43 受信部
36 画像取得部
40 物体認識部
44 物体画像取得部
50 物体表示部(ディスプレイ)
51 画面
60 対応付け情報記憶部
61 履歴情報テーブル
70 物体候補特定部
80 物体特定部
90 選択物体確定部
100 物体制御部
200〜205 画像
210 選択枠
211、212 ボタン
U 利用者
UF 利用者の顔面
VD 顔面UFが向く方向の範囲
UD スマートグラス1に作用する磁界の向き
HD 利用者Uの顔面UFが向く方向の範囲
1 Object recognition selection device (smart glasses)
2 Mounting unit 3 Frame 4 Lens unit 5 Control unit 6 Server 10 Direction information acquisition unit 11 Acceleration sensor 12 Data acquisition storage unit 13 Attitude analysis specification unit 14 Geomagnetic sensor 15 Data acquisition unit 16 Direction calculation specification unit
17 direction information creation unit 20 position information acquisition unit 21 position detection sensor 22 data acquisition unit 23 position information creation unit 30 object image capture unit 31 camera 32 image acquisition unit 33 transmission unit 34, 42 internet line 35, 43 reception unit 36 image Acquisition unit 40 Object recognition unit 44 Object image acquisition unit 50 Object display unit (display)
51 Screen 60 Correlation Information Storage Unit 61 History Information Table 70 Object Candidate Identification Unit 80 Object Identification Unit 90 Selected Object Determination Unit 100 Object Control Units 200 to 205 Image 210 Selection Frames 211 and 212 Button U User UF User's Face VD Range UD in the direction facing the face UF Direction of the magnetic field acting on the smart glass 1 HD Range in the direction where the face UF of the user U faces

Claims (13)

利用者の顔面または頭部に装着される装着部を備えた物体認識選択装置であって、
複数の物体を撮影してその画像を取り込む物体画像取込手段と、
前記物体画像取込手段が取り込んだ画像から前記複数の物体を認識する物体認識手段と、
前記物体画像取込手段が前記画像を取り込むときの前記利用者の状態を特定する状態情報を取得する状態情報取得手段と、
前記状態情報と前記物体とを対応付けた対応付け情報を記憶する対応付け情報記憶手段と、
前記状態情報取得手段が取得した状態情報及び前記対応付け情報記憶手段に記憶された対応付け情報に基づいて、前記物体認識手段が認識した複数の物体の中から前記利用者の選択または制御する物体の候補を特定する物体候補特定手段と、
を備えたことを特徴とする物体認識選択装置。
An object recognition / selection device having a mounting portion to be mounted on a user's face or head,
Object image capturing means for capturing a plurality of objects and capturing the images;
Object recognition means for recognizing the plurality of objects from the image captured by the object image capture means;
State information acquisition means for acquiring state information for specifying the state of the user when the object image capturing means captures the image;
Association information storage means for storing association information in which the state information and the object are associated;
An object to be selected or controlled by the user from among a plurality of objects recognized by the object recognition unit based on the state information acquired by the state information acquisition unit and the association information stored in the association information storage unit An object candidate specifying means for specifying a candidate of
An object recognition / selection device comprising:
前記物体認識手段が認識した複数の物体を表示する物体表示手段と、
前記利用者の選択または制御する物体を確定する物体確定手段と、
をさらに備えたことを特徴とする請求項1記載の物体認識選択装置。
Object display means for displaying a plurality of objects recognized by the object recognition means;
Object determining means for determining an object to be selected or controlled by the user;
The object recognition / selection apparatus according to claim 1, further comprising:
前記対応付け情報は、前記物体確定手段が物体を確定したときに、前記状態情報取得手段が取得した状態情報と前記物体確定手段が確定した物体とを対応付けた履歴情報であることを特徴とする請求項2記載の物体認識選択装置。   The association information is history information associating state information acquired by the state information acquisition unit with an object determined by the object determination unit when the object determination unit determines an object. The object recognition selection apparatus according to claim 2. 前記物体を指定する物体指定手段をさらに備え、
前記物体確定手段は、前記物体候補特定手段が特定した前記物体の候補または前記物体指定手段が指定した前記物体を前記利用者の選択または制御する物体として確定することを特徴とする請求項2又は請求項3記載の物体認識選択装置。
An object designating unit for designating the object;
The object determination unit determines the object candidate specified by the object candidate specifying unit or the object specified by the object specifying unit as an object to be selected or controlled by the user. The object recognition selection apparatus according to claim 3.
前記物体確定手段が確定した物体の動作を制御する物体制御手段をさらに備えたことを特徴とする請求項2乃至請求項4のいずれかに記載した物体認識選択装置。   5. The object recognition / selection apparatus according to claim 2, further comprising object control means for controlling an action of the object determined by the object determination means. 前記状態情報は、前記利用者の顔面が向いている方向情報及び前記利用者の位置情報であることを特徴とする請求項1乃至請求項5のいずれかに記載した物体認識選択装置。   6. The object recognition / selection apparatus according to claim 1, wherein the state information includes direction information of the user's face and position information of the user. 利用者の顔面または頭部に装着される装着部を備えた物体認識選択装置による物体認識選択方法であって、
前記利用者の状態を特定する状態情報を取得し、
複数の物体を撮影してその画像を取り込み、
この取り込んだ画像から前記複数の物体を認識し、
予め前記状態情報と前記物体とを対応付けた対応付け情報を記憶しておき、
前記取得された状態情報及び前記記憶された対応付け情報に基づいて、前記認識された複数の物体の中から前記利用者の選択または制御する物体の候補を特定する、
ステップを備えたことを特徴とする物体認識選択方法。
An object recognition selection method by an object recognition selection device provided with a mounting part to be worn on a user's face or head,
Obtaining state information identifying the state of the user;
Capture multiple objects and capture the images,
Recognize the plurality of objects from the captured image,
Preliminarily storing association information that associates the state information with the object,
Based on the acquired state information and the stored association information, a candidate for an object to be selected or controlled by the user from among the plurality of recognized objects is specified.
An object recognition selection method comprising steps.
前記認識した複数の物体を表示し、前記利用者の選択または制御する物体を確定するステップをさらに備えたことを特徴とする請求項7記載の物体認識選択方法。   8. The object recognition selection method according to claim 7, further comprising the step of displaying the plurality of recognized objects and determining an object to be selected or controlled by the user. 前記対応付け情報は、前記利用者の選択または制御する物体を確定したときに取得した前記状態情報と前記確定した物体とを対応付けた履歴情報であることを特徴とする請求項8記載の物体認識選択方法。   9. The object according to claim 8, wherein the association information is history information in which the state information acquired when the user selects or controls an object to be controlled is associated with the confirmed object. Recognition selection method. 前記物体を指定するステップをさらに備え、前記利用者の選択または制御する物体を確定するステップは、前記特定された物体の候補または前記指定された物体を前記利用者の選択または制御する物体として確定するステップであることを特徴とする請求項8又は請求項9記載の物体認識選択方法。   The step of specifying the object is further provided, and the step of determining an object to be selected or controlled by the user is determined as the candidate for the specified object or the specified object as an object to be selected or controlled by the user. 10. The object recognition / selection method according to claim 8, wherein the object recognition / selection method is performed. 前記確定された物体の動作を制御するステップをさらに備えたことを特徴とする請求項8乃至請求項10のいずれかに記載した物体認識選択方法。   11. The object recognition / selection method according to claim 8, further comprising a step of controlling an operation of the determined object. 前記状態情報は、前記利用者の顔面が向いている方向情報及び前記利用者の位置情報であることを特徴とする請求項7乃至請求項11のいずれかに記載した物体認識選択方法。   The object recognition selection method according to any one of claims 7 to 11, wherein the state information includes direction information of the user's face and position information of the user. 請求項7乃至請求項12のいずれかに記載した物体認識選択方法をコンピュータに実行させるプログラム。

A program that causes a computer to execute the object recognition selection method according to any one of claims 7 to 12.

JP2015072102A 2015-03-31 2015-03-31 Object recognition and selection device, object recognition and selection method, and program Pending JP2016192096A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015072102A JP2016192096A (en) 2015-03-31 2015-03-31 Object recognition and selection device, object recognition and selection method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015072102A JP2016192096A (en) 2015-03-31 2015-03-31 Object recognition and selection device, object recognition and selection method, and program

Publications (1)

Publication Number Publication Date
JP2016192096A true JP2016192096A (en) 2016-11-10

Family

ID=57245621

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015072102A Pending JP2016192096A (en) 2015-03-31 2015-03-31 Object recognition and selection device, object recognition and selection method, and program

Country Status (1)

Country Link
JP (1) JP2016192096A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11151357B2 (en) 2019-06-03 2021-10-19 Samsung Electronics Co., Ltd. Electronic apparatus for object recognition and control method thereof
CN114268692A (en) * 2021-12-07 2022-04-01 咪咕音乐有限公司 Video color ring back tone releasing method, device, storage medium and device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014164599A (en) * 2013-02-26 2014-09-08 Nec Saitama Ltd Information apparatus, control method thereof and program
JP2014206904A (en) * 2013-04-15 2014-10-30 オリンパス株式会社 Wearable device, program and display control method of wearable device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014164599A (en) * 2013-02-26 2014-09-08 Nec Saitama Ltd Information apparatus, control method thereof and program
JP2014206904A (en) * 2013-04-15 2014-10-30 オリンパス株式会社 Wearable device, program and display control method of wearable device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11151357B2 (en) 2019-06-03 2021-10-19 Samsung Electronics Co., Ltd. Electronic apparatus for object recognition and control method thereof
US11719544B2 (en) 2019-06-03 2023-08-08 Samsung Electronics Co., Ltd. Electronic apparatus for object recognition and control method thereof
CN114268692A (en) * 2021-12-07 2022-04-01 咪咕音乐有限公司 Video color ring back tone releasing method, device, storage medium and device
CN114268692B (en) * 2021-12-07 2023-01-10 咪咕音乐有限公司 Video color ring back tone releasing method, device, storage medium and device

Similar Documents

Publication Publication Date Title
US11699271B2 (en) Beacons for localization and content delivery to wearable devices
US11995774B2 (en) Augmented reality experiences using speech and text captions
US11277597B1 (en) Marker-based guided AR experience
US20190199941A1 (en) Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product
JP4679661B1 (en) Information presenting apparatus, information presenting method, and program
JP6517255B2 (en) Character image generation apparatus, character image generation method, program, recording medium, and character image generation system
US20210099639A1 (en) Automated eyewear device sharing system
US20210407205A1 (en) Augmented reality eyewear with speech bubbles and translation
CN109981944A (en) Electronic device and its control method
US11195341B1 (en) Augmented reality eyewear with 3D costumes
KR20170108285A (en) Control system of interior environment apparatus using augmented reality
US20210406542A1 (en) Augmented reality eyewear with mood sharing
JP2016192096A (en) Object recognition and selection device, object recognition and selection method, and program
CN108896035B (en) Method and equipment for realizing navigation through image information and navigation robot
WO2022176450A1 (en) Information processing device, information processing method, and program
US10810867B2 (en) Remote control system, remote control method, and program
KR20200122754A (en) Smart glass system for providing augmented reality image
US11789266B1 (en) Dynamic sensor selection for visual inertial odometry systems
US9911237B1 (en) Image processing techniques for self-captured images
KR20220026114A (en) Electronic device, and method for identifing realted external electronic device in augmented reality of electronic device
CN115997388A (en) Information processing terminal, remote control method, and program
WO2018008101A1 (en) Image provision system, image provision method, and program
US11863860B2 (en) Image capture eyewear with context-based sending
CN110798609A (en) Image display method, image display system and virtual window
JPWO2020008559A1 (en) Head-mounted display and setting method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181016

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190423