JP2016192096A - Object recognition and selection device, object recognition and selection method, and program - Google Patents
Object recognition and selection device, object recognition and selection method, and program Download PDFInfo
- Publication number
- JP2016192096A JP2016192096A JP2015072102A JP2015072102A JP2016192096A JP 2016192096 A JP2016192096 A JP 2016192096A JP 2015072102 A JP2015072102 A JP 2015072102A JP 2015072102 A JP2015072102 A JP 2015072102A JP 2016192096 A JP2016192096 A JP 2016192096A
- Authority
- JP
- Japan
- Prior art keywords
- user
- unit
- information
- object recognition
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、スマートグラス(メガネ型コンピュータ)等のカメラを搭載して頭部や顔面に装着するタイプのウエアラブルコンピュータ(端末)等に使用される物体認識選択装置、物体認識選択方法及びプログラムに関するものである。 The present invention relates to an object recognition selection apparatus, an object recognition selection method, and a program for use in a wearable computer (terminal) of a type that is mounted on a head or face with a camera such as a smart glass (glasses type computer). It is.
近年、身につけて持ち歩くことができるコンピュータ、いわゆるウエアラブルコンピュータが普及し始めているが、このウエアラブルコンピュータの中には、スマートグラスと呼ばれるメガネ型コンピュータがある。このスマートグラスは、カメラが搭載されて眼鏡として利用者に装着されることから、利用者の前方にある物体等をカメラで撮影して、これを眼鏡レンズ部分に設けられたディスプレイに表示することができるようになっている。このため、スマートグラスにおいては、利用者の目の間近にあるディスプレイに表示された物体に対して操作できるようにすれば、利用者は、あたかも実際に見ている物体に対して操作しているような感覚が得られることとなる。
そして、特開2011−209965号公報(特許文献1)には、スマートグラスに類するものとして、カメラとディスプレイを搭載したヘッドマウントディスプレイ(HMD)を備えた携帯型のコンピュータである情報処理装置が開示されている。この情報処理装置においては、ユーザがHMDを装着することにより、ユーザの前方にある操作対象機器(以下単に「機器」という。)がカメラで撮影され、ユーザの目の前にあるディスプレイには機器と共にボタン等の操作画像が表示され、ユーザがディスプレイに表示されたボタンを仮想的に押すことにより、機器を操作できるようになっている。
In recent years, computers that can be worn and carried, so-called wearable computers, have begun to spread. Among these wearable computers, there are glasses-type computers called smart glasses. This smart glass is equipped with a camera and worn by the user as eyeglasses, so an object in front of the user is photographed with the camera and displayed on a display provided in the eyeglass lens part. Can be done. For this reason, in smart glasses, if the user can operate on an object displayed on a display close to the user's eyes, the user operates as if the user is actually looking at the object. Such a feeling will be obtained.
Japanese Patent Application Laid-Open No. 2011-209965 (Patent Document 1) discloses an information processing apparatus that is a portable computer including a head-mounted display (HMD) equipped with a camera and a display as a smart glass. Has been. In this information processing apparatus, when the user wears the HMD, an operation target device (hereinafter simply referred to as “device”) in front of the user is photographed by the camera, and the display in front of the user has a device on the display. In addition, an operation image such as a button is displayed, and the user can operate the device by virtually pressing the button displayed on the display.
ここで、上記情報処理装置においては、利用者(ユーザ)の前方に複数の機器(例えば、ステレオ、テレビ、扇風機、エアコン、天井照明)がある場合、カメラで撮影された画像から物体認識により抽出された機器も複数あり、抽出された複数の機器がボタン等の操作画像と共にディスプレイに表示され、その各々に対して操作できるようになっている。
しかしながら、利用者にとっては、ディスプレイに表示された複数の機器のすべてを操作するとは限らず、特定の機器(例えば、天井照明)だけを操作したい場合も多い。
このような場合、利用者は、ディスプレイに表示された複数の機器から特定のものを選択して操作しなければならないという煩わしさが生じるのみならず、複数の機器が近接している場合は、各機器のボタン等を表示しても、どのボタンがどの機器のものであるかが判別しづらいという問題がある。また、各機器のボタン等に代えて、複数の機器のリストを別途作成してこれをディスプレイに表示し、このリストから操作したい機器を選択することも考えられるが、スマートグラスのディスプレイは表示領域が狭く、複数の機器のリストを表示すること自体が困難である。
Here, in the information processing apparatus, when there are a plurality of devices (for example, a stereo, a television, a fan, an air conditioner, and ceiling lighting) in front of the user (user), the information is extracted from the image captured by the camera by object recognition. There are a plurality of devices, and the plurality of extracted devices are displayed on the display together with operation images such as buttons and can be operated on each of them.
However, the user does not necessarily operate all of the plurality of devices displayed on the display, and often wants to operate only a specific device (for example, ceiling lighting).
In such a case, the user not only has the trouble of selecting and operating a specific device from a plurality of devices displayed on the display, but when a plurality of devices are close to each other, There is a problem that even if the buttons of each device are displayed, it is difficult to determine which button belongs to which device. In addition, instead of using buttons for each device, it is possible to create a list of multiple devices separately and display it on the display, and select the device you want to operate from this list. However, it is difficult to display a list of a plurality of devices.
ところで、スマートグラスやHMDの利用者)が、ある場所(例えば、利用者の自宅の部屋の中)で、ディスプレイに表示された複数の機器の中の1つを選択して制御・操作したい場合、通常、選択(制御・操作)したい機器がある方向に顔面を向ける(例えば、部屋の天井照明を操作したい場合は、天井照明のある上方に顔面を向ける。)。また、同一方向に複数の機器がある場合であっても、どの機器を選択(制御・操作)したいかは、利用者の習性によっておおよそ決まっている(例えば、利用者の真正面にステレオ、テレビ、扇風機がある場合、ある利用者は常にテレビを操作する。)。
したがって、利用者の選択(制御・操作)したい機器は、利用者がいる場所、利用者の顔面が向いている方向等の状態及び利用者の習性に依存しているといえる。
By the way, when a user of a smart glass or HMD wants to select and control / operate one of a plurality of devices displayed on the display at a certain place (for example, in the user's home room). Usually, the face to be directed (control / operated) is directed in a certain direction (for example, when the ceiling lighting of the room is to be operated, the face is directed upward with the ceiling lighting). Also, even if there are multiple devices in the same direction, which device you want to select (control / operate) is roughly determined by the user's habits (for example, stereo, TV, If there is a fan, some users always operate the TV.)
Therefore, it can be said that the device that the user wants to select (control / operate) depends on the location of the user, the state of the user's face facing, and the like and the user's habits.
本発明が解決しようとする課題は、撮影されて物体認識された複数の物体から利用者が選択または制御したい物体を優先的に選択できるようにすることである。
そして、本発明は、利用者が選択または制御したい物体は、利用者がいる場所、利用者の顔面が向いている方向等の状態及び利用者の習性に依存している点に着目してなされたものである。
The problem to be solved by the present invention is to enable a user to preferentially select an object that the user wants to select or control from a plurality of objects that have been photographed and recognized as objects.
The present invention is made by paying attention to the fact that the object that the user wants to select or control depends on the location of the user, the direction of the user's face, etc., and the user's habits. It is a thing.
本発明は、利用者の顔面または頭部に装着される装着部を備えた物体認識選択装置であって、複数の物体を撮影してその画像を取り込む物体画像取込手段と、前記物体画像取込手段が取り込んだ画像から前記複数の物体を認識する物体認識手段と、前記状態情報と前記物体とを対応付けた対応付け情報を記憶する対応付け情報記憶手段と、前記状態情報取得手段が取得した状態情報及び前記対応付け情報記憶手段に記憶された対応付け情報に基づいて、前記物体認識手段が認識した複数の物体の中から前記利用者の選択または制御する物体の候補を特定する物体候補特定手段とを備えた物体認識選択装置を提供して、上記課題を解決するものである。 The present invention is an object recognition / selection device that includes a mounting unit that is mounted on a user's face or head, and that captures a plurality of objects and captures the images, and the object image capturing unit. Acquired by the object recognition means for recognizing the plurality of objects from the image captured by the capture means, the association information storage means for storing the association information in which the state information and the object are associated, and the state information acquisition means An object candidate that identifies a candidate for an object to be selected or controlled by the user from among a plurality of objects recognized by the object recognizing unit based on the state information that has been performed and the association information stored in the association information storage unit An object recognition / selection device including a specifying unit is provided to solve the above-described problem.
本発明は、前記物体認識手段が認識した複数の物体を表示する手段と、前記利用者の選択または制御する物体を確定する物体確定手段とをさらに備えた物体認識選択装置を提供して、上記課題を解決するものである。 The present invention provides an object recognition selection apparatus further comprising: means for displaying a plurality of objects recognized by the object recognition means; and object determination means for determining an object to be selected or controlled by the user. It solves the problem.
本発明は、前記対応付け情報は、前記物体確定手段が物体を確定したときに、前記状態情報取得手段が取得した状態情報と前記選択物体確定手段が確定した物体とを対応付けた履歴情報である物体認識選択装置を提供して、上記課題を解決するものである。 According to the present invention, the association information is history information that associates the state information acquired by the state information acquisition unit with the object determined by the selected object determination unit when the object determination unit determines an object. An object recognition / selection device is provided to solve the above problem.
本発明は、前記物体を指定する物体指定手段をさらに備え、前記物体確定手段は、前記物体候補特定手段が特定した前記物体の候補または前記物体指定手段が指定した前記物体を前記利用者の選択または制御する物体として確定する物体認識選択装置を提供して、上記課題を解決するものである。 The present invention further includes an object designating unit for designating the object, wherein the object determination unit selects the user candidate specified by the object candidate specifying unit or the object specified by the object specifying unit. Alternatively, an object recognition / selection device that determines the object to be controlled is provided to solve the above problem.
本発明は、前記物体確定手段が確定した物体の動作を制御する物体制御手段をさらに備えた物体認識選択装置を提供して、上記課題を解決するものである。 The present invention provides an object recognition / selection device further comprising object control means for controlling the movement of the object determined by the object determination means, and solves the above-mentioned problems.
本発明は、前記状態情報は、前記利用者の顔面が向いている方向情報及び前記利用者の位置情報である物体認識選択装置を提供して、上記課題を解決するものである。 The present invention provides an object recognition and selection device in which the state information is direction information that the user's face is facing and position information of the user, and solves the above problems.
本発明は、利用者の顔面または頭部に装着される装着部を備えた物体認識選択装置による物体認識選択方法であって、前記利用者の状態を特定する状態情報を取得し、複数の物体を撮影してその画像を取り込み、この取り込んだ画像から前記複数の物体を認識し、予め前記状態情報と前記物体とを対応付けた対応付け情報を記憶しておき、前記取得された状態情報及び前記記憶された対応付け情報に基づいて、前記認識された複数の物体の中から前記利用者の選択または制御する物体の候補を特定するステップを備えた物体認識選択方法を提供して、上記課題を解決するものである。 The present invention relates to an object recognition selection method by an object recognition selection device provided with a mounting unit to be worn on a user's face or head, which obtains state information for specifying the state of the user, and a plurality of objects And capturing the image, recognizing the plurality of objects from the captured image, storing association information that associates the state information with the object in advance, and acquiring the acquired state information and Provided is an object recognition selection method including a step of identifying a candidate for an object to be selected or controlled by the user from among the plurality of recognized objects based on the stored association information, Is a solution.
本発明は、前記認識した複数の物体を表示し、前記利用者の選択または制御する物体を確定するステップをさらに備えた物体認識選択方法を提供して、上記課題を解決するものである。 The present invention solves the above problems by providing an object recognition selection method further comprising the step of displaying the plurality of recognized objects and determining an object to be selected or controlled by the user.
本発明は、前記対応付け情報は、前記利用者の選択または制御する物体を確定したときに取得した前記状態情報と前記確定した物体とを対応付けた履歴情報である物体認識選択方法を提供して、上記課題を解決するものである。 The present invention provides an object recognition selection method in which the association information is history information in which the state information acquired when the user selects or controls an object to be determined is associated with the confirmed object. Thus, the above problems are solved.
本発明は、前記物体を指定するステップをさらに備え、前記利用者の選択または制御する物体を確定するステップは、前記特定された物体の候補または前記指定された物体を前記利用者の選択または制御する物体として確定するステップである物体認識選択方法を提供して、上記課題を解決するものである。 The present invention further comprises the step of specifying the object, and the step of determining the object to be selected or controlled by the user is to select or control the candidate of the specified object or the specified object by the user. An object recognition selection method, which is a step of determining as an object to be performed, is provided to solve the above problem.
本発明は、前記確定された物体の動作を制御するステップをさらに備えた物体認識選択方法を提供して、上記課題を解決するものである。 The present invention provides an object recognition and selection method further comprising the step of controlling the movement of the determined object, and solves the above-described problem.
本発明は、前記状態情報は、前記利用者の顔面が向いている方向情報及び前記利用者の位置情報である物体認識選択方法を提供して、上記課題を解決するものである。 The present invention solves the above-mentioned problems by providing an object recognition selection method in which the state information is direction information in which the user's face is facing and position information of the user.
本発明は、前記物体認識選択方法をコンピュータに実行させるプログラムを提供して、上記課題を解決するものである。 The present invention provides a program for causing a computer to execute the object recognition selection method, thereby solving the above-described problems.
本発明の物体認識選択装置においては、利用者の顔面または頭部に装着される装着部を備え、物体画像取込手段から複数の物体を撮影した画像が取り込まれ、物体認識手段によりその画像から前記物体が認識され、状態情報取得手段から前記物体画像取込手段が前記画像を取り込むときの前記利用者の状態を特定する状態情報が取得され、対応付け情報記憶手段には前記状態情報と前記物体とを対応付けた対応付け情報が記憶され、前記状態情報取得手段が取得した状態情報及び前記対応付け情報記憶手段に記憶された対応付け情報に基づいて、物体候補特定手段が、物体認識手段が認識した複数の物体の中から、前記利用者の選択または制御する物体の候補を特定するため、前記利用者の選択または制御したい物体を優先的に選択できるという効果を奏する。 The object recognition / selection device according to the present invention includes a mounting unit to be worn on the user's face or head, and an image obtained by photographing a plurality of objects is captured from the object image capturing unit. State information for identifying the state of the user when the object is recognized and the object image capturing unit captures the image is acquired from the state information acquiring unit, and the state information and the state are stored in the association information storage unit. Correlation information associated with an object is stored, and based on the state information acquired by the state information acquisition unit and the association information stored in the association information storage unit, the object candidate specifying unit is an object recognition unit. When the user can select or preferentially select an object that the user wants to control or control in order to identify a candidate for the object to be selected or controlled from the plurality of objects recognized by the user Achieve the cormorant effect.
本発明の物体認識選択装置においては、さらに物体表示手段が前記物体認識手段が認識した複数の物体を表示し、物体確定手段が前記利用者の選択または制御する物体を確定するため、前記利用者の選択または制御したい物体を優先的に選択できるという効果を奏する。 In the object recognition and selection apparatus of the present invention, the object display means further displays a plurality of objects recognized by the object recognition means, and the object determination means determines the object to be selected or controlled by the user. It is possible to preferentially select an object to be selected or controlled.
本発明の物体認識選択装置においては、前記対応付け情報は、前記物体確定手段が物体を確定したときに、前記状態情報取得手段が取得した状態情報と前記選択物体確定手段が確定した物体とを対応付けた履歴情報であるため、履歴情報である前記対応付け情報に基づいて、前記利用者の選択または制御したい物体を優先的に選択できるという効果を奏する。 In the object recognition / selection device of the present invention, the association information includes the state information acquired by the state information acquisition unit and the object determined by the selected object determination unit when the object determination unit determines an object. Since the history information is associated with each other, the object that the user wants to select or control can be preferentially selected based on the association information that is history information.
本発明の物体認識選択装置においては、さらに物体指定手段が前記物体を指定し、前記物体確定手段が、前記物体候補特定手段が特定した前記物体の候補または前記物体指定手段が指定した前記物体を前記利用者の選択または制御る物体として確定するため、前記利用者の選択または制御したい物体を優先的に選択できて、前記利用者はそれを指定できるという効果を奏する。 In the object recognition / selection device of the present invention, the object designating unit further specifies the object, and the object determination unit selects the object candidate specified by the object candidate specifying unit or the object specified by the object specifying unit. Since the object to be selected or controlled by the user is determined, an object to be selected or controlled by the user can be preferentially selected, and the user can designate it.
本発明の物体認識選択装置においては、さらに物体制御手段が、前記選択物体確定手段が確定した物体の動作を制御するため、前記利用者の選択または制御したい物体を優先的に選択できて、前記利用者はそれを制御できるという効果を奏する。 In the object recognition / selection device of the present invention, the object control means can preferentially select an object to be selected or controlled by the user because the object control means controls the operation of the object decided by the selected object decision means. The user can control it.
本発明の物体認識選択装置においては、前記状態情報は、前記利用者の顔面が向いている方向情報及び前記利用者の位置情報であるため、前記利用者の選択または制御したい物体を優先的に選択できるという効果を奏する。 In the object recognition / selection device of the present invention, the state information includes direction information that the user's face is facing and position information of the user. Therefore, the object that the user wants to select or control is given priority. There is an effect that it can be selected.
本発明の物体認識選択方法は、利用者の顔面または頭部に装着される装着部を備えた物体認識選択装置による物体認識選択方法であって、利用者の状態を特定する状態情報を取得し、複数の物体を撮影してその画像を取り込み、この取り込んだ画像から前記物体を認識し、予め前記状態情報と前記物体とを対応付けた対応付け情報を記憶しておき、前記取得された状態情報び前記記憶された対応付け情報に基づいて、前記認識した複数の物体の中から前記利用者の選択または制御する物体の候補を特定するため、前記利用者の選択または制御したい物体を優先的に選択できるという効果を奏する。 An object recognition selection method according to the present invention is an object recognition selection method by an object recognition selection device having a mounting portion worn on a user's face or head, and acquires state information for specifying a user's state. , Capturing a plurality of objects, capturing the images, recognizing the object from the captured images, storing association information that associates the state information with the object in advance, and acquiring the acquired state Based on the information and the stored association information, the user selects or controls the object to be selected or controlled from among the plurality of recognized objects. There is an effect that can be selected.
本発明の物体認識選択方法は、前記認識した複数の物体を表示し、前記利用者の選択または制御する物体を確定するため、前記利用者の選択または制御したい物体を優先的に選択できるという効果を奏する。 The object recognition selection method of the present invention displays the plurality of recognized objects, and determines the object to be selected or controlled by the user, so that the object to be selected or controlled by the user can be preferentially selected. Play.
本発明の物体認識選択方法は、前記対応付け情報は、前記利用者の選択または制御する物体を確定したときに取得した前記状態情報と前記確定した物体とを対応付けた履歴情報であるため、履歴情報である前記対応付け情報に基づいて、前記利用者の選択または制御したい物体を優先的に選択できるという効果を奏する。 In the object recognition selection method of the present invention, the association information is history information in which the state information acquired when the user selects or controls an object to be determined is associated with the confirmed object. Based on the association information that is history information, there is an effect that an object that the user wants to select or control can be preferentially selected.
本発明の物体認識選択方法は、さらに物体を指定し、前記特定された物体の候補または前記指定された物体を前記利用者の選択または制御する物体として確定するため、前記利用者の選択または制御したい物体を優先的に選択できて、前記利用者はそれを指定できるという効果を奏する。 The object recognition / selection method of the present invention further specifies an object, and determines or identifies the specified object candidate or the specified object as an object to be selected or controlled by the user. It is possible to preferentially select the desired object, and the user can designate it.
本発明の物体認識選択方法は、さらに確定された物体の動作を制御するため、前記利用者の選択または制御したい物体を優先的に選択できて、前記利用者はそれを制御できるという効果を奏する。 The object recognition / selection method of the present invention further controls the movement of the determined object, so that the user can select or preferentially select the object to be controlled, and the user can control it. .
本発明の物体認識選択方法は、前記状態情報は、前記利用者の顔面が向いている方向情報及び前記利用者の位置情報であるため、前記利用者の選択または制御したい物体を優先的に選択できるという効果を奏する。 In the object recognition selection method of the present invention, since the state information includes direction information of the user's face and position information of the user, the user selects or preferentially selects an object to be controlled. There is an effect that can be done.
[物体認識選択装置(スマートグラス)の外観構成]
本発明の物体認識選択装置をスマートグラスに利用した場合の装置の外観構成について説明する。
図1は、本発明の物体認識選択装置をスマートグラスに利用した場合の一実施形態の装置の外観を示す外観図である。図中、1は物体認識選択装置(スマートグラス)、2は装着部、3はフレーム、4はレンズ部である。スマートグラス1は、メガネ型の装着部2とこれに内蔵されたコントローラー(図示せず)からなり、コントローラーには無線部が設けられてインターネットを介してサーバーに接続するようになっている。装着部2は、フレーム3と一対のレンズ部4からなり、フレームにはカメラが搭載され、加速度センサーと地磁気センサー等が内蔵され、さらにGPS受信機等の位置検出センサーが内蔵されている。装着部2は、利用者の顔面にメガネと同様にして装着される。なお、コントローラーは、メガネ型の装着部2に内蔵せず、これと別体のものとしてもよい。
[Appearance configuration of object recognition selection device (smart glasses)]
An external configuration of the apparatus when the object recognition / selection apparatus of the present invention is used for smart glasses will be described.
FIG. 1 is an external view showing an external appearance of an apparatus according to an embodiment when the object recognition / selection apparatus of the present invention is used for a smart glass. In the figure, 1 is an object recognition / selection device (smart glass), 2 is a mounting part, 3 is a frame, and 4 is a lens part. The
[物体認識選択装置(スマートグラス)1の概略構成]
図2は、図1に示す物体認識選択装置1の概略構成を示すブロック図である。図において、10は方向情報取得部、20は位置情報取得部、30は物体画像取込部、40は物体認識部、50は物体表示部、60は対応付け情報記憶部、70は物体候補特定部、80は物体指定部、90は物体確定部、100は物体制御部である。
方向情報取得部10は、スマートグラス1の装着部2(フレーム3)に内蔵された加速度センサー及び地磁気センサーにより測定されたデータから、スマートグラス1を装着した利用者の顔面がどの方向を向いているかを分析し、利用者の顔面が向いている方向情報を取得する。
位置情報取得部20は、スマートグラス1に内蔵されたGPS受信機等の位置検出センサーで検出されたデータから、スマートグラス1を装着した利用者の位置情報を取得する。
物体画像取込部30は、スマートグラス1の装着部2(フレーム3)に搭載されたカメラにより、スマートグラス1を装着した利用者の前方に存在する各種機器類(例えば、ステレオ、テレビ、扇風機、エアコン、天井照明)等の複数の物体を撮影してその画像を取り込む。
物体認識部40は、物体画像取込部30が取り込んだ複数の物体を含む画像から、その複数の物体を認識する物体認識を行う。
物体表示部50は、スマートグラス1のレンズ部4に取り付けられ、物体認識部40が認識した複数の物体の画像を表示する。
対応付け情報記憶部60は、各種機器類等の物体ごとに、利用者の顔面が向いている方向情報及び利用者の位置情報が対応付けられた対応付け情報を記憶している。
物体候補特定部70は、方向情報取得部10が取得した利用者の方向情報、位置情報取得部20が取得した利用者の位置情報及び対応付け情報記憶部60に記憶された対応付け情報に基づいて、物体表示部50に表示された複数の物体の中から、利用者の選択または制御する物体の候補を特定する。
物体指定部80は、利用者の操作により、利用者の選択または制御する物体を指定する。
選択物体確定部90は、物体候補特定部70が特定した利用者の選択または制御する物体の候補、または、物体指定部80により利用者が指定した物体を、利用者の選択または制御する物体として確定する。
物体制御部100は、通信部(図示せず)を制御し、選択物体確定部90が確定した物体(各種機器類等)と通信を行い、その動作(例えば、スイッチのON・OFF)を制御する。
[Schematic Configuration of Object Recognition Selection Device (Smart Glass) 1]
FIG. 2 is a block diagram showing a schematic configuration of the object recognition /
The direction
The position
The object
The
The
The association
The object
The
The selected
The
[物体認識選択装置1の具体的構成]
図3は、図2に示す物体認識選択装置1の具体的構成の一例を示すブロック図であり、図において、5はスマートグラス1の制御部、6はインターネットに接続されるサーバーである。以下図3に基づいて物体認識選択装置1の具体的構成について説明する。
[Specific Configuration of Object Recognition Selection Device 1]
FIG. 3 is a block diagram showing an example of a specific configuration of the object recognition /
[方向情報取得部10]
図2に示す方向情報取得部10は、加速度センサー11、データ取得蓄積部12、姿勢 分析特定部13、地磁気センサー14、データ取得部15、方位算出特定部16、方向情報作成部17等から構成される。
[Direction information acquisition unit 10]
The direction
加速度センサー11は、フレーム3の左側のレンズ部4の近傍に内蔵され、スマートグラス1(装着部2)に作用する重力加速度を測定するものであり、加速度センサー11によって測定された重力加速度データは、データ取得蓄積部12に一旦保存されて蓄積された後、姿勢分析特定部13に送られる。
The
姿勢分析特定部13は、データ取得蓄積部12から送られてくる重力加速度データを分析して、利用者がどのような姿勢でいるかを特定する。
図4は、利用者の姿勢と利用者に装着されたスマートグラス1(装着部2)に作用する重力との関係を説明するための図であり、図において、Uは利用者、UFは利用者の顔面、VDは顔面UFが向く方向の範囲である。以下図に基づいて利用者の姿勢とスマートグラス1に作用する重力との関係の関係を説明するが、ここでは、スマートグラス1(装着部2)の奥行き方向をX軸、左右方向をZ軸、上下方向(鉛直方向)をY軸とする。
図4(a)に示すように利用者Uが起立した姿勢であるときは、顔面UFは水平方向を向くこととなり、顔面UFに装着されたスマートグラス1のXZ軸方向が水平方向となるから、重力加速度はY軸方向に作用する。
一方、図4(b)に示すように利用者Uが寝た姿勢であるときは、顔面UFは上方を向くこととなり、顔面UFに装着されたスマートグラス1のYZ軸方向が水平方向となるから、重力加速度はX軸方向に作用する。
このようにスマートグラス1に作用する重力加速度データから、利用者Uがどのような姿勢であるか、すなわち、顔面UFが上下方向(鉛直方向)VDのどの方向を向いているかを特定することができる。
利用者の姿勢としては、起立(顔面が水平方向を向いている)、寝る(顔面が真上方向を向いている)の他、斜め上(顔面が斜め上方向を向いている)、斜め下(顔面が斜め下方向を向いている)を設けてもよく、さらに細かく設定してもよい。また、連続的に測定した重力加速度データの時間的な変化を分析して、利用者の顔面の上下方向の向きの変化を求め、これより推定される姿勢(例えば、座った姿勢、うつ伏せ等)を設定してもよい。
このようにして姿勢分析特定部13が特定した利用者の姿勢(顔面が上下方向(鉛直方向)VDのどの方向を向いているか)の情報は、方向情報作成部17に送られる。
The posture
FIG. 4 is a diagram for explaining the relationship between the posture of the user and the gravity acting on the smart glass 1 (mounting unit 2) attached to the user, where U is the user and UF is the use. A person's face, VD, is a range in a direction in which the face UF faces. The relationship between the user's posture and the gravity acting on the
As shown in FIG. 4A, when the user U is in an upright posture, the face UF faces in the horizontal direction, and the XZ axis direction of the
On the other hand, when the user U is in a sleeping posture as shown in FIG. 4B, the face UF faces upward, and the YZ-axis direction of the
Thus, from the gravity acceleration data acting on the
The posture of the user is standing up (face is facing horizontally), sleeping (face is facing directly upward), diagonally up (face is facing diagonally upward), diagonally downward (The face faces obliquely downward) may be provided, or may be set more finely. In addition, by analyzing the temporal change of gravity acceleration data measured continuously, the change in the vertical direction of the user's face is obtained, and the estimated posture (for example, sitting posture, prone position, etc.) May be set.
Information on the user's posture (which direction the face is facing in the vertical direction (vertical direction) VD) specified by the posture
地磁気センサー14は、フレーム3の左側のレンズ部4の近傍に内蔵され、スマートグラス1(装着部2)に作用する磁界の向きを測定するものであり、地磁気センサー14によって測定されたデータは、データ取得部15に一旦取り込まれた後、方位算出特定部16に送られる。
方位算出特定部16は、データ取得部15から送られてくるデータ(磁界の向き)から、北、北東、東等の方位を45度単位で計算して、利用者の顔面がどの方位を向いているかを特定する。計算する方位は、北、北東、東等の他さらに北北東等を加えた15度単位でもよく、さらに細かくしてもよい。
図5は、利用者の顔面の向いている方位と利用者に装着されたスマートグラス1(装着部2)に作用する磁界の向きとの関係を説明するための図であり。図において、UDはスマートグラス1に作用する磁界の向き、HDは利用者Uの顔面UFが向く方向の範囲である。図に示すように、地磁気センサー14によって測定される磁界の向きUDが、東西南北のどの方位にあるのかを求めることにより、利用者Uの顔面UFが水平方向HDのどの方向(方位)を向いているのかを求めることができる。
このようにして方位算出特定部16が特定した利用者の方位(顔面が水平方向HDのどの方向を向いているか)の情報は、方向情報作成部17に送られる。
なお、スマートグラス1は傾いて使用されること(スマートグラス1を装着した利用者の顔が上下方向に傾くこと)も多いことから、地磁気センサー14は3軸型が使用される。
The
The azimuth
FIG. 5 is a diagram for explaining the relationship between the orientation of the user's face and the direction of the magnetic field acting on the smart glass 1 (mounting unit 2) mounted on the user. In the figure, UD is the direction of the magnetic field acting on the
Information on the user's azimuth (which direction the face faces in the horizontal direction HD) identified by the azimuth calculation /
Since the
方向情報作成部17は、姿勢分析特定部13から送られてくる利用者の姿勢(顔面が上下方向(鉛直方向)VDのどの方向を向いているか)の情報と、方位算出特定部16から送られてくる利用者の方位(顔面が水平方向HDのどの方向を向いているか)の情報を合わせ、これを利用者の顔面が向いている方向情報として物体候補特定部70に送る。
The direction
[位置情報取得部20]
図2に示す位置情報取得部20は、位置検出センサー21、データ取得部22、位置情報作成部23等から構成される。
[Position information acquisition unit 20]
The position
位置検出センサー21は、GPS受信機、Wifi、IMES、ビーコン等であり、スマートグラス1のコントローラー6に内蔵され、スマートグラス1を装着した利用者の位置を検出して出力する。GPS受信機は利用者が屋外にいるときの位置を検出するもので、GPS衛星からの電波を受信して位置データとして出力する。また、Wifi、IMES、ビーコン等は、利用者が屋内にいるときの位置を検出ものである。そして、位置検出センサー21から出力される位置データは、データ取得部22に一旦取り込まれた後、位置情報作成部23に送られる。
位置情報作成部23は、データ取得部22から送られた位置データに基づいて、利用者の位置情報を作成し、作成した位置情報を物体候補特定部70に送る。位置情報作成部23が作成する位置情報は、位置検出センサー21が出力する緯度経度等の数値データであってもよく、位置データに対応付けられた住所、施設・建物名であってもよく、利用者が特定した部屋名(リビング、寝室等)や部屋の一部(リビング窓際、リビングソファ)であってもよい(この場合は予め位置データと部屋名や部屋の一部を対応付けておく。)。
The
The position
[物体画像取得部30]
図2に示す物体画像取込部30は、カメラ31、画像取得部32、送信部33、インターネット回線34、受信部35、画像取得部36等から構成される。
カメラ31は、スマートグラス1のフレーム3の右側のレンズ部4の近傍に取付けられ、スマートグラス1(装着部2)を装着した利用者の前方に存在する物体を撮影する。画像取得部32は、カメラ31が撮影した画像を取り込み、送信部33はこの画像をインターネット回線34によりサーバー6に送信する。
サーバー8側では、受信部35がインターネット回線34から送られてくる画像を受信し、画像取得部36が受信した画像を取り込み、物体認識部40に送る。
[Object Image Acquisition Unit 30]
The object
The
On the
[物体認識部40]
物体認識部40は、画像取得部36から送られてくる画像について、その画像に含まれている物体をモデルデータ記憶部(図示せず)に記憶されているモデルデータに基づいて認識する。モデルデータ記憶部には、各種機器類(例えば、ステレオ、テレビ、扇風機、エアコン、天井照明)等の物体の外形データがモデルデータとしてその名称(識別記号)を付して記憶されている。
よって、物体認識部40では、画像取得部36から送られてくる画像に含まれる物体の外形を抽出し、抽出した物体の外形とモデルデータ記憶部に記憶されているモデルデータ(物体の外形データ)とのマッチングを行い、マッチしたモデルデータをその画像に含まれている物体として認識し、その名称(識別記号)を対応付ける。
そして、物体認識部40は、認識した物体の画像とそれに対応付けた名称(識別記号)を送信部41に送り、送信部41はこれをインターネット回線42(34)によりスマートグラス1に送信する。
[Object recognition unit 40]
The
Therefore, the
Then, the
スマートグラス1側では、受信部43がインターネット回線42(34)から送られてくる物体の画像とその名称(識別記号)を受信し、物体画像取得部44がこれを取得し、ディスプレイ50と物体候補特定部70に送る。
なお、物体認識40は、サーバー6側に設けるのではなく、スマートグラス1側に設けてもよい。その場合は、送信部33、インターネット回線34、受信部35、画像取得部36等は不要となり、物体認識40は、画像取得部32からの画像を直接物体認識する。
On the
The
[画像表示部(ディスプレイ)50]
図2の画像表示部50であるディスプレイ50は、スマートグラス1のレンズ部4、4の上部に設けられ、物体認識部40が認識し物体画像取得部44が取得した物体の画像を投影表示する。
図6は、ディスプレイ50に表示された物体の画像の例を示したものであり、51は画面である。この例では、物体認識部40が、物体認識により、ステレオ、テレビ、扇風機、エアコン、天井照明を認識したため、これらの画像200が実際に配置されている状態でデ表示画面51に表示されている。すなわち、画面51の上部には天井照明の画像201とエアコンの画像202が表示され、中央部にはテレビの画像203が表示され、下部にはステレオの画像204と扇風機の画像205が表示されている。
そして、利用者は、レンズ部4、4を通して実際にステレオ、テレビ、扇風機、エアコン、天井照明を視認すると共に、画面51に表示されたこれらの画像201〜205を見ることとなる。
[Image Display Unit (Display) 50]
A
FIG. 6 shows an example of an image of an object displayed on the
The user actually sees the stereo, television, fan, air conditioner, and ceiling lighting through the
[対応付け情報記憶部60]
対応付け情報記憶部60は、方向情報作成部17が作成する利用者の顔面が向いている方向情報及び位置情報作成部23が作成する利用者の位置情報と、カメラ31が撮影し物体認識部40が認識する物体とを対応付けた対応付け情報を記憶する。
図7は、対応付け情報記憶部60が記憶する対応付け情報を表した履歴情報テーブルの例を示したものである。
図7の履歴情報テーブル61は、「履歴ID」、「方向情報(姿勢、方位)」、「位置情報」、「認識した物体」及び「選択した物体」の項目からなる履歴情報を記録したものである。
「履歴ID」は、利用者が過去にスマートグラス1を装着して物体を選択した履歴情報を区別する番号等であり、「方向情報」は、利用者がある物体を選択したときの姿勢(顔面が上下方向(鉛直方向)のどの方向を向いているか)と方位(顔面が水平方向HDのどの方向を向いているか)の情報を記録したものであり、「位置情報」は、そのときに利用者がいた位置情報を記録したものであり、「認識した物体」は、そのときに物体認識部40が認識しディスプレイ50(画面51)に表示された物体を記録したものであり、「選択した物体」は、そのときに利用者が選択した物体を記録したものである。
例えば、履歴ID「1」には、利用者が「起立」姿勢で、顔面が「東」を向いており、「リビング」にいるとき、「天井照明、エアコン、テレビ、ステレオ、扇風機」の物体が認識され、利用者が選択した物体が「天井照明」である履歴情報が記録されている。
また、履歴情報テーブル61は、過去に利用者が物体を選択したときの履歴情報がすべて記録されており、過去に「方向情報(姿勢、方位)」、「位置情報」、「認識した物体」及び「選択した物体」のすべてが同じ履歴情報があっても、別の履歴IDを付して新たな履歴情報として記録される。例えば、履歴ID「1」と「6」は、「方向情報(姿勢、方位)」、「位置情報」、「認識した物体」及び「選択した物体」のすべてが同一の履歴情報となっている。
なお、履歴テーブル61においては、方向情報のうち姿勢は、「起立」と「寝る」としたが、さらに「斜め上」、「斜め下」等を加えてより細かく設定してもよく、方位も「北」、「東」、「南」、「西」の他に「北東」、「北北東」等を加えてより細かく設定してもよい。また、位置情報も「リビング」、「寝室」等の部屋の他に「リビング窓際」、「リビングソファ」といったように部屋の一部まで細かく設定してもよい。
[Association Information Storage Unit 60]
The association
FIG. 7 shows an example of a history information table representing the association information stored in the association
The history information table 61 in FIG. 7 records history information including items of “history ID”, “direction information (attitude and orientation)”, “position information”, “recognized object”, and “selected object”. It is.
“History ID” is a number or the like that distinguishes history information that the user has selected the object by wearing the
For example, in the history ID “1”, when the user is in the “standing” posture, the face is facing “east”, and in the “living room”, the object “ceiling lighting, air conditioner, TV, stereo, electric fan” Is recorded, and history information that the object selected by the user is “ceiling lighting” is recorded.
The history information table 61 records all the history information when the user has selected an object in the past. In the past, “direction information (attitude, orientation)”, “position information”, “recognized object” Even if all the “selected objects” have the same history information, they are recorded as new history information with different history IDs. For example, in the history IDs “1” and “6”, all of “direction information (posture and orientation)”, “position information”, “recognized object”, and “selected object” are the same history information. .
In the history table 61, the postures of the direction information are “standing” and “sleeping”, but may be set more finely by adding “diagonally up”, “diagonally below”, etc. In addition to “north”, “east”, “south”, and “west”, “north-east”, “north-north-east”, and the like may be added for more detailed setting. In addition to the room such as “living room” and “bedroom”, the position information may be set finely to a part of the room such as “living window” and “living sofa”.
上記のように利用者がどの位置にいて顔面がどの方向を向いている場合にどの物体を選択したかという履歴情報に基づいて、利用者の方向情報及び位置情報と物体との対応付けを行うのは、以下の理由による。
どのような物体が存在するかは利用者の位置によって決まり、一般的に利用者は選択したい物体の方に顔面を向けることから、利用者の方向情報及び位置情報から利用者が選択した物体はおおよそ特定できる。
しかしながら、利用者によっては必ずしも選択したい物体の方に顔面を向けるとは限らない。例えば、天井照明を選択したい場合、天井照明の方に顔面を向けず、上目遣いに天井照明を見る利用者もいる。また、利用者から見て同一方向に複数の物体がある場合、顔面の向きからだけでは、選択したい物体を特定できない。
このような場合、利用者の習性を利用すれば、利用者の選択したい物体を選択することができる。すなわち、選択したい物体に対して顔面をどの方向に向けるかは、利用者の習性によることが多く、また、利用者から見て同一方向に複数の物体がある場合、どの物体を選択したいかも、利用者の習性によることが多い(例えば、利用者の真正面にステレオ、テレビ、扇風機がある場合、ある利用者は常にテレビを選択して操作するという習性がある。)。
したがって、利用者がどの位置にいて顔面がどの方向を向いている場合にどの物体を選択したかという履歴情報に基づけば、利用者の習性等が反映され、利用者が選択したい物体をより的確に選択することができる。
As described above, the user's direction information and position information are associated with the object based on the history information indicating which object is selected when the user is in which position and in which direction the face is facing. The reason is as follows.
What kind of object exists depends on the position of the user, and since the user generally turns his face toward the object he wants to select, the object selected by the user based on the user's direction information and position information is It can be roughly identified.
However, some users do not always turn their face toward the object they want to select. For example, when it is desired to select ceiling lighting, there are some users who do not turn their face toward the ceiling lighting and watch the ceiling lighting as an upper eye. Further, when there are a plurality of objects in the same direction as viewed from the user, the object to be selected cannot be specified only from the direction of the face.
In such a case, if the user's behavior is used, an object that the user wants to select can be selected. In other words, the direction in which the face is directed to the object to be selected often depends on the user's habits, and when there are multiple objects in the same direction as seen from the user, which object to select It often depends on the habits of the user (for example, when there is a stereo, a TV, or a fan in front of the user, a certain user always has the habit of selecting and operating the TV).
Therefore, based on the history information on which object is selected when the user is in which position and in which direction the face is facing, the user's habits and the like are reflected, and the object that the user wants to select is more accurate. Can be selected.
[物体候補特定部70]
物体候補特定部70は、方向情報作成部17から送られてくる利用者の顔面が向いている方向情報(利用者の姿勢と方位の情報)、位置情報作成部23から送られてくる利用者の位置情報及び対応付け情報記憶部60に記憶された履歴情報テーブル61の履歴情報(対応付け情報)に基づいて、物体認識部40が認識しディスプレイ50に表示した複数の物体の中から、利用者の選択する物体の候補を特定する。
すなわち、物体候補特定部70は、履歴情報テーブル61を検索して、方向情報作成部17からの方向情報(姿勢と方位)と位置情報作成部23からの位置情報と一致する方向情報(姿勢と方位)と位置情報が記録された履歴IDの履歴情報を探し、一致する履歴IDの履歴情報において選択した物体を物体の候補とする。
例えば、方向情報作成部17からの方向情報(姿勢と方位)が「起立」と「東」であり、位置情報作成部23からの位置情報が「リビング」の場合、履歴情報テーブル61の方向情報(姿勢と方位)と位置情報が一致する履歴IDは、「1」と「6」であり、履歴ID「1」と「6」の履歴情報において「選択した物体」は、共に「天井照明」であるから、物体候補特定部70が特定する物体の候補は「天井照明」となる。
また、物体候補特定部70は、方向情報作成部17からの方向情報(姿勢と方位)と位置情報作成部23からの位置情報と一致する方向情報(姿勢と方位)と位置情報が記録された履歴IDが複数あって、その履歴IDの選択した物体が異なる場合は、物体の候補に優先順位を付け、一致した回数の多い物体ほど優先順位の高い物体の候補とする。
このようにして物体候補特定部70が特定した物体の候補は、ディスプレイ50(画面51)に表示されるが、物体の候補の候補が複数ある場合は、優先順位を付けて表示される。
[Object candidate specifying unit 70]
The object
That is, the object
For example, when the direction information (posture and direction) from the direction
In addition, the object
The object candidates specified by the object
図8は、物体候補特定部70が特定した物体の候補をディスプレイ50(画面51)に表示した例を説明する図である。図においては、物体候補特定部70が特定した物体の候補が「天井照明」あるため、天井照明を表す画像201に対して、その周囲を囲む選択枠210を表示した例を示している。物体候補特定部70が特定した物体の候補をディスプレイ50(画面51)に表示する方法は、このような選択枠を表示することの他、特定した物体の候補を点滅表示してもよく、特定した物体の候補の名称を表示してもよい。
FIG. 8 is a diagram for explaining an example in which object candidates specified by the object
[物体指定部80、物体確定部90]
物体指定部80は、物体候補特定部70が特定した物体の候補以外の物体を利用者の選択または制御する物体として選択する場合、利用者の操作により、利用者の選択する物体を指定する。
物体確定部90は、物体候補特定部70が特定した物体の候補、または、物体指定部80が指定した物体を利用者の選択する物体として確定する。
[
When the
The
図9は、物体確定部90が利用者の選択する物体を確定する例を説明するための図である。以下、物体候補特定部70が特定した物体の候補「天井照明」に対して、物体指定部80が他の物体「エアコン」を指定した場合について説明する。
物体指定部80は、ディスプレイ50(画面51)に表示された「天井照明」の画像210を囲む選択枠210の下方に、「他候補選択」の文字が入ったボタン211と「確定」の文字が入ったボタン212を表示する(図9(a))。利用者が「確定」のボタン212を押すと、物体確定部90は、物体候補特定部70が特定した物体の候補「天井照明」を利用者の選択する物体として確定する。一方、利用者が「他候補選択」のボタン211を押すと、選択枠210が利用者の操作により移動できるようになり、利用者が選択枠210を「エアコン」の画像202の周囲に移動させると、物体指定部80は、選択枠210の下方に再び「他候補選択」のボタン211と「確定」のボタン212が表示する。ここで、利用者が「確定」のボタン212を押すと、物体確定部90は、物体指定部80が指定した物体「エアコン」を利用者の選択する物体として確定する。
このようにして物体確定部90は利用者の選択する物体を確定するが、そのときの利用者の方向情報(姿勢と方位)及び位置情報と、物体確定部90が確定した物体とを対応付けて新たな履歴情報とし、これを履歴情報書込部(図示せず)が履歴情報テーブル61に追加記録する。
そして、物体確定部90が確定した物体の情報は、物体制御部100に送られる。
FIG. 9 is a diagram for explaining an example in which the
The
In this way, the
Then, the information on the object determined by the
[物体制御部100]
物体制御部100は、各種操作機器を制御するサーバー(図示せず)と通信を行う通信部(図示せず)を制御し、このサーバーを介して、物体確定部90が確定した物体(各種機器類等)と通信を行い、その動作(例えば、スイッチのON・OFF)を制御する。
[Object control unit 100]
The
[物体認識選択装置(スマートグラス)1の動作の概要]
図10は、物体認識選択装置(スマートグラス)1の動作の概要を示すフローチャートであり、以下図10に基づいて物体認識選択装置1の動作の概要を説明する。
まず、方向情報取得部10が、加速度センサー11及び地磁気センサー14により測定されたデータから、スマートグラス1を装着した利用者の顔面がどの方向を向いているかを分析し、利用者の顔面が向いている方向情報を取得する(S1)。
次いで、位置情報取得部20が、位置検出センサー21で検出されたデータから、スマートグラス1を装着した利用者の位置情報を取得する(S2)。
次いで、物体画像取込部30が、スマートグラス1に搭載されたカメラ31により、利用者の前方に存在する複数の物体を撮影してその画像を取り込む(S3)。
次いで、物体認識部40が、物体画像取込部30が取り込んだ複数の物体を含む画像から、その複数の物体を認識する物体認識を行い(S4)、認識した複数の物体の画像を画像表示部50に表示する(S5)。
次いで、物体候補特定部70が、方向情報取得部10が取得した利用者の方向情報、位置情報取得部20が取得した利用者の位置情報及び対応付け情報記憶部60に記憶された対応付け情報に基づいて、物体表示部50に表示された複数の物体の中から、利用者の選択または制御する物体の候補を特定する(S6)。
次いで、物体確定部90が、物体候補特定部70が特定した利用者の選択または制御する物体の候補、または、物体指定部80により利用者が指定した物体を、利用者の選択または制御する物体として確定する(S7)。
最後に、物体制御部100が、物体確定部90が確定した利用者の選択または制御する物体(各種機器類等)と通信を行い、その動作(例えば、スイッチのON・OFF)を制御し(S8)、終了する。
[Outline of Operation of Object Recognition Selection Device (Smart Glass) 1]
FIG. 10 is a flowchart showing an outline of the operation of the object recognition / selection apparatus (smart glasses) 1. The outline of the operation of the object recognition /
First, the direction
Next, the position
Next, the object
Next, the
Next, the object
Next, the
Finally, the
[方向情報取得部10の動作]
図11は、方向情報取得部10が行う方向情報の取得の動作(図10のS1)の詳細を示すフローチャートであり、以下図11に基づいて方向情報取得部10の動作を説明する。
まず、加速度センサー11が、利用者が装着したスマートグラス1に作用する重力加速度を測定し(S10)、データ取得蓄積部12が測定されたデータを一旦保存蓄積する(S11)。
次いで、姿勢分析特定部13が、データ取得蓄積部12から送られてくる重力加速度データを分析して、利用者の顔面が上下方向(鉛直方向)のどの方向を向いているか、すなわち、利用者がどのような姿勢でいるかを特定し(S12)、特定した利用者の姿勢情報を方向情報作成部17に送る(S13)。
利用者の姿勢情報には、起立(顔面が水平方向を向いている)、寝る(顔面が真上方向を向いている)、斜め上(顔面が斜め上方向を向いている)、斜め下(顔面が斜め下方向を向いている)等がある。
次いで、地磁気センサー14が、スマートグラス1に作用する磁界の向きを測定し(S14)、方位算出特定部16が、測定データ(磁界の向き)から、北、北東、東等の方位を計算して、利用者の顔面がどの方位を向いているかを特定し(S15)、特定した利用者の方位情報を方向情報作成部17に送る(S16)。
最後に、方向情報作成部17が、姿勢分析特定部13から送られてくる利用者の姿勢情報と、方位算出特定部16から送られてくる利用者の方位情報を合わせて、利用者の顔面が向いている方向情報を作成し(S17)、方向情報の取得処理を終了する。
[Operation of Direction Information Acquisition Unit 10]
FIG. 11 is a flowchart showing details of the direction information acquisition operation (S1 in FIG. 10) performed by the direction
First, the
Next, the posture
User posture information includes standing (face is facing horizontally), sleeping (face is facing directly upward), diagonally upward (face is facing diagonally upward), diagonally downward ( The face is facing diagonally downward).
Next, the
Finally, the direction
[位置情報取得部20の動作]
図12は、位置情報取得部20が行う位置情報の取得の動作(図10のS2)の詳細を示すフローチャートであり、以下図12に基づいて位置情報取得部20の動作を説明する。
まず、GPS受信機等の位置検出センサー21が、スマートグラス1を装着した利用者の位置を検出して、位置データを出力する(S20)。
次いで、データ取得部22が出力される位置データを取り込み(S21)、この位置データに基づいて位置情報作成部23が利用者の位置情報を作成し(S22)、位置情報の取得処理を終了する。
[Operation of Position Information Acquisition Unit 20]
FIG. 12 is a flowchart showing details of the position information acquisition operation (S2 in FIG. 10) performed by the position
First, the
Next, the
[物体画像取込部30の動作]
図13は、物体画像取込部30が行う物体画像取込の動作(図10のS3)の詳細を示すフローチャートであり、以下図13に基づいて物体画像取込部30の動作を説明する。
まず、カメラ31が、スマートグラス1を装着した利用者の前方に存在する物体を撮影し(S30)、画像取得部32が、撮影した画像を取り込み(S31)、送信部33がこの画像をインターネット回線34によりサーバー8に送信する(S32)。
次いで、サーバー6側の受信部35がインターネット回線34から送られてくる画像を受信し(S33)、画像取得部36が受信した画像を取り込み(S34)、物体画像取込処理を終了する。
[Operation of Object Image Capture Unit 30]
FIG. 13 is a flowchart showing details of the object image capturing operation (S3 in FIG. 10) performed by the object
First, the
Next, the receiving
[物体画像取込部40の動作]
図14は、物体認識部40が行う物体認識の動作(図10のS4)の詳細を示すフローチャートであり、以下図14に基づいて物体認識部40の動作を説明する。
まず、画像取得部36から送られてくる画像に含まれる物体の外形を抽出し(S40)、抽出した物体の外形と、モデルデータ記憶部に記憶されているモデルデータ(物体の外形データ)とのマッチングを行う(S41)。
次いで、マッチしたモデルデータをその画像に含まれている物体として認識し(S42)、その名称(識別記号)を対応付け(S43)、物体認識処理を終了する。
[Operation of Object Image Capture Unit 40]
FIG. 14 is a flowchart showing details of the object recognition operation (S4 in FIG. 10) performed by the
First, the outer shape of the object included in the image sent from the
Next, the matched model data is recognized as an object included in the image (S42), the name (identification symbol) is associated (S43), and the object recognition process is terminated.
[画像表示部(ディスプレイ)50の動作]
図15は、画像表示部(ディスプレイ)50が、物体画像取込部40の認識した物体の画像を表示する動作(図10のS5)の詳細を示すフローチャートであり、以下図15に基づいて画像表示部(ディスプレイ)50の動作を説明する。
まず、サーバー6側の送信部41が、物体認識部40の認識した物体の画像とそれに対応付けた名称(識別記号)を、インターネット回線42(34)により送信する(S50)。
次いで、スマートグラス1側の受信部43が、送られてきた物体の画像等を受信し(S51)、物体画像取得部44がこの物体の画像等を取得し(S52)、画像表示部(ディスプレイ)50が、画面51に物体の画像を表示し(S53、図6参照)、処理を終了する。
[Operation of Image Display Unit (Display) 50]
FIG. 15 is a flowchart showing details of an operation (S5 in FIG. 10) in which the image display unit (display) 50 displays the image of the object recognized by the object
First, the
Next, the
[物体候補特定部70及び物体確定部90の動作]
図16は、物体候補特定部70及び物体確定部90が行う物体候補特定及び物体の確定の動作(図10のS6、S7)の詳細を示すフローチャートであり、以下図16に基づいて物体候補特定部70及び物体確定部90の動作を説明する。
まず、物体候補特定部70は、履歴情報テーブル61を検索して、方向情報作成部17からの方向情報(姿勢と方位)と位置情報作成部23からの位置情報と一致する方向情報(姿勢と方位)と位置情報が記録された履歴IDがあるかを判断する(S60)。一致する履歴IDがあれば、一致する履歴IDの履歴情報において選択した物体を物体の候補として特定し(S61)、一致する履歴IDがなければ処理を終了する。
次いで、物体候補特定部70は、物体の候補が二以上(複数)あるかを判断し(S62)、二以上(複数)なければ、物体の候補として特定したものをディスプレイ50(画面51)に表示する(S63、図8参照)。
次いで、物体確定部90が、利用者の操作により、物体指定部80から物体の候補以外の物体の指定があるかを判断し(S64)、物体の指定がなければ、表示された物体の候補を利用者の選択する物体として確定し(S65)、物体の指定があれば、指定された物体を物体の候補として表示し(S63)、S64の処理を行う(図9参照)。
そして、このときの利用者の方向情報(姿勢と方位)及び位置情報と、選択物体確定部90が確定した物体とを対応付けて新たな履歴情報とし、これを履歴情報書込部(図示せず)が履歴情報テーブル61に追加記録する(S66)。
また、S62で物体の候補が二以上(複数)ある場合は、物体候補特定部70が、物体の候補が同一か否かを判断し(S67)、同一でなければ、すなわち物体の候補が異なる場合は、物体の候補に優先順位を付け(S68)、優先順位を付けた物体の候補を表示し(S63)、例えば、方向情報と位置情報が一致した回数の多い物体ほど優先順位の高い物体の候補とし、優先順位の高い物体について選択枠210を表示し、S64以降の処理を行う。
[Operations of Object
FIG. 16 is a flowchart showing details of the object candidate specification and object determination operations (S6 and S7 in FIG. 10) performed by the object
First, the object
Next, the object
Next, the
Then, the direction information (attitude and orientation) and position information of the user at this time is associated with the object determined by the selected
If there are two or more (plural) object candidates in S62, the object
本発明の物体認識選択装置、物体認識選択方法及びプログラムは、スマートグラス(メガネ型コンピュータ)等のカメラを搭載して頭部や顔面に装着するタイプのウエアラブルコンピュータ(端末)等から、利用者の選択または制御したい物体(機器)を優先的に選択できる。 An object recognition selection device, an object recognition selection method, and a program according to the present invention are provided from a wearable computer (terminal) of a type that is mounted on a head or a face by mounting a camera such as a smart glass (glasses type computer). An object (device) to be selected or controlled can be preferentially selected.
1 物体認識選択装置(スマートグラス)
2 装着部
3 フレーム
4 レンズ部
5 制御部
6 サーバー
10 方向情報取得部
11 加速度センサー
12 データ取得蓄積部
13 姿勢分析特定部
14 地磁気センサー
15 データ取得部
16 方位算出特定部、
17 方向情報作成部
20 位置情報取得部
21 位置検出センサー
22 データ取得部
23 位置情報作成部
30 物体画像取込部
31 カメラ
32 画像取得部
33 送信部
34、42 インターネット回線
35、43 受信部
36 画像取得部
40 物体認識部
44 物体画像取得部
50 物体表示部(ディスプレイ)
51 画面
60 対応付け情報記憶部
61 履歴情報テーブル
70 物体候補特定部
80 物体特定部
90 選択物体確定部
100 物体制御部
200〜205 画像
210 選択枠
211、212 ボタン
U 利用者
UF 利用者の顔面
VD 顔面UFが向く方向の範囲
UD スマートグラス1に作用する磁界の向き
HD 利用者Uの顔面UFが向く方向の範囲
1 Object recognition selection device (smart glasses)
2 Mounting
17 direction
51
Claims (13)
複数の物体を撮影してその画像を取り込む物体画像取込手段と、
前記物体画像取込手段が取り込んだ画像から前記複数の物体を認識する物体認識手段と、
前記物体画像取込手段が前記画像を取り込むときの前記利用者の状態を特定する状態情報を取得する状態情報取得手段と、
前記状態情報と前記物体とを対応付けた対応付け情報を記憶する対応付け情報記憶手段と、
前記状態情報取得手段が取得した状態情報及び前記対応付け情報記憶手段に記憶された対応付け情報に基づいて、前記物体認識手段が認識した複数の物体の中から前記利用者の選択または制御する物体の候補を特定する物体候補特定手段と、
を備えたことを特徴とする物体認識選択装置。 An object recognition / selection device having a mounting portion to be mounted on a user's face or head,
Object image capturing means for capturing a plurality of objects and capturing the images;
Object recognition means for recognizing the plurality of objects from the image captured by the object image capture means;
State information acquisition means for acquiring state information for specifying the state of the user when the object image capturing means captures the image;
Association information storage means for storing association information in which the state information and the object are associated;
An object to be selected or controlled by the user from among a plurality of objects recognized by the object recognition unit based on the state information acquired by the state information acquisition unit and the association information stored in the association information storage unit An object candidate specifying means for specifying a candidate of
An object recognition / selection device comprising:
前記利用者の選択または制御する物体を確定する物体確定手段と、
をさらに備えたことを特徴とする請求項1記載の物体認識選択装置。 Object display means for displaying a plurality of objects recognized by the object recognition means;
Object determining means for determining an object to be selected or controlled by the user;
The object recognition / selection apparatus according to claim 1, further comprising:
前記物体確定手段は、前記物体候補特定手段が特定した前記物体の候補または前記物体指定手段が指定した前記物体を前記利用者の選択または制御する物体として確定することを特徴とする請求項2又は請求項3記載の物体認識選択装置。 An object designating unit for designating the object;
The object determination unit determines the object candidate specified by the object candidate specifying unit or the object specified by the object specifying unit as an object to be selected or controlled by the user. The object recognition selection apparatus according to claim 3.
前記利用者の状態を特定する状態情報を取得し、
複数の物体を撮影してその画像を取り込み、
この取り込んだ画像から前記複数の物体を認識し、
予め前記状態情報と前記物体とを対応付けた対応付け情報を記憶しておき、
前記取得された状態情報及び前記記憶された対応付け情報に基づいて、前記認識された複数の物体の中から前記利用者の選択または制御する物体の候補を特定する、
ステップを備えたことを特徴とする物体認識選択方法。 An object recognition selection method by an object recognition selection device provided with a mounting part to be worn on a user's face or head,
Obtaining state information identifying the state of the user;
Capture multiple objects and capture the images,
Recognize the plurality of objects from the captured image,
Preliminarily storing association information that associates the state information with the object,
Based on the acquired state information and the stored association information, a candidate for an object to be selected or controlled by the user from among the plurality of recognized objects is specified.
An object recognition selection method comprising steps.
A program that causes a computer to execute the object recognition selection method according to any one of claims 7 to 12.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015072102A JP2016192096A (en) | 2015-03-31 | 2015-03-31 | Object recognition and selection device, object recognition and selection method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015072102A JP2016192096A (en) | 2015-03-31 | 2015-03-31 | Object recognition and selection device, object recognition and selection method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016192096A true JP2016192096A (en) | 2016-11-10 |
Family
ID=57245621
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015072102A Pending JP2016192096A (en) | 2015-03-31 | 2015-03-31 | Object recognition and selection device, object recognition and selection method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016192096A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11151357B2 (en) | 2019-06-03 | 2021-10-19 | Samsung Electronics Co., Ltd. | Electronic apparatus for object recognition and control method thereof |
CN114268692A (en) * | 2021-12-07 | 2022-04-01 | 咪咕音乐有限公司 | Video color ring back tone releasing method, device, storage medium and device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014164599A (en) * | 2013-02-26 | 2014-09-08 | Nec Saitama Ltd | Information apparatus, control method thereof and program |
JP2014206904A (en) * | 2013-04-15 | 2014-10-30 | オリンパス株式会社 | Wearable device, program and display control method of wearable device |
-
2015
- 2015-03-31 JP JP2015072102A patent/JP2016192096A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014164599A (en) * | 2013-02-26 | 2014-09-08 | Nec Saitama Ltd | Information apparatus, control method thereof and program |
JP2014206904A (en) * | 2013-04-15 | 2014-10-30 | オリンパス株式会社 | Wearable device, program and display control method of wearable device |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11151357B2 (en) | 2019-06-03 | 2021-10-19 | Samsung Electronics Co., Ltd. | Electronic apparatus for object recognition and control method thereof |
US11719544B2 (en) | 2019-06-03 | 2023-08-08 | Samsung Electronics Co., Ltd. | Electronic apparatus for object recognition and control method thereof |
CN114268692A (en) * | 2021-12-07 | 2022-04-01 | 咪咕音乐有限公司 | Video color ring back tone releasing method, device, storage medium and device |
CN114268692B (en) * | 2021-12-07 | 2023-01-10 | 咪咕音乐有限公司 | Video color ring back tone releasing method, device, storage medium and device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11699271B2 (en) | Beacons for localization and content delivery to wearable devices | |
US11995774B2 (en) | Augmented reality experiences using speech and text captions | |
US11277597B1 (en) | Marker-based guided AR experience | |
US20190199941A1 (en) | Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product | |
JP4679661B1 (en) | Information presenting apparatus, information presenting method, and program | |
JP6517255B2 (en) | Character image generation apparatus, character image generation method, program, recording medium, and character image generation system | |
US20210099639A1 (en) | Automated eyewear device sharing system | |
US20210407205A1 (en) | Augmented reality eyewear with speech bubbles and translation | |
CN109981944A (en) | Electronic device and its control method | |
US11195341B1 (en) | Augmented reality eyewear with 3D costumes | |
KR20170108285A (en) | Control system of interior environment apparatus using augmented reality | |
US20210406542A1 (en) | Augmented reality eyewear with mood sharing | |
JP2016192096A (en) | Object recognition and selection device, object recognition and selection method, and program | |
CN108896035B (en) | Method and equipment for realizing navigation through image information and navigation robot | |
WO2022176450A1 (en) | Information processing device, information processing method, and program | |
US10810867B2 (en) | Remote control system, remote control method, and program | |
KR20200122754A (en) | Smart glass system for providing augmented reality image | |
US11789266B1 (en) | Dynamic sensor selection for visual inertial odometry systems | |
US9911237B1 (en) | Image processing techniques for self-captured images | |
KR20220026114A (en) | Electronic device, and method for identifing realted external electronic device in augmented reality of electronic device | |
CN115997388A (en) | Information processing terminal, remote control method, and program | |
WO2018008101A1 (en) | Image provision system, image provision method, and program | |
US11863860B2 (en) | Image capture eyewear with context-based sending | |
CN110798609A (en) | Image display method, image display system and virtual window | |
JPWO2020008559A1 (en) | Head-mounted display and setting method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180130 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181004 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181016 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190423 |