JP6483514B2 - Wearable device, control method, and control program - Google Patents

Wearable device, control method, and control program Download PDF

Info

Publication number
JP6483514B2
JP6483514B2 JP2015091575A JP2015091575A JP6483514B2 JP 6483514 B2 JP6483514 B2 JP 6483514B2 JP 2015091575 A JP2015091575 A JP 2015091575A JP 2015091575 A JP2015091575 A JP 2015091575A JP 6483514 B2 JP6483514 B2 JP 6483514B2
Authority
JP
Japan
Prior art keywords
range
imaging
predetermined
detection
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015091575A
Other languages
Japanese (ja)
Other versions
JP2016207145A (en
Inventor
須藤 智浩
智浩 須藤
伸悟 伊東
伸悟 伊東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2015091575A priority Critical patent/JP6483514B2/en
Publication of JP2016207145A publication Critical patent/JP2016207145A/en
Application granted granted Critical
Publication of JP6483514B2 publication Critical patent/JP6483514B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

この発明は、ユーザの頭部に装着可能なウェアラブル装置、制御方法及び制御プログラムに関する。   The present invention relates to a wearable device that can be worn on a user's head, a control method, and a control program.

上記のウェアラブル装置として、近年、眼前に配置されるディスプレイと、手指の動きを認識可能な赤外線検知ユニットと、を備え、手のジェスチャによって操作が行われるヘッドマウントディスプレイ装置が開示されている(特許文献1参照)。   In recent years, as the wearable device, a head-mounted display device that has a display arranged in front of the eyes and an infrared detection unit that can recognize the movement of a finger and is operated by a hand gesture has been disclosed (patent) Reference 1).

国際公開第2014/128751号International Publication No. 2014/128751

上記のようなウェアラブル装置においては、より使い勝手の良いものが望まれる。   In the wearable device as described above, a device that is easier to use is desired.

本発明の目的は、より使い勝手の良いウェアラブル装置を提供することにある。   An object of the present invention is to provide a wearable device that is easier to use.

1つの態様に係るウェアラブル装置は、撮像部と、現実の空間に在る所定物を検出する検出部と、を備え、前記検出部によって検出される、前記所定物の所定動作に応じて所定機能を実行するウェアラブル装置であって、前記撮像部が撮像中のときは、前記検出部の検出範囲における、前記撮像部の撮像範囲と重畳する第1範囲においては、該第1範囲内で前記所定物の所定動作を検出しても、該所定動作に応じた前記所定機能を実行しない。   A wearable device according to one aspect includes an imaging unit and a detection unit that detects a predetermined object in an actual space, and has a predetermined function according to a predetermined operation of the predetermined object detected by the detection unit. In the first range that overlaps with the imaging range of the imaging unit in the detection range of the detection unit when the imaging unit is imaging, the predetermined range within the first range Even if a predetermined motion of the object is detected, the predetermined function corresponding to the predetermined motion is not executed.

1つの態様に係るウェアラブル装置は、現実の空間に在る所定物を検出する検出部を備え、前記検出部によって検出される、前記所定物の所定動作に応じて所定機能を実行する、頭部に装着されるウェアラブル装置であって、前記所定機能を起動すると、該所定機能の実行内容に応じて、前記検出部の検出適用範囲を変更する。   A wearable device according to one aspect includes a detection unit that detects a predetermined object in an actual space, and performs a predetermined function according to a predetermined operation of the predetermined object that is detected by the detection unit. When the predetermined function is activated, the detection application range of the detection unit is changed according to the execution content of the predetermined function.

1つの態様に係るウェアラブル装置は、撮像部と、現実の空間に在る所定物を検出する検出部と、を備え、前記検出部によって検出される、前記所定物の所定動作に応じて所定機能を実行するウェアラブル装置であって、前記所定物の所定動作に応じて、前記検出部の検出範囲内に含まれる少なくとも一つの被写体の指定を受付け、該受付けがなされている状態において、前記被写体が前記撮像部の撮像範囲における所定の位置に移動したことを契機に、該撮像部が撮像する撮像画像を保存する。   A wearable device according to one aspect includes an imaging unit and a detection unit that detects a predetermined object in an actual space, and has a predetermined function according to a predetermined operation of the predetermined object detected by the detection unit. In accordance with a predetermined operation of the predetermined object, the wearable device receives the designation of at least one subject included in the detection range of the detection unit, and in the state where the reception is performed, the subject In response to the movement to a predetermined position in the imaging range of the imaging unit, the captured image captured by the imaging unit is stored.

1つの態様に係るウェアラブル装置は、撮像部と、現実の空間に在る所定物を検出する検出部と、を備え、前記撮像部が撮像中のときは、前記検出部の検出範囲における、前記撮像部の撮像範囲と重畳しない範囲において、前記所定動作を検出したことに基づいて、前記撮像部の機能に係る処理を実行する。   A wearable device according to one aspect includes an imaging unit and a detection unit that detects a predetermined object in a real space, and when the imaging unit is imaging, the detection range of the detection unit, Based on the detection of the predetermined operation in a range that does not overlap with the imaging range of the imaging unit, processing related to the function of the imaging unit is executed.

1つの態様に係るウェアラブル装置は、撮像部と、表示部と、現実の空間に在る所定物の所定動作を検出する検出部と、を備え、前記撮像部が撮像中のときは、前記表示部の表示領域における前記撮像部の撮像範囲と重畳しない所定領域において、前記所定動作を検出したことに基づいて、前記撮像部の機能に係る処理を実行する。   A wearable device according to one aspect includes an imaging unit, a display unit, and a detection unit that detects a predetermined operation of a predetermined object in an actual space, and when the imaging unit is imaging, the display The processing related to the function of the imaging unit is executed based on the detection of the predetermined operation in a predetermined region that does not overlap with the imaging range of the imaging unit in the display area of the unit.

1つの態様に係る制御方法は、撮像部と、現実の空間に在る所定物を検出する検出部と、を備え、前記検出部によって検出される、前記所定物の所定動作に応じて所定機能を実行するウェアラブル装置によって実行される制御方法であって、前記撮像部が撮像中のときは、前記検出部の検出範囲における、前記撮像部の撮像範囲と重畳する第1範囲においては、該第1範囲内で前記所定物の所定動作を検出しても、該所定動作に応じた前記所定機能を実行しないことを特徴とする。   A control method according to one aspect includes an imaging unit and a detection unit that detects a predetermined object in a real space, and has a predetermined function according to a predetermined operation of the predetermined object detected by the detection unit. In the first range that overlaps with the imaging range of the imaging unit in the detection range of the detection unit when the imaging unit is imaging. Even if a predetermined operation of the predetermined object is detected within one range, the predetermined function corresponding to the predetermined operation is not executed.

1つの態様に係る制御プログラムは、撮像部と、現実の空間に在る所定物を検出する検出部と、を備えるウェアラブル装置に、前記検出部によって検出される、前記所定物の所定動作に応じて所定機能を実行させる制御プログラムであって、前記撮像部が撮像中のときは、前記検出部の検出範囲における、前記撮像部の撮像範囲と重畳する第1範囲においては、該第1範囲内で前記所定物の所定動作を検出しても、該所定動作に応じた前記所定機能を前記ウェアラブル装置に実行させないことを特徴とする。   A control program according to one aspect corresponds to a predetermined operation of the predetermined object detected by the detection unit in a wearable device including an imaging unit and a detection unit that detects a predetermined object in an actual space. A control program for executing a predetermined function when the imaging unit is imaging, the first range that overlaps the imaging range of the imaging unit in the detection range of the detection unit is within the first range. In this case, even if a predetermined operation of the predetermined object is detected, the wearable device does not execute the predetermined function corresponding to the predetermined operation.

本発明によれば、より使い勝手の良いウェアラブル装置を提供することができる。   According to the present invention, it is possible to provide a wearable device that is easier to use.

図1は、ウェアラブル装置の斜視図である。FIG. 1 is a perspective view of a wearable device. 図2は、ウェアラブル装置のブロック図である。FIG. 2 is a block diagram of the wearable device. 図3は、撮像部の撮像範囲と、検出部の検出範囲と、表示部の表示領域との関係を示す第1例である。FIG. 3 is a first example illustrating the relationship between the imaging range of the imaging unit, the detection range of the detection unit, and the display area of the display unit. 図4は、撮像部の撮像範囲と、検出部の検出範囲と、表示部の表示領域との関係を示す第2例である。FIG. 4 is a second example illustrating the relationship between the imaging range of the imaging unit, the detection range of the detection unit, and the display area of the display unit. 図5は、機能の実行内容によって検出範囲を変更する際の各変更パターンを示す図である。FIG. 5 is a diagram showing each change pattern when the detection range is changed depending on the execution contents of the function. 図6は、ウェアラブル装置1の所定機能の実行例を説明するための図である。FIG. 6 is a diagram for explaining an execution example of the predetermined function of the wearable device 1. 図7は、本実施形態における変形例を説明するための図である。FIG. 7 is a diagram for explaining a modification of the present embodiment.

以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。   Hereinafter, the present invention will be described in detail with reference to the drawings. The present invention is not limited to the following description. In addition, constituent elements in the following description include those that can be easily assumed by those skilled in the art, those that are substantially the same, and those in a so-called equivalent range.

まず、図1を参照しながら、ウェアラブル装置1の全体的な構成について説明する。図1は、装置1の斜視図である。図1に示すように、ウェアラブル装置1は、利用者の頭部に装着されるヘッドマウントタイプの装置である。   First, the overall configuration of the wearable device 1 will be described with reference to FIG. FIG. 1 is a perspective view of the device 1. As shown in FIG. 1, the wearable device 1 is a head mount type device that is worn on a user's head.

ウェアラブル装置1は、前面部1aと、側面部1bと、側面部1cとを有する。前面部1aは、装着時に、利用者の両目を覆うように利用者の正面に配置される。側面部1bは、前面部1aの一方の端部に接続され、側面部1cは、前面部1aの他方の端部に接続される。側面部1b及び側面部1cは、装着時に、眼鏡の蔓のように利用者の耳によって支持され、ウェアラブル装置1を安定させる。側面部1b及び側面部1cは、装着時に、利用者の頭部の背面で接続されるように構成されてもよい。   The wearable device 1 includes a front surface portion 1a, a side surface portion 1b, and a side surface portion 1c. Front part 1a is arranged in front of the user so as to cover both eyes of the user when worn. The side surface portion 1b is connected to one end portion of the front surface portion 1a, and the side surface portion 1c is connected to the other end portion of the front surface portion 1a. The side surface portion 1b and the side surface portion 1c are supported by a user's ear like a vine of glasses when worn, and stabilize the wearable device 1. The side surface portion 1b and the side surface portion 1c may be configured to be connected to the back surface of the user's head when worn.

前面部1aは、装着時に利用者の目と対向する面に表示部32a及び表示部32bを備える。表示部32aは、装着時に利用者の右目と対向する位置に配設され、表示部32bは、装着時に利用者の左目と対向する位置に配設される。表示部32aは、右目用の画像を表示し、表示部32bは、左目用の画像を表示する。このように、装着時に利用者のそれぞれの目に対応した画像を表示する表示部32a及び表示部32bを備えることにより、ウェアラブル装置1は、両眼の視差を利用した3次元表示を実現することができる。   The front surface portion 1a includes a display portion 32a and a display portion 32b on the surface facing the user's eyes when worn. The display unit 32a is disposed at a position facing the user's right eye when worn, and the display unit 32b is disposed at a position facing the user's left eye when worn. The display unit 32a displays a right-eye image, and the display unit 32b displays a left-eye image. Thus, by providing the display unit 32a and the display unit 32b that display an image corresponding to each eye of the user at the time of wearing, the wearable device 1 realizes three-dimensional display using parallax of both eyes. Can do.

表示部32a及び表示部32bは、一対の半透過ディスプレイであるが、これに限定されない。例えば、表示部32a及び表示部32bは、メガネレンズ、サングラスレンズ、及び紫外線カットレンズ等のレンズ類を設け、レンズとは別に表示部32a及び表示部32bを設けてもよい。表示部32a及び表示部32bは、利用者の右目と左目に異なる画像を独立して提供することができれば、1つの表示デバイスによって構成されてもよい。   The display unit 32a and the display unit 32b are a pair of transflective displays, but are not limited thereto. For example, the display unit 32a and the display unit 32b may be provided with lenses such as an eyeglass lens, a sunglasses lens, and an ultraviolet cut lens, and the display unit 32a and the display unit 32b may be provided separately from the lens. The display unit 32a and the display unit 32b may be configured by a single display device as long as different images can be independently provided to the right eye and the left eye of the user.

前面部1aには、撮像部40が備えられている。撮像部40は、利用者の視界に相当する範囲の画像を取得する。ここでいう視界とは、例えば、利用者が正面を見ているときの視界である。なお、撮像部40は、前面部1aの一方の端部(装着時の右目側)の近傍に配設される撮像部と、前面部1aの他方の端部(装着時の左目側)の近傍に配設される撮像部との2つから構成されていても良い。この場合、前面部1aの一方の端部(装着時の右目側)の近傍に配設される撮像部によって、利用者の右目の視界に相当する範囲の画像が取得され、前面部1aの一方の端部(装着時の左目側)の近傍に配設される撮像部によって、利用者の左目の視界に相当する範囲の画像が取得される。   An imaging unit 40 is provided on the front surface portion 1a. The imaging unit 40 acquires an image in a range corresponding to the user's field of view. The field of view here is a field of view when the user is looking at the front, for example. The imaging unit 40 includes an imaging unit disposed in the vicinity of one end (the right eye side when mounted) of the front surface portion 1a and the other end (the left eye side when mounted) of the front surface portion 1a. It may be constituted by two with the imaging unit arranged in. In this case, an image in a range corresponding to the field of view of the user's right eye is acquired by the imaging unit disposed in the vicinity of one end portion (the right eye side when worn) of the front surface portion 1a. An image in a range corresponding to the field of view of the user's left eye is acquired by an imaging unit disposed in the vicinity of the end portion (left eye side when worn).

ウェアラブル装置1は、利用者が視認している前景に各種情報を視認させる機能を有する。前景とは、利用者の前方の風景である。ウェアラブル装置1は、表示部32a及び表示部32bが表示を行っていない場合、表示部32a及び表示部32bを透して前景を利用者に視認させる。ウェアラブル装置1は、表示部32a及び表示部32bが表示を行っている場合、表示部32a及び表示部32bを透した前景と、表示部32a及び表示部32bの表示内容とを利用者に視認させる。   The wearable device 1 has a function of visually recognizing various information on the foreground that the user is viewing. The foreground is a landscape in front of the user. When the display unit 32a and the display unit 32b are not displaying, the wearable device 1 allows the user to visually recognize the foreground through the display unit 32a and the display unit 32b. When the display unit 32a and the display unit 32b are displaying, the wearable device 1 allows the user to visually recognize the foreground through the display unit 32a and the display unit 32b and the display contents of the display unit 32a and the display unit 32b. .

図1では、ウェアラブル装置1が、眼鏡のような形状を有する例を示したが、ウェアラブル装置1の形状はこれに限定されない。例えば、ウェアラブル装置1は、ゴーグルの形状を有してもよい。ウェアラブル装置1は、例えば、情報処理装置、バッテリ装置等の外部装置と有線または無線で接続される構成であってもよい。   In FIG. 1, an example in which the wearable device 1 has a shape like glasses is shown, but the shape of the wearable device 1 is not limited to this. For example, the wearable device 1 may have a goggle shape. The wearable device 1 may be configured to be connected to an external device such as an information processing device or a battery device in a wired or wireless manner.

次に、図2を参照しながら、ウェアラブル装置1の機能的な構成について説明する。図2は、ウェアラブル装置1のブロック図である。図2に示すように、ウェアラブル装置1は、操作部13と、制御部22と、記憶部24と、表示部32a及び32bと、撮像部40と、視線検出部42と、検出部44と、測距部46とを有する。   Next, a functional configuration of the wearable device 1 will be described with reference to FIG. FIG. 2 is a block diagram of the wearable device 1. As shown in FIG. 2, the wearable device 1 includes an operation unit 13, a control unit 22, a storage unit 24, display units 32a and 32b, an imaging unit 40, a line-of-sight detection unit 42, a detection unit 44, And a distance measuring unit 46.

操作部13は、例えば、側面部(1b又は1c)に配設されるタッチセンサである。タッチセンサは、利用者の接触を検出可能であり、検出結果に応じて、ウェアラブル装置1の起動、停止、動作モードの変更等の基本的な操作を受け付ける。   The operation unit 13 is, for example, a touch sensor disposed on the side surface (1b or 1c). The touch sensor can detect a user's contact, and accepts basic operations such as starting and stopping the wearable device 1 and changing the operation mode according to the detection result.

表示部32a及び32bは、液晶ディスプレイ(Liquid Crystal Display)、有機EL(Organic Electro−Luminessence)パネル等の半透過または透過の表示デバイスを備える。表示部32a及び32bは、制御部22から入力される制御信号に従って各種の情報を画像として表示する。表示部32a及び32bは、レーザー光線等の光源を用いて利用者の網膜に画像を投影する投影装置であってもよい。この場合、眼鏡を模したウェアラブル装置1のレンズ部分にハーフミラーを設置して、別途設けられるプロジェクタから照射される画像が投影される構成であってもよい。また、前述したように、表示部32a及び32bは、各種の情報を3次元的に表示しても良い。また、各種の情報を利用者の前方(利用者から離れた位置)にあたかも存在するかのように表示しても良い。このように情報を表示する方式としては、例えば、フレームシーケンシャル方式、偏光方式、直線偏光方式、円偏光方式、トップアンドボトム方式、サイドバイサイド方式、アナグリフ方式、レンチキュラ方式、パララックスバリア方式、液晶パララックスバリア方式、2視差方式等の多視差方式の何れかが採用されて良い。   The display units 32 a and 32 b include a transflective display device such as a liquid crystal display (Liquid Crystal Display) and an organic EL (Organic Electro-Luminescence) panel. The display units 32 a and 32 b display various types of information as images in accordance with control signals input from the control unit 22. The display units 32a and 32b may be projection devices that project an image onto a user's retina using a light source such as a laser beam. In this case, a configuration may be adopted in which a half mirror is installed on the lens portion of wearable device 1 simulating glasses and an image irradiated from a separately provided projector is projected. Further, as described above, the display units 32a and 32b may display various information three-dimensionally. Further, various types of information may be displayed as if they exist in front of the user (a position away from the user). As a method for displaying information in this way, for example, a frame sequential method, a polarization method, a linear polarization method, a circular polarization method, a top and bottom method, a side-by-side method, an anaglyph method, a lenticular method, a parallax barrier method, a liquid crystal parallax method. Any of a multi-parallax method such as a barrier method and a two-parallax method may be employed.

撮像部40は、CCD(Charge Coupled Device Image Sensor)、CMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサを用いて電子的に画像を撮像する。そして、撮像部40は、撮像した画像を信号に変換して制御部22へ出力する。   The imaging unit 40 electronically captures an image using an image sensor such as a CCD (Charge Coupled Device Image Sensor) or a CMOS (Complementary Metal Oxide Semiconductor). Then, the imaging unit 40 converts the captured image into a signal and outputs the signal to the control unit 22.

視線検出部42は、例えば、赤外線を利用者の目に照射可能な赤外線照射部と、赤外感度を有する赤外線撮像部とからなる。制御部22は、後述する、制御プログラム24aを実行することにより、視線検出部42が取得した利用者の画像に基づいて、利用者の視線位置を検出する。視線検出部42は、例えば、図1に示すように、ウェアラブル装置1の前面部1aにおける利用者の顔側の面に設けられている。   The line-of-sight detection unit 42 includes, for example, an infrared irradiation unit that can irradiate infrared rays to the user's eyes and an infrared imaging unit having infrared sensitivity. The control unit 22 detects the user's line-of-sight position based on the user image acquired by the line-of-sight detection unit 42 by executing a control program 24a described later. For example, as shown in FIG. 1, the line-of-sight detection unit 42 is provided on the face side of the user in the front surface 1 a of the wearable device 1.

なお、視線検出部42は、上記のものに限られず、上記の撮像部40とは別に設けられる撮像部であって、利用者の目を撮像可能な撮像部としても良い。制御部22は、後述する、制御プログラム24aを実行することにより、視線検出部42が取得した利用者の画像における、目頭と虹彩との位置関係に基づいて視線方向を検出する。   Note that the line-of-sight detection unit 42 is not limited to the above, and may be an imaging unit provided separately from the imaging unit 40 described above, and may be an imaging unit capable of imaging the eyes of the user. The control unit 22 detects the line-of-sight direction based on the positional relationship between the eyes and the iris in the user image acquired by the line-of-sight detection unit 42 by executing a control program 24a described later.

なお、視線検出部42は、上記のものに限られず、利用者の目の周辺に接触可能な位置に設けられる電極を有し、利用者の目の動作(まばたきや視線移動)に伴って生じる筋電位を検出する筋電センサであっても良い。ここで、筋電位を測定するための測定電極として、利用者の鼻の左右側部のそれぞれに接触可能な第1電極と第2電極とが、例えば、ウェアラブル装置1のブリッジから延設されるノーズパッドに設けられる。また、基準電極として、ユーザの鼻の中央部に接触可能な第3電極がブリッジに設けられる。このような構成とすることにより、筋電センサは、例えば、ユーザが視線を所定の方向に移動させたときに、第3電極を基準とした第1電極及び第2電極の電位の変化を検出する。制御部22は、筋電センサの検出結果に基づいて、利用者の目の動作として、例えば、まばたきの有無、視線移動の有無(視線方向、視線位置の変化等も含む)等を検出する。   Note that the line-of-sight detection unit 42 is not limited to the above, and has electrodes provided at positions that can be contacted with the periphery of the user's eyes, and is generated when the user's eyes move (blink or move the line of sight). A myoelectric sensor for detecting myoelectric potential may be used. Here, as measurement electrodes for measuring myoelectric potential, a first electrode and a second electrode that can be in contact with the left and right sides of the user's nose are extended from, for example, a bridge of the wearable device 1. Provided on the nose pad. Moreover, the 3rd electrode which can contact the center part of a user's nose is provided in a bridge as a reference electrode. With this configuration, the myoelectric sensor detects, for example, changes in the potentials of the first electrode and the second electrode with respect to the third electrode when the user moves the line of sight in a predetermined direction. To do. Based on the detection result of the myoelectric sensor, the control unit 22 detects, for example, the presence / absence of blinking, the presence / absence of eye movement (including changes in the eye direction, the eye position), and the like.

なお、基準電極としての第3電極は、ブリッジとは異なる位置に設けられていても良い。例えば、第3電極は、側面部1b(或いは1c)における、前面部1aとは反対側の端部近傍に設けてられても良い。なお、電極の配置構成はこれらに限定されるものではなく、公知の種々の技術が適用されて良い。   The third electrode as the reference electrode may be provided at a position different from the bridge. For example, the third electrode may be provided in the vicinity of the end portion of the side surface portion 1b (or 1c) opposite to the front surface portion 1a. The arrangement configuration of the electrodes is not limited to these, and various known techniques may be applied.

検出部44は、撮像部40の撮像範囲及び撮像範囲の周囲(或は前景)に存在する現実の物体を検出する。検出部44は、例えば、現実の物体のうち、予め登録された形状(例えば、人間の手、指等の形状)にマッチする物体(所定物)を検出する。検出部44は、予め形状が登録されていない物体(所定物)についても、画素の明度、彩度、色相のエッジ等に基づいて、画像中の現実の物体の範囲(形状及び大きさ)を検出するように構成されてもよい。   The detection unit 44 detects an imaging range of the imaging unit 40 and an actual object existing around the imaging range (or the foreground). For example, the detection unit 44 detects an object (predetermined object) that matches a pre-registered shape (for example, a shape of a human hand, a finger, or the like) among real objects. The detection unit 44 also determines the range (shape and size) of an actual object in an image based on the brightness, saturation, hue edge, and the like of an object (predetermined object) whose shape is not registered in advance. It may be configured to detect.

検出部44は、現実の物体(所定物)を検出するセンサを有する。センサは、例えば、可視光、赤外線、紫外線、電波、音波、磁気、静電容量の少なくとも1つを用いて、現実の物体を検出するセンサである。   The detection unit 44 includes a sensor that detects an actual object (predetermined object). The sensor is, for example, a sensor that detects an actual object using at least one of visible light, infrared light, ultraviolet light, radio waves, sound waves, magnetism, and capacitance.

本実施形態においては、撮像部40は、検出部44を兼ねても良い。すなわち、撮像部40は、撮像される画像を解析することによって、撮像範囲内の物体(所定物)を検出する。   In the present embodiment, the imaging unit 40 may also serve as the detection unit 44. That is, the imaging unit 40 detects an object (predetermined object) within the imaging range by analyzing the captured image.

制御部22は、演算手段であるCPU(Central Processing Unit)と、記憶手段であるメモリとを備え、これらのハードウェア資源を用いてプログラムを実行することによって各種の機能を実現する。具体的には、制御部22は、記憶部24に記憶されているプログラムやデータを読み出してメモリに展開し、メモリに展開されたプログラムに含まれる命令をCPUに実行させる。そして、制御部22は、CPUによる命令の実行結果に応じて、メモリ及び記憶部24に対してデータの読み書きを行ったり、表示部32a、32b等の動作を制御したりする。CPUが命令を実行するに際しては、メモリに展開されているデータや検出部44等を介して検出される操作がパラメータや判定条件の一部として利用される。   The control unit 22 includes a CPU (Central Processing Unit) that is a calculation unit and a memory that is a storage unit, and implements various functions by executing programs using these hardware resources. Specifically, the control unit 22 reads a program or data stored in the storage unit 24 and expands it in a memory, and causes the CPU to execute instructions included in the program expanded in the memory. The control unit 22 reads / writes data from / to the memory and the storage unit 24 and controls operations of the display units 32a, 32b and the like according to the execution result of the instruction by the CPU. When the CPU executes an instruction, data developed in the memory, an operation detected via the detection unit 44, or the like is used as a part of parameters or determination conditions.

記憶部24は、フラッシュメモリ等の不揮発性を有する記憶装置からなり、各種のプログラムやデータを記憶する。記憶部24に記憶されるプログラムには、制御プログラム24aが含まれる。記憶部24に記憶されるデータには、撮像データ24bが含まれる。記憶部24は、メモリカード等の可搬の記憶媒体と、記憶媒体に対して読み書きを行う読み書き装置との組み合わせによって構成されてもよい。この場合、制御プログラム24a、撮像データ24bは、記憶媒体に記憶されていてもよい。また、制御プログラム24aは、無線通信または有線通信によってサーバ装置等の他の装置から取得されてもよい。   The storage unit 24 includes a nonvolatile storage device such as a flash memory, and stores various programs and data. The program stored in the storage unit 24 includes a control program 24a. The data stored in the storage unit 24 includes imaging data 24b. The storage unit 24 may be configured by a combination of a portable storage medium such as a memory card and a read / write device that reads from and writes to the storage medium. In this case, the control program 24a and the imaging data 24b may be stored in a storage medium. The control program 24a may be acquired from another device such as a server device by wireless communication or wired communication.

制御プログラム24aは、ウェアラブル装置1を稼働させるための各種制御に関する機能を提供する。制御プログラム24aが提供する機能には、撮像部40の撮像を制御する機能、視線検出部42の検出結果から利用者の視線を検出する機能、表示部32a、32bの表示を制御する機能等が含まれる。   The control program 24 a provides functions related to various controls for operating the wearable device 1. The functions provided by the control program 24a include a function for controlling the imaging of the imaging unit 40, a function for detecting the user's line of sight from the detection result of the line of sight detection unit 42, a function for controlling the display of the display units 32a and 32b, and the like. included.

制御プログラム24aは、検出処理部25と、表示制御部26とを含む。検出処理部25は、撮像部40の撮像範囲に存在する現実の物体(所定物)を検出するとともに、現実の物体(所定物)の所定動作を検出するための機能を提供する。また、検出処理部25は、検出部44の検出範囲内に存在する現実の物体(所定物)を検出するとともに、現実の物体(所定物)の所定動作を検出ための機能を提供する。表示制御部26は、表示部32a及び32bの表示状態と撮像範囲との対応関係を管理するための機能を提供する。   The control program 24 a includes a detection processing unit 25 and a display control unit 26. The detection processing unit 25 detects a real object (predetermined object) existing in the imaging range of the image capturing unit 40 and provides a function for detecting a predetermined operation of the real object (predetermined object). The detection processing unit 25 detects a real object (predetermined object) existing within the detection range of the detection unit 44 and provides a function for detecting a predetermined operation of the real object (predetermined object). The display control unit 26 provides a function for managing the correspondence between the display states of the display units 32a and 32b and the imaging range.

また、検出処理部25は、視線検出部42の検出結果から利用者の視線を検出する機能を提供する。例えば、検出処理部25は、利用者の画像に対して角膜反射法に基づくアルゴリズムを適用することにより、利用者の視線位置を検出する。具体的には、検出処理部25は、ユーザの画像を取得する際に、上記赤外線照射部から赤外線を照射させる。検出処理部25は、取得した利用者の画像から、瞳孔の位置と赤外線の角膜反射の位置をそれぞれ特定する。検出処理部25は、瞳孔の位置と赤外線の角膜反射の位置の位置関係に基づいて、利用者の視線の方向を特定する。例えば、検出処理部25は、瞳孔の位置が角膜反射の位置よりも目尻側にあれば、視線の方向は目尻側であると判定し、瞳孔の位置が角膜反射の位置よりも目頭側にあれば、視線の方向は目頭側であると判定する。検出処理部25は、例えば、虹彩の大きさに基づいて、利用者の眼球とディスプレイとの距離を算出する。検出処理部25は、利用者の視線の方向と、利用者の眼球とディスプレイとの距離とに基づいて、利用者の眼球内にある瞳孔の中心位置から、瞳孔を起点とする視線がディスプレイと交差するときのディスプレイ上の位置である視線位置を検出する。そして、検出処理部25は、上記視線位置の検出を再帰的に実行することにより、利用者の視線の移動を検出する。   The detection processing unit 25 provides a function of detecting the user's line of sight from the detection result of the line-of-sight detection unit 42. For example, the detection processing unit 25 detects the user's line-of-sight position by applying an algorithm based on the cornea reflection method to the user's image. Specifically, the detection processing unit 25 irradiates infrared rays from the infrared irradiation unit when acquiring a user image. The detection processing unit 25 specifies the position of the pupil and the position of infrared corneal reflection from the acquired user image. The detection processing unit 25 identifies the direction of the user's line of sight based on the positional relationship between the position of the pupil and the position of infrared corneal reflection. For example, if the position of the pupil is closer to the corner of the eye than the position of the corneal reflection, the detection processing unit 25 determines that the direction of the line of sight is toward the outer corner of the eye, and the position of the pupil is closer to the eye than the position of the corneal reflection. For example, it is determined that the direction of the line of sight is the eye side. For example, the detection processing unit 25 calculates the distance between the user's eyeball and the display based on the size of the iris. Based on the direction of the user's line of sight and the distance between the user's eyeball and the display, the detection processing unit 25 displays the line of sight starting from the pupil from the center position of the pupil in the user's eyeball. The line-of-sight position, which is the position on the display when intersecting, is detected. And the detection process part 25 detects the movement of a user's eyes | visual_axis by performing the detection of the said eyes | visual_axis position recursively.

なお、上記の例は、検出処理部25が、角膜反射法を利用した処理を実行することにより、利用者の視線位置を検出する場合であるが、この例には限られない。例えば、検出処理部25が、利用者の画像について画像認識処理を実行することにより、上記視線位置を検出するようにしてもよい。例えば、検出処理部25は、利用者の画像から、利用者の眼球を含む所定の領域を抽出し、目頭と虹彩との位置関係に基づいて視線方向を特定する。そして、検出処理部25は、特定した視線方向と、利用者の眼球からディスプレイまでの距離とに基づいて、上記視線位置を検出する。或いは、検出処理部25は、利用者がディスプレイ上の表示領域各所を閲覧しているときの複数の眼球の画像を参照画像としてそれぞれ蓄積しておく。そして、検出処理部25は、参照画像と、判定対象として取得される利用者の眼球の画像とを照合することにより、上記視線位置を検出する。   In addition, although said example is a case where the detection process part 25 detects a user's eyes | visual_axis position by performing the process using a cornea reflection method, it is not restricted to this example. For example, the detection processing unit 25 may detect the line-of-sight position by executing an image recognition process on the user's image. For example, the detection processing unit 25 extracts a predetermined region including the user's eyeball from the user's image, and specifies the line-of-sight direction based on the positional relationship between the eyes and the iris. And the detection process part 25 detects the said gaze position based on the specified gaze direction and the distance from a user's eyeball to a display. Or the detection process part 25 accumulate | stores the image of the some eyeball when a user is browsing each place of the display area on a display as a reference image, respectively. And the detection process part 25 detects the said gaze position by collating a reference image and the image of the user's eyeball acquired as a determination target.

撮像データ24bは、撮像部40によって撮像範囲を撮像した画像を示すデータである。撮像データ24bは、撮像部40が、前面部1aの一方の端部の近傍に配設される撮像部と、前面部1aの他方の端部の近傍に配設される撮像部との2つから構成される場合には、それぞれによって撮像された画像を合成したデータでもよいし、それぞれの画像を示すデータでもよい。撮像データ24bには、静止画データと動画データとが含まれる。   The imaging data 24b is data indicating an image obtained by imaging the imaging range by the imaging unit 40. The imaging data 24b includes two imaging units, an imaging unit in which the imaging unit 40 is disposed in the vicinity of one end of the front surface portion 1a and an imaging unit in the vicinity of the other end of the front surface portion 1a. In the case of being configured, the data may be data obtained by synthesizing images captured by the respective images, or data indicating the respective images. The imaging data 24b includes still image data and moving image data.

次に、図3、図4を参照し、撮像部40の撮像範囲と、検出部44の検出範囲と、表示部32a及び32bの表示領域との関係について説明する。図3は、撮像部40の撮像範囲と、検出部44の検出範囲と、表示部32a及び32bの表示領域との関係を示す第1例である。   Next, the relationship between the imaging range of the imaging unit 40, the detection range of the detection unit 44, and the display areas of the display units 32a and 32b will be described with reference to FIGS. FIG. 3 is a first example illustrating the relationship between the imaging range of the imaging unit 40, the detection range of the detection unit 44, and the display areas of the display units 32a and 32b.

なお、本実施形態では、検出部44が、赤外線を照射する赤外線照射部と、現実の所定物から反射される赤外線を受光可能な(赤外感度を有する)赤外線撮像部とからなるものとして説明していく。即ち、制御部22は、赤外線撮像部の撮像画像から、現実の物体(所定物)を検出する。また、本実施形態では、表示部32a及び32bがウェアラブル装置1から離れた位置にあたかも存在するかのように表示画像を表示させるものとして説明していく。   In the present embodiment, it is assumed that the detection unit 44 includes an infrared irradiation unit that emits infrared rays and an infrared imaging unit that can receive infrared rays reflected from an actual predetermined object (having infrared sensitivity). I will do it. That is, the control unit 22 detects an actual object (predetermined object) from the captured image of the infrared imaging unit. Further, in the present embodiment, description will be made on the assumption that the display images are displayed as if the display units 32a and 32b exist at positions away from the wearable device 1.

図3(a)は、撮像部40の撮像範囲と、検出部44の検出範囲と、表示部32a及び32bの表示領域とを模式的に示した斜視図である。図3(b)は、図3(a)の上面図であり、図3(c)、(d)は、図3(a)の側面図である。図3において、x軸、y軸、z軸からなる三次元直交座標系が定義される。y軸方向は、鉛直方向であり、z軸方向は、利用者の前後方向であり、x軸方向は、y軸方向とz軸方向との双方と直交する方向である。図示するように、図3(d)は、利用者が前方を視認した際の視界に対応する。   FIG. 3A is a perspective view schematically showing the imaging range of the imaging unit 40, the detection range of the detection unit 44, and the display areas of the display units 32a and 32b. 3 (b) is a top view of FIG. 3 (a), and FIGS. 3 (c) and 3 (d) are side views of FIG. 3 (a). In FIG. 3, a three-dimensional orthogonal coordinate system including an x-axis, a y-axis, and a z-axis is defined. The y-axis direction is a vertical direction, the z-axis direction is a front-rear direction of the user, and the x-axis direction is a direction orthogonal to both the y-axis direction and the z-axis direction. As illustrated, FIG. 3D corresponds to the field of view when the user visually recognizes the front.

図3には、撮像部40によって撮像可能な撮像範囲401と、検出部44によって検出可能な検出範囲441と、表示部32a及び32bによって表示可能な表示領域321と、が示されている。本実施形態(第1例)において、検出可能な検出範囲441は、撮像範囲401を包含している(検出範囲441内に撮像範囲401が存在する)。図3(a)〜(d)から解るように、検出範囲441は、3次元空間を有する。即ち、検出部44の赤外線照射部から照射された赤外線を、赤外線撮像部により検出することによって、3次元空間である検出範囲441内の所定物を検出できる。また、3次元空間である検出範囲441内の所定物の所定動作を検出し、これを契機に所定動作に応じた所定機能を実行可能としても良い。例えば、所定物が利用者の腕、手、又は指、或いはこれらを組み合わせたもの(上肢と総称する)である場合、所定動作としては、指の曲げ動作・伸展動作、手首の曲げ、前腕の回転(回内、回外)等(ジェスチャ)が挙げられる。また、上肢の所定領域の位置が、検出範囲441内において所定の移動をすることを、所定物(上肢)の所定動作として検出しても良い。また、所定物(上肢)が所定の形態となることを、所定物(上肢)の所定動作として検出しても良い。例えば、親指を情報に伸ばしつつ他の指を握った形態(グッドサイン)等が挙げられる。   FIG. 3 shows an imaging range 401 that can be captured by the imaging unit 40, a detection range 441 that can be detected by the detection unit 44, and a display area 321 that can be displayed by the display units 32a and 32b. In the present embodiment (first example), the detectable detection range 441 includes the imaging range 401 (the imaging range 401 exists within the detection range 441). As can be seen from FIGS. 3A to 3D, the detection range 441 has a three-dimensional space. That is, a predetermined object in the detection range 441, which is a three-dimensional space, can be detected by detecting the infrared rays irradiated from the infrared irradiation unit of the detection unit 44 by the infrared imaging unit. Further, a predetermined action of a predetermined object in the detection range 441 that is a three-dimensional space may be detected, and a predetermined function corresponding to the predetermined action may be executed using this as a trigger. For example, when the predetermined object is the user's arm, hand, or finger, or a combination of these (generally referred to as the upper limb), the predetermined operation includes finger bending / extension, wrist bending, forearm Rotation (pronation, pronation), etc. (gesture). Further, a predetermined movement of the predetermined region of the upper limb within the detection range 441 may be detected as a predetermined action of the predetermined object (upper limb). Further, it may be detected as a predetermined action of the predetermined object (upper limb) that the predetermined object (upper limb) is in a predetermined form. For example, a form (good sign) in which a thumb is stretched to information and another finger is gripped.

また、図3(a)〜(d)から解るように、表示部32a及び32bは、実際に設けられたウェアラブル装置1の部分ではなく、ウェアラブル装置1から離れた位置となる表示領域321に、表示画像を表示する。このとき、表示部32a及び32bは、表示画像を、奥行きを持つ立体形状の3Dオブジェクトとして表示しても良い。なお、当該奥行きは、z軸方向における厚みに対応する。   Further, as can be seen from FIGS. 3A to 3D, the display units 32a and 32b are not part of the actually provided wearable device 1, but in a display area 321 that is located away from the wearable device 1. Display the display image. At this time, the display units 32a and 32b may display the display image as a three-dimensional 3D object having a depth. Note that the depth corresponds to the thickness in the z-axis direction.

続いて図3を参照し、所定物の所定動作に基づいて所定機能を実行する例を説明する。図3の例では、所定機能として、撮像部40によって撮像画像を取得する撮像機能を実行する場合を示している。なお、「撮像画像を取得する」とは、撮像部40が撮像する撮像画像を撮像データ24bとして記憶部24に記憶(保存)することである。ここで、検出部の検出範囲441における、撮像部40の撮像範囲401と重畳する範囲(検出範囲441と撮像範囲401とが共有する空間)を第1範囲441aとし、検出部の検出範囲441における、撮像部40の撮像範囲401と重畳しない範囲を第2範囲441bとする。なお、第1範囲441aは、斜線で示されている部分である。   Next, an example in which a predetermined function is executed based on a predetermined operation of a predetermined object will be described with reference to FIG. In the example of FIG. 3, the case where the imaging function which acquires a captured image by the imaging part 40 is performed as a predetermined function is shown. Note that “acquiring a captured image” means storing (saving) a captured image captured by the imaging unit 40 in the storage unit 24 as captured data 24b. Here, in the detection range 441 of the detection unit, a range that overlaps with the imaging range 401 of the imaging unit 40 (a space shared by the detection range 441 and the imaging range 401) is defined as a first range 441a, and in the detection range 441 of the detection unit. A range that does not overlap with the imaging range 401 of the imaging unit 40 is defined as a second range 441b. The first range 441a is a portion indicated by hatching.

また、表示領域321における、第2範囲441bと重なる領域321a(例えば、図3における点線が囲われた領域)には、所定機能(撮像機能)に関連する表示画像51〜54が表示されている。アイコン51は、例えば、撮像機能の1つである、露出補正における補正値を変更する機能を示した表示画像である。アイコン52は、例えば、撮像機能の1つである、ISO感度を変更する機能を示した表示画像である。アイコン53は、例えば、撮像機能の1つである、撮像画像を取得する機能を示した表示画像である。アイコン54は、例えば、撮像機能の1つである、ズーム機能を示した表示画像である。   In the display area 321, display images 51 to 54 related to a predetermined function (imaging function) are displayed in an area 321 a (for example, an area surrounded by a dotted line in FIG. 3) that overlaps the second range 441 b. . The icon 51 is a display image showing a function of changing a correction value in exposure correction, which is one of imaging functions, for example. The icon 52 is a display image showing a function of changing the ISO sensitivity, which is one of imaging functions, for example. The icon 53 is a display image showing a function for acquiring a captured image, which is one of imaging functions, for example. The icon 54 is a display image showing a zoom function, which is one of imaging functions, for example.

ここで、ウェアラブル装置1が撮像中である、即ち、撮像部40が前景を撮像し、該撮像した画像を記憶部24に逐次伝送するとともに記憶部21にて一時的に保存している状態であるとき、ウェアラブル装置1は、検出部44の検出範囲441における、撮像部40の撮像範囲401と重畳する第1範囲441aにおいては、該第1範囲441a(斜線で示した範囲)内で所定物の所定動作を検出しても、該所定動作に応じた所定機能を実行しない。ここで所定機能は、例えば上記のような、撮像画像を取得する機能である。   Here, the wearable device 1 is imaging, that is, the imaging unit 40 captures the foreground, sequentially transmits the captured image to the storage unit 24, and temporarily stores the captured image in the storage unit 21. In some cases, the wearable device 1 has a predetermined object within the first range 441a (a range indicated by hatching) in the first range 441a that overlaps the imaging range 401 of the imaging unit 40 in the detection range 441 of the detection unit 44. Even if the predetermined operation is detected, the predetermined function corresponding to the predetermined operation is not executed. Here, the predetermined function is a function of acquiring a captured image as described above, for example.

これにより、第1範囲441a内に所定物(上肢)がある状態で、撮像画像の取得操作がなされることによって、上肢が画像中に映った撮像画像が取得される、といったことが生じず、使い勝手が良くなる。   Thereby, in a state where there is a predetermined object (upper limb) in the first range 441a, a captured image in which the upper limb is reflected in the image is not acquired by performing an operation of acquiring the captured image, Usability is improved.

また、ウェアラブル装置1は、表示部32a及び32bの表示領域321における撮像部40の撮像範囲と重畳しない領域321aに、所定機能に関連する表示画像51■54を表示し、領域321aと所定物(上肢)が重畳したことに基づいて、所定機能を実行する構成を有していても良い。   In addition, the wearable device 1 displays the display images 51 and 54 related to a predetermined function in a region 321a that does not overlap with the imaging range of the imaging unit 40 in the display regions 321 of the display units 32a and 32b. It may have a configuration for executing a predetermined function based on the superposition of the upper limbs).

このとき、第2範囲441b内における、アイコン53(撮像画像を取得する機能を示した表示画像)が表示された領域に利用者の指が在る状態で、該指を奥行方向(z軸方向)に移動させる動作(指を押し出す動作)がなされると、これを契機に、表示画像53に基づく機能として、撮像画像の取得を行っても良い。このように、撮像範囲(第1範囲441a)内に上肢が入り込んでいない状態で、画像の取得が行えるので、使い勝手が良くなる。   At this time, in a state where the user's finger is present in the area where the icon 53 (display image showing the function of acquiring the captured image) is displayed in the second range 441b, the finger is moved in the depth direction (z-axis direction). ) (Moving the finger), the captured image may be acquired as a function based on the display image 53. As described above, since the image can be acquired in a state where the upper limb does not enter the imaging range (first range 441a), usability is improved.

また、上記構成の他に、検出範囲441における、撮像範囲401と重畳する第1範囲441a(或いは撮像範囲401内)から、検出範囲441における、撮像範囲401と重畳しない第2範囲441b(或いは撮像範囲401外)へ上肢が移動したことに基づいて、表示画像53に基づく機能として、撮像画像の取得がなされる構成としても良い。このとき、上肢の移動を撮像部40の撮像画像から検出しても良いし、検出部44の検出結果から検出しても良い。このような構成においても、撮像範囲(第1範囲441a)内に上肢が入り込んでいない状態で、画像の取得が行えるので、使い勝手が良くなる。   In addition to the above configuration, from the first range 441a (or within the imaging range 401) that overlaps the imaging range 401 in the detection range 441, to the second range 441b (or imaging that does not overlap the imaging range 401 in the detection range 441). The captured image may be acquired as a function based on the display image 53 based on the movement of the upper limb to the outside of the range 401). At this time, the movement of the upper limb may be detected from the captured image of the imaging unit 40 or may be detected from the detection result of the detection unit 44. Even in such a configuration, since the image can be acquired in a state where the upper limb does not enter the imaging range (first range 441a), usability is improved.

上記に説明したように、ウェアラブル装置1は、撮像部40と、現実の空間に在る所定物を検出する検出部44と、を備え、撮像部40が撮像中のときは、検出部44の検出範囲441における、撮像部40の撮像範囲401と重畳しない範囲441bにおいて、前記所定動作を検出したことに基づいて、撮像部40の機能に係る処理を実行するものとして特徴づけられて良い。   As described above, the wearable device 1 includes the imaging unit 40 and the detection unit 44 that detects a predetermined object in the real space. When the imaging unit 40 is imaging, the wearable device 1 In the detection range 441, in a range 441b that does not overlap with the imaging range 401 of the imaging unit 40, the processing related to the function of the imaging unit 40 may be performed based on the detection of the predetermined operation.

また、ウェアラブル装置1は、撮像部40が撮像中のときは、表示部32の表示領域321における撮像部40の撮像範囲401と重畳しない所定領域321aにおいて、書影物の所定動作を検出したことに基づいて、撮像部40の機能に係る処理を実行する構成としても良い。   Further, the wearable device 1 has detected the predetermined motion of the writing object in the predetermined area 321 a that does not overlap the imaging range 401 of the imaging unit 40 in the display area 321 of the display unit 32 when the imaging unit 40 is imaging. On the basis of the above, it is also possible to adopt a configuration for executing processing relating to the function of the imaging unit 40.

また、上記の実施形態においては、図3(d)に示すように、第2範囲441b(検出範囲441における、撮像範囲401と重畳しない範囲)における、撮像範囲401の右端近傍の範囲にアイコン51〜54を表示する構成を示したが、これに限定されず、撮像範囲401の左端近傍または上端近傍または下端近傍の範囲にアイコン51〜54を表示しても良い。この場合、撮像範囲401の左端近傍または上端近傍または下端近傍の範囲に所定物が在る状態において、所定物の所定動作を検出することに基づいて、所定機能の実行できるようにして良い。   Further, in the above embodiment, as shown in FIG. 3D, the icon 51 is displayed in the range near the right end of the imaging range 401 in the second range 441b (the range that does not overlap the imaging range 401 in the detection range 441). However, the present invention is not limited to this, and the icons 51 to 54 may be displayed in the vicinity of the left end, the upper end, or the lower end of the imaging range 401. In this case, the predetermined function may be executed based on detecting a predetermined operation of the predetermined object in a state where the predetermined object exists in the vicinity of the left end, the upper end, or the lower end of the imaging range 401.

なお、このような構成ではなく、第2範囲441bにおける、撮像範囲401の上端近傍の範囲(撮像範囲401の上部の範囲)においては、該範囲内における所定物の所定動作に基づく所定機能の実行を禁止し、第2範囲441bにおける、撮像範囲401の上端近傍の範囲(撮像範囲401の上部の範囲)を除いた範囲においては、該範囲内における所定物の所定動作に基づく所定機能の実行を許可するようにしても良い。例えば、第2範囲441bにおける、撮像範囲401の上端近傍の範囲内に、所定物(例えば、利用者の指の先端部)が在る状態で、撮像画像の取得がなされた場合には、利用者の手や前腕の一部分が画像中に映った状態で撮像画像が取得されてしまうこともあり得る。これに対し、上記構成では、撮像範囲401の上端近傍の範囲において、所定機能の実行を禁止するため、このような問題が生じ難くなる。   In addition, in the range near the upper end of the imaging range 401 (the upper range of the imaging range 401) in the second range 441b instead of such a configuration, execution of a predetermined function based on a predetermined operation of a predetermined object in the range In the second range 441b, excluding the range in the vicinity of the upper end of the imaging range 401 (the upper range of the imaging range 401), executing a predetermined function based on a predetermined operation of a predetermined object in the range. It may be allowed. For example, when a captured image is acquired in a state where a predetermined object (for example, the tip of the user's finger) is in the range near the upper end of the imaging range 401 in the second range 441b, use is performed. The captured image may be acquired in a state where a part of the person's hand or forearm is reflected in the image. On the other hand, in the above configuration, since the execution of the predetermined function is prohibited in the range near the upper end of the imaging range 401, such a problem hardly occurs.

上記の実施形態におけるウェアラブル装置1は、他の見方によれば、撮像機能を起動することによって撮像中となったときに、検出部44の検出範囲441を、該検出範囲441から第1範囲441aを除いた第2範囲441bに変更する構成を有しているものとして規定され得る。即ち、ウェアラブル装置1は、検出部44によって検出される、所定物の所定動作に応じて所定機能を実行するウェアラブル装置であって、所定機能を起動すると、該所定機能の実行内容に応じて、検出部44の検出適用範囲を変更するものである。   According to another aspect, the wearable device 1 according to the above embodiment changes the detection range 441 of the detection unit 44 from the detection range 441 to the first range 441a when the imaging function is activated and the imaging is in progress. It can be defined as having a configuration that changes to the second range 441b excluding. That is, the wearable device 1 is a wearable device that executes a predetermined function according to a predetermined operation of a predetermined object detected by the detection unit 44, and when the predetermined function is activated, according to the execution contents of the predetermined function, The detection application range of the detection unit 44 is changed.

このような構成を有することにより、ウェアラブル装置1は、利用者の操作の内容(ウェアラブル装置1に実行させる機能の内容)に応じて、適切な検出範囲とすることができるので、誤検出による誤操作等を招き難くすることができる。   By having such a configuration, the wearable device 1 can set an appropriate detection range according to the content of the user's operation (the content of the function executed by the wearable device 1). Etc. can be made difficult to invite.

例えば、所定機能の実行内容が撮像機能である場合には、上記のように、検出部40の検出適用範囲を第2範囲441bとして良い。他方で、所定機能の実行内容が撮像機能とは異なる機能、例えば、所定物の所定動作によって、現実の空間の所定位置を指定する操作を含む機能である場合には、検出部40の検出適用範囲を第1範囲441aと第2範囲441bとを合わせた範囲(範囲441に相当)として良い。現実の空間の所定位置を指定する操作を含む機能とは、例えば、前景に実在する建物を利用者によって指定することにより、指定した建物に関する情報等を表示させる機能である。例えば、利用者の前後方向(例えば、z軸方向)において、利用者の指先と重なる前景の建物が、選択されたものとみなす構成であって良い。   For example, when the execution content of the predetermined function is the imaging function, the detection application range of the detection unit 40 may be the second range 441b as described above. On the other hand, when the execution content of the predetermined function is a function different from the imaging function, for example, a function including an operation of designating a predetermined position in the real space by a predetermined operation of the predetermined object, the detection application of the detection unit 40 The range may be a combined range of the first range 441a and the second range 441b (corresponding to the range 441). The function including an operation of designating a predetermined position in the real space is a function of displaying information on the designated building by designating the building that exists in the foreground by the user. For example, the foreground building that overlaps the user's fingertip in the front-rear direction (for example, the z-axis direction) of the user may be regarded as being selected.

ここで、例えば、「検出部40の検出適用範囲を第2範囲441bとする」ことは、検出部44における赤外線照射部による照射範囲(又は赤外線撮像部の撮像範囲)を変更することによってなされても良い。或いは、「検出部40の検出適用範囲を第2範囲441bとする」ことは、赤外線照射部による照射範囲(又は赤外線撮像部の撮像範囲)は変更せず、検出範囲411にて所定物の所定動作を検出するが、該所定動作に基づいて機能を実行するための適用範囲を第2範囲441bに変更することによってなされても良い。この変更の処理は、例えば、制御部22によってなされて良い。   Here, for example, “the detection application range of the detection unit 40 is set to the second range 441b” is made by changing the irradiation range (or the imaging range of the infrared imaging unit) by the infrared irradiation unit in the detection unit 44. Also good. Alternatively, “setting the detection application range of the detection unit 40 to the second range 441b” does not change the irradiation range by the infrared irradiation unit (or the imaging range of the infrared imaging unit), and the predetermined range of the predetermined object in the detection range 411 The operation is detected, but may be made by changing the application range for executing the function based on the predetermined operation to the second range 441b. This change process may be performed by the control unit 22, for example.

また、所定機能の実行内容が、現実の空間の所定位置を指定する操作を含む場合には、上記とは異なる他の例として、検出部44の検出範囲441の内、第1範囲441a(又は撮像範囲401)を検出適用範囲として良い。即ち、第2範囲441bにおいては上肢(指先)の所定動作を検出しても、所定機能を実行しないようにする。ここで、図3(d)に示すように、第1範囲441a(又は撮像範囲401)は、表示領域321に囲われていることから、利用者によって視認可能な表示視認範囲と称する。   In addition, when the execution content of the predetermined function includes an operation of designating a predetermined position in the actual space, as another example different from the above, the first range 441a (or the detection range 441 of the detection unit 44). The imaging range 401) may be the detection application range. That is, in the second range 441b, even if a predetermined motion of the upper limb (fingertip) is detected, the predetermined function is not executed. Here, as shown in FIG. 3 (d), the first range 441a (or the imaging range 401) is surrounded by the display area 321, and hence is referred to as a display viewing range that can be viewed by the user.

このように、ウェアラブル装置1は、機能の実行内容が、所定物の所定動作によって現実の空間の位置指定を行う操作を含むか否かを判定し、該判定結果によって、前記検出適用範囲を変更する構成を有する。そして、現実の空間の所定位置を指定する操作を機能の実行内容に含む場合には、利用者によって表示領域321を視認し得る表示視認範囲を、検出部44の検出適用範囲とする。   As described above, the wearable device 1 determines whether or not the execution content of the function includes an operation of specifying the position of the actual space by a predetermined operation of the predetermined object, and changes the detection application range based on the determination result. It has the composition to do. When an operation for specifying a predetermined position in the actual space is included in the execution contents of the function, the display viewing range in which the user can visually recognize the display area 321 is set as the detection application range of the detection unit 44.

上記構成によれば、現実の空間の所定位置を指定する操作の適用範囲を、利用者が視認しながら行える程度の適当な範囲とすることができ、意図しない操作がなされてしまう、といったことを減らす事ができる。   According to the above configuration, the application range of the operation for designating a predetermined position in the real space can be set to an appropriate range that can be performed while the user visually recognizes, and an unintended operation is performed. Can be reduced.

図4は、撮像部40の撮像範囲と、検出部44の検出範囲と、表示部32a及び32bの表示領域との関係を示す第2例である。   FIG. 4 is a second example illustrating the relationship between the imaging range of the imaging unit 40, the detection range of the detection unit 44, and the display areas of the display units 32a and 32b.

図4(a)は、撮像部40の撮像範囲と、検出部44の検出範囲と、表示部32a及び32bの表示領域とを模式的に示した斜視図である。図4(b)、(c)は、図4(a)の側面図である。図4において、x軸、y軸、z軸からなる三次元直交座標系が定義される。y軸方向は、鉛直方向であり、z軸方向は、利用者の前後方向であり、x軸方向は、y軸方向とz軸方向との双方と直交する方向である。図示するように、図4(c)は、利用者が前方を視認した際の視界に対応する。   FIG. 4A is a perspective view schematically showing the imaging range of the imaging unit 40, the detection range of the detection unit 44, and the display areas of the display units 32a and 32b. 4 (b) and 4 (c) are side views of FIG. 4 (a). In FIG. 4, a three-dimensional orthogonal coordinate system including an x-axis, a y-axis, and a z-axis is defined. The y-axis direction is a vertical direction, the z-axis direction is a front-rear direction of the user, and the x-axis direction is a direction orthogonal to both the y-axis direction and the z-axis direction. As illustrated, FIG. 4C corresponds to the field of view when the user visually recognizes the front.

図4に示す例においても、第1例(図3)と同様、撮像部40によって撮像可能な撮像範囲401と、検出部によって検出可能な検出範囲441と、表示部32a及び32bによって表示可能な表示領域321と、が示されている。第2例においては、検出可能な検出範囲441は、撮像範囲401の下方に位置する。   Also in the example shown in FIG. 4, as in the first example (FIG. 3), the imaging range 401 that can be imaged by the imaging unit 40, the detection range 441 that can be detected by the detection unit, and the display units 32a and 32b can be displayed. A display area 321 is shown. In the second example, the detectable detection range 441 is located below the imaging range 401.

図4に示す例においても、第1例(図3)と同様、ウェアラブル装置1は、3次元空間である検出範囲441内で所定物の所定動作を検出し、該所定動作に応じた所定機能を実行可能である。所定動作は、第1例(図3)と同様である。   Also in the example shown in FIG. 4, as in the first example (FIG. 3), the wearable device 1 detects a predetermined action of a predetermined object within a detection range 441 that is a three-dimensional space, and a predetermined function corresponding to the predetermined action. Can be executed. The predetermined operation is the same as in the first example (FIG. 3).

図4の例では、所定機能として、撮像部40によって撮像画像を取得する機能を実行する場合を示している。   In the example of FIG. 4, the case where the function which acquires a captured image by the imaging part 40 is performed as a predetermined function is shown.

ここで、ウェアラブル装置1が撮像中である、即ち、撮像部40が前景を撮像し、該撮像した画像を記憶部24に逐次伝送するとともに記憶部21にて一時的に保存している状態である場合、ウェアラブル装置1は、逐次伝送される撮像画像中に所定物が含まれていることを検出可能である。また、逐次伝送される撮像画像から所定物の所定動作がなされたか否かを検出することも可能であり、さらに、所定動作を検出したことに基づいて、所定機能を実行することも可能である。従って、撮像部40は、現実の空間に在る所定物を検出する検出部44と同様に扱われて良い(撮像部40と検出部44とを、一の検出部として見なしても良い)。即ち、ウェアラブル装置1は、撮像部40の撮像範囲401と検出部44の検出範囲441とを合わせた空間に所定物が在る状態において、該所定物の所定動作を検出可能である。撮像部40は、検出部44と区別される第2検出部として機能する。   Here, the wearable device 1 is imaging, that is, the imaging unit 40 captures the foreground, sequentially transmits the captured image to the storage unit 24, and temporarily stores the captured image in the storage unit 21. In some cases, the wearable device 1 can detect that a predetermined object is included in captured images that are sequentially transmitted. It is also possible to detect whether a predetermined operation of a predetermined object has been performed from captured images that are sequentially transmitted, and it is also possible to execute a predetermined function based on the detection of the predetermined operation. . Therefore, the imaging unit 40 may be handled in the same manner as the detection unit 44 that detects a predetermined object in the real space (the imaging unit 40 and the detection unit 44 may be regarded as one detection unit). That is, the wearable device 1 can detect a predetermined operation of the predetermined object in a state where the predetermined object exists in a space where the imaging range 401 of the imaging unit 40 and the detection range 441 of the detection unit 44 are combined. The imaging unit 40 functions as a second detection unit that is distinguished from the detection unit 44.

本実施形態におけるウェアラブル装置1は、該ウェアラブル装置1が撮像機能を起動したことにより撮像中となったときには、撮像部40(第2検出部)と検出部44とを、一の検出部として見なした場合における該検出部の検出範囲を変更しても良い。例えば、ウェアラブル装置1が撮像中でない場合においては、上肢を検出するための検出範囲を撮像範囲401と検出範囲441とを合わせた範囲とし、一方で、撮像中である場合には、上肢を検出するための検出範囲を検出範囲441のみとしても良い。即ち、ウェアラブル装置1が撮像中である場合には、撮像範囲401内で上肢の所定動作を検出しても、該所定動作に応じた所定機能を実行させないようにする。   The wearable device 1 according to the present embodiment views the imaging unit 40 (second detection unit) and the detection unit 44 as a single detection unit when the wearable device 1 starts imaging due to activation of the imaging function. In this case, the detection range of the detection unit may be changed. For example, when the wearable device 1 is not imaging, the detection range for detecting the upper limb is the combined range of the imaging range 401 and the detection range 441. On the other hand, when the imaging is being performed, the upper limb is detected. The detection range for this may be the detection range 441 only. That is, when the wearable device 1 is imaging, even if a predetermined motion of the upper limb is detected within the imaging range 401, a predetermined function corresponding to the predetermined motion is not executed.

このような構成を有することにより、ウェアラブル装置1は、撮像範囲内に所定物(上肢)がある状態で、撮像画像の取得を行うための操作等がなされることによって、上肢が画像中に映った撮像画像が取得される、といったことが生じず、使い勝手が良くなる。   By having such a configuration, the wearable device 1 allows the upper limb to appear in the image by performing an operation or the like for acquiring a captured image in a state where the predetermined object (upper limb) is within the imaging range. The captured image is not acquired, and the usability is improved.

ここで、上記の撮像機能は、検出部44の検出範囲441において、仮想平面442を規定するとともに、仮想平面442の座標と表示範囲321における所定範囲の座標とを対応付けることによって、仮想平面442に対する上肢H(例えば指先)の位置に基づいて、表示範囲321における位置の指定を行えるようにしても良い。具体的に、ウェアラブル装置1は、検出範囲441における指先の位置を検出するとともに、該位置を、仮想平面442に対して、該仮想平面442と垂直な方向から投影した場合に、該仮想平面442に投影される投影位置を検出する。そして、仮想平面442における投影位置に基づいて、該投影位置に対応付けられた表示範囲321の位置を指定する。図4(c)に示すように、仮想平面442における投影位置に基づいて、該投影位置に対応付けられた表示範囲321における、アイコン53に重畳する位置が利用者によって指定されている。そして、アイコン53に重畳する位置が指定されていることに基づいて、アイコン53に対応する機能(撮像画像を取得する機能)が実行される。   Here, the imaging function described above defines the virtual plane 442 in the detection range 441 of the detection unit 44 and associates the coordinates of the virtual plane 442 with the coordinates of the predetermined range in the display range 321, thereby The position in the display range 321 may be specified based on the position of the upper limb H (for example, a fingertip). Specifically, the wearable device 1 detects the position of the fingertip in the detection range 441, and when the position is projected onto the virtual plane 442 from a direction perpendicular to the virtual plane 442, the virtual plane 442 The projection position projected on the screen is detected. Then, based on the projection position on the virtual plane 442, the position of the display range 321 associated with the projection position is designated. As illustrated in FIG. 4C, based on the projection position on the virtual plane 442, the position to be superimposed on the icon 53 in the display range 321 associated with the projection position is designated by the user. Then, based on the designation of the position to be superimposed on the icon 53, a function corresponding to the icon 53 (a function of acquiring a captured image) is executed.

ここで、仮想平面442の向きは、種々の条件によって規定されて良い。例えば、図4(b)に示すように、検出範囲441における中心方向Cと仮想平面442とが所定角度Aで交わるような向きとなるように設定されている。ここで、所定角度Aは、例えば、45〜90度程度として良い。ここで、中心方向Cは、略角錐状の3次元空間を有する検出範囲411(図4(a)参照)における底面に相当する部分の略中心を通る線(図4(b)参照)であって良い。   Here, the orientation of the virtual plane 442 may be defined by various conditions. For example, as shown in FIG. 4B, the center direction C in the detection range 441 and the virtual plane 442 are set so as to intersect at a predetermined angle A. Here, the predetermined angle A may be about 45 to 90 degrees, for example. Here, the center direction C is a line (see FIG. 4B) passing through the approximate center of the portion corresponding to the bottom surface in the detection range 411 (see FIG. 4A) having a substantially pyramid-shaped three-dimensional space. Good.

また、仮想平面442の向きは、自装置(ウェアラブル装置1)と所定物(指先等の上肢における所定箇所)とを通る仮想線と所定角度Aで交わるような向きとなるように設定しても良い。   Further, the orientation of the virtual plane 442 may be set so that it intersects with a virtual line passing through the own device (wearable device 1) and a predetermined object (predetermined portion in the upper limb such as a fingertip) at a predetermined angle A. good.

また、仮想平面442の向きは、利用者の顔の所定位置(例えば、目)と所定物(指先等の上肢における所定箇所)とを通る仮想線と所定角度Aで交わるような向きとなるように設定しても良い。このとき、ウェアラブル装置1は、利用者の顔の所定位置(例えば、目)を、ウェアラブル装置1における利用者の顔に面する部分に設けられる撮像部(或いは視線検出部44)によって検出して良い。   The orientation of the virtual plane 442 is such that it intersects with a virtual line passing through a predetermined position (for example, eyes) of the user's face and a predetermined object (a predetermined location on the upper limb such as a fingertip) at a predetermined angle A. It may be set to. At this time, the wearable device 1 detects a predetermined position (for example, eyes) of the user's face by an imaging unit (or a line-of-sight detection unit 44) provided in a portion of the wearable device 1 facing the user's face. good.

また、検出範囲441において、利用者の指先が伸展している場合には、該伸展方向と仮想平面442とが所定角度Aで交わるような向きとなるように、仮想平面442が規定されて良い。   Further, in the detection range 441, when the user's fingertip is extended, the virtual plane 442 may be defined so that the extension direction and the virtual plane 442 intersect with each other at a predetermined angle A. .

また、視線検出部42の検出結果によって推定される利用者の視線方向と所定角度Aで交わるように仮想平面442の向きが規定されても良い。   Further, the orientation of the virtual plane 442 may be defined so as to intersect the user's line-of-sight direction estimated from the detection result of the line-of-sight detection unit 42 at a predetermined angle A.

以上の構成によれば、利用者が文字入力操作を行うに際して、利用者が想像している面の向きとウェアラブル装置1が規定する仮想面442の向きとが近くなるため、利用者の思い通りの操作が実行されやすくなる。特に、所定角度Aが90度に近づくほど、利用者が想像している面の向きとウェアラブル装置1が規定する仮想面442の向きとがより近くなり、使い勝手が向上する。   According to the above configuration, when the user performs a character input operation, the orientation of the surface imagined by the user and the orientation of the virtual surface 442 defined by the wearable device 1 are close to each other. The operation becomes easier to execute. In particular, as the predetermined angle A approaches 90 degrees, the orientation of the surface imagined by the user and the orientation of the virtual surface 442 defined by the wearable device 1 become closer, improving usability.

なお、利用者が表示領域321を視認し得ない検出範囲441内において、上肢の動作に基づいて機能を実行する場合には、図4(c)に示すように、検出範囲44内において検出される上肢Hの形状や位置に基づいて、検出した形状と同様な形状の仮想オブジェクトH’を表示領域321内における所定位置に、表示して良い。これにより、検出範囲が表示領域321と重畳しない場合であっても、表示領域321内に仮想オブジェクトH’を表示し、該仮想オブジェクトを視認しながら操作できるので、使い勝手が良い。   In addition, when a function is executed based on the motion of the upper limb within the detection range 441 where the user cannot visually recognize the display area 321, it is detected within the detection range 44 as shown in FIG. Based on the shape and position of the upper limb H, the virtual object H ′ having the same shape as the detected shape may be displayed at a predetermined position in the display area 321. Accordingly, even when the detection range does not overlap with the display area 321, the virtual object H ′ is displayed in the display area 321 and can be operated while visually recognizing the virtual object.

また、撮像機能を起動する例を示したが、他の例として、上肢(所定物)の移動の軌跡情報に基づいた操作(例えば、利用者が空中で文字を描くように指を移動させた軌跡情報に基づいて文字を入力する文字入力操作)を実行内容に含む機能を起動する構成であっても良い。機能の実行内容が上肢の移動の軌跡情報に基づいた操作を含む場合には、表示視認範囲(撮像範囲401)と重ならない範囲である検出範囲441のみを、検出適用範囲としても良い。ここで、検出適用範囲とする検出範囲441は、表示視認範囲(撮像範囲401)よりも下方に位置する。また、検出範囲441における、利用者の目の高さの位置から所定長さ以上、下方に位置する範囲を、検出適用範囲として規定しても良い。   Moreover, although the example which starts an imaging function was shown, as another example, operation (for example, the user moved the finger so that a character might draw in the air based on the locus information of the movement of the upper limb (predetermined object)) A configuration in which a function including a character input operation (character input operation for inputting a character based on the trajectory information) in the execution content may be started. In the case where the execution content of the function includes an operation based on the trajectory information of the movement of the upper limb, only the detection range 441 that is a range that does not overlap the display viewing range (imaging range 401) may be set as the detection application range. Here, the detection range 441 as the detection application range is located below the display viewing range (imaging range 401). In addition, a range in the detection range 441 that is positioned below a predetermined length from the position of the eye height of the user may be defined as the detection application range.

このように、ウェアラブル装置1は、所定機能の実行内容が、所定物の移動の軌跡情報に基づいた操作を含むか否かを判定し、該判定結果によって、検出適用範囲を変更する構成を有する。そして、所定物の移動の軌跡情報に基づいた操作を含む場合には、表示視認範囲と重ならない範囲を、検出適用範囲とする。   As described above, the wearable device 1 has a configuration in which it is determined whether the execution content of the predetermined function includes an operation based on the trajectory information of the movement of the predetermined object, and the detection application range is changed based on the determination result. . And when the operation based on the trajectory information of the movement of the predetermined object is included, a range that does not overlap the display visual recognition range is set as the detection application range.

このような構成により、文字入力操作等の、現実の空間の所定位置を指定するために上肢を顔の位置(表示視認範囲)にまで上げる必要のない操作においては、検出範囲をより下方に位置に変更できるので、上肢を不必要に上方へ上げる必要がなく、楽に操作を行うことができる。   With such a configuration, in an operation that does not require raising the upper limb to the face position (display viewing range) in order to designate a predetermined position in the real space, such as a character input operation, the detection range is positioned further downward. Therefore, it is not necessary to raise the upper limbs unnecessarily, and the operation can be performed easily.

ここで、上記の文字入力機能は、検出部44の検出範囲441において、所定物(上肢)の2次元的な移動を検出するための仮想平面を規定し、該仮想平面に対する上肢の移動の軌跡に基づいて利用者が所望とする文字を検出することによって実現されて良い。ウェアラブル装置1は、仮想平面を規定すると、検出範囲における仮想平面の座標を記憶し、検出範囲441内における上肢の所定領域(例えば指先)の位置を仮想平面に対して垂直な方向から投影し、該仮想平面に投影される投影位置の座標を検出する。そして、指先の仮想平面に対する投影位置の座標変化に基づいて、指先の移動の軌跡を検出する。例えば、利用者が文字入力を行うべく、指先を移動させることで文字を描く動作を行ったとすると、指先の移動の軌跡を仮想平面に投影させた場合における、該仮想平面上での軌跡に基づいて文字の検出を行う。   Here, the character input function defines a virtual plane for detecting a two-dimensional movement of a predetermined object (upper limb) in the detection range 441 of the detection unit 44, and a trajectory of the movement of the upper limb with respect to the virtual plane. This may be realized by detecting a character desired by the user based on the above. When the wearable device 1 defines the virtual plane, the wearable device 1 stores the coordinates of the virtual plane in the detection range, projects the position of a predetermined region (for example, a fingertip) of the upper limb in the detection range 441 from a direction perpendicular to the virtual plane, The coordinates of the projection position projected on the virtual plane are detected. Then, based on the coordinate change of the projection position with respect to the virtual plane of the fingertip, the locus of movement of the fingertip is detected. For example, if the user performs an operation of drawing a character by moving the fingertip to input a character, based on the trajectory on the virtual plane when the trajectory of the fingertip is projected on the virtual plane To detect characters.

また、撮像機能や文字入力機能を起動する例を示したが、他の例として、所定物の所定動作によって現実の空間の所定位置を指定する操作を実行内容に含む機能を実行しても良い。ウェアラブル装置1は、機能の実行内容が、所定物の所定動作によって現実の空間の所定位置を指定する操作を含む機能である場合には、検出部44の検出適用範囲を撮像範囲401のみとしても良い(即ち、検出範囲441内における所定動作によっては、機能の実行に係る動作を実行しない)。図4の例において、撮像範囲401は、表示領域321に囲われている(図4(c)を参照)ことから、利用者によって視認可能な表示視認範囲と称する。このような構成によれば、現実の空間の所定位置を指定する操作の適用範囲を、利用者が視認しながら行える程度の適当な範囲とすることができ、意図しない操作がなされてしまう、といったことを減らす事ができる。なお、所定物の所定動作によって現実の空間の所定位置を指定する機能である場合には、上記のような仮想平面は、表示領域321における奥行き方向(z軸方向)と直交する向きとして良い。   Moreover, although the example which starts an imaging function or a character input function was shown, as another example, you may perform the function which includes the operation which designates the predetermined position of the real space by the predetermined operation | movement of a predetermined object in execution content. . The wearable device 1 is configured such that when the function execution content is a function including an operation of designating a predetermined position in the actual space by a predetermined operation of a predetermined object, the detection application range of the detection unit 44 may be the imaging range 401 alone. Good (that is, the operation related to the execution of the function is not executed depending on the predetermined operation in the detection range 441). In the example of FIG. 4, the imaging range 401 is surrounded by the display region 321 (see FIG. 4C), and is therefore referred to as a display viewing range that can be viewed by the user. According to such a configuration, the application range of the operation for designating a predetermined position in the real space can be set to an appropriate range that can be performed while the user visually recognizes, and an unintended operation is performed. You can reduce that. Note that in the case of a function for designating a predetermined position in the actual space by a predetermined operation of a predetermined object, the virtual plane as described above may be oriented in a direction orthogonal to the depth direction (z-axis direction) in the display region 321.

以上に、所定機能を起動したときの該所定機能の実行内容に応じて、検出部44(或いは撮像部40(第2検出部)と検出部44とを一つの検出部と見なした場合の該検出部)の検出適用範囲を変更する種々の例を示した。ここで、ウェアラブル装置1は、検出部の検出結果から所定物の動作が検出されたことを契機に、該動作(ジェスチャ)の種類に応じた機能を起動する構成を有していても良い。例えば、両手の指で四角を形成する、即ち、撮像用フレームを模した四角を形成するジェスチャがなされた場合には、実行内容を撮像機能とし、一方で、人差し指が伸展している状態で所定の文字を描こうとするジェスチャがなされた場合には、実行内容を文字入力機能として検出しても良い。また、所定機能の起動の指示を受け付ける手段としては、例えば、表示領域321内に撮像機能に対応付けられた表示画像と、文字入力機能に対応付けられた表示画像と、を表示し、利用者の上肢が重畳した一方の表示画像に対応する機能を実行するようにしても良い。   As described above, the detection unit 44 (or the imaging unit 40 (second detection unit) and the detection unit 44 are regarded as one detection unit according to the execution contents of the predetermined function when the predetermined function is activated. Various examples of changing the detection application range of the detection unit) are shown. Here, the wearable device 1 may have a configuration that activates a function corresponding to the type of the operation (gesture) when the operation of the predetermined object is detected from the detection result of the detection unit. For example, when a gesture is made that forms a square with fingers of both hands, that is, a square imitating an imaging frame, the execution content is set as an imaging function, while the index finger is extended and When a gesture for drawing the character is made, the execution content may be detected as a character input function. As a means for receiving an instruction for starting a predetermined function, for example, a display image associated with the imaging function and a display image associated with the character input function are displayed in the display area 321, and the user A function corresponding to one display image on which the upper limb is superimposed may be executed.

機能の実行内容によって検出範囲を変更する際の各変更パターンを図5に示す。パターン1は、第1例(図3)の場合と同様であり、撮像範囲401と検出範囲441とが重畳し、また、撮像範囲401と検出範囲441との双方が表示領域321と重畳している例である。このような構成に依れば、利用者は、撮像範囲401と検出範囲441のいずれにおいても、所定物(上肢)を視認しながら、動作(ジェスチャ)を行うことができる。   Each change pattern when changing the detection range depending on the execution contents of the function is shown in FIG. Pattern 1 is the same as in the case of the first example (FIG. 3). The imaging range 401 and the detection range 441 are superimposed, and both the imaging range 401 and the detection range 441 are superimposed on the display area 321. This is an example. According to such a configuration, the user can perform an operation (gesture) while visually recognizing a predetermined object (upper limb) in both the imaging range 401 and the detection range 441.

パターン2は、第2例(図4)の場合と同様であり、表示領域321と重畳する撮像範囲401と、表示領域321と重畳しない検出領域441と、によって上肢の所定動作を検出可能である場合に、表示領域321と重畳する撮像範囲401における上肢の所定動作によって、所定機能を実行する例である。撮像範囲401(第2検出部の検出範囲)は、利用者の前後方向において、利用者の目の高さと一致する部分を有しているため、現実に存在する所定物(例えば指先)を視認しながら、動作(ジェスチャ)を行いやすい。従って、所定物の所定動作によって現実の空間の所定位置を指定する操作を実行内容に含む機能に適用して良い。なお、このような場合においては、上記のような仮想オブジェクトH’を表示しない構成として良い。   Pattern 2 is the same as in the case of the second example (FIG. 4), and a predetermined motion of the upper limb can be detected by the imaging range 401 that overlaps the display area 321 and the detection area 441 that does not overlap the display area 321. In this case, the predetermined function is executed by a predetermined operation of the upper limb in the imaging range 401 overlapping the display area 321. Since the imaging range 401 (the detection range of the second detection unit) has a portion that matches the height of the user's eyes in the front-rear direction of the user, the user can visually recognize a predetermined object (for example, a fingertip). However, it is easy to perform an operation (gesture). Therefore, an operation for designating a predetermined position in the actual space by a predetermined operation of a predetermined object may be applied to a function including execution contents. In such a case, the virtual object H ′ as described above may not be displayed.

パターン3は、第2例(図4)の場合と同様、表示領域321と重畳する撮像範囲401と、表示領域321と重畳しない検出領域441と、によって上肢の所定動作を検出可能である場合である。パターン3は、検出領域441において、上肢の動作による操作を行う際に基準となる仮想平面が、検出範囲441の中心方向Cに所定角度Aで交わるような向き(或いは、上記に示した種々の条件によって規定される向き)に設定されている場合である。   Pattern 3 is a case where a predetermined motion of the upper limb can be detected by the imaging range 401 that overlaps the display area 321 and the detection area 441 that does not overlap the display area 321, as in the second example (FIG. 4). is there. The pattern 3 has a direction in which the virtual plane serving as a reference when performing an operation based on the movement of the upper limb in the detection region 441 intersects the central direction C of the detection range 441 at a predetermined angle A (or the various types described above) This is the case where the orientation is defined by the conditions).

パターン4は、第2例(図4)の場合と同様、表示領域321と重畳する撮像範囲401と、表示領域321と重畳しない検出領域441と、によって上肢の所定動作を検出可能である場合である。パターン4は、表示領域321と重畳しない検出領域441において、仮想平面の向きが水平方向となるように設定されている場合である。   Pattern 4 is a case where a predetermined motion of the upper limb can be detected by the imaging range 401 that overlaps the display area 321 and the detection area 441 that does not overlap the display area 321, as in the second example (FIG. 4). is there. Pattern 4 is a case where the direction of the virtual plane is set to be the horizontal direction in the detection area 441 that does not overlap the display area 321.

例えば、利用者が机の上に指を載せた状態で指を動かすことにより操作を行う場合も想定される。このような場合には、パターン4のように、机の上面と仮想平面が平行となるように該仮想平面の向きを変更しても良い。即ち、ウェアラブル装置1は、検出部44(或いは撮像部40)の検出結果から、現実の空間において所定の大きさの面を検出した場合、仮想平面の向きを、該仮想平面が前記検出した面と平行となるような向きに変更する構成を特徴としていても良い。   For example, it is assumed that the user performs an operation by moving a finger while the finger is placed on a desk. In such a case, the orientation of the virtual plane may be changed so that the upper surface of the desk is parallel to the virtual plane as in pattern 4. That is, when the wearable device 1 detects a surface having a predetermined size in the real space from the detection result of the detection unit 44 (or the imaging unit 40), the direction of the virtual plane is detected by the virtual plane. The configuration may be characterized in that the orientation is changed so as to be parallel to each other.

これまでに、本発明に係る実施形態を説明してきた。ここで、本実施形態に係るウェアラブル装置1は、撮像部40(第2検出部)の撮像範囲401において上肢を検出可能なウェアラブル装置1であって、また、検出部44の検出範囲441においても上肢を検出可能であることから、上肢を検出可能な範囲が拡張されているものと見なされても良い。このような構成を有することによって、例えば以下のような応用が可能になる。   So far, embodiments according to the present invention have been described. Here, the wearable device 1 according to the present embodiment is the wearable device 1 that can detect the upper limb in the imaging range 401 of the imaging unit 40 (second detection unit), and also in the detection range 441 of the detection unit 44. Since the upper limb can be detected, the range in which the upper limb can be detected may be regarded as being extended. By having such a configuration, for example, the following applications are possible.

図6は、本実施形態におけるウェアラブル装置1の所定機能の実行例を説明するための図である。図6に示す機能は、制御プログラム24aが提供する制御に基づいて実行されるものである。   FIG. 6 is a diagram for explaining an execution example of the predetermined function of the wearable device 1 in the present embodiment. The functions shown in FIG. 6 are executed based on the control provided by the control program 24a.

図6において、前景(左列)は、利用者がウェアラブル装置1を頭部に装着した状態で、表示部32a及び32bを透して視認している前方の景色である。図6において、右列には、前景に対する、ウェアラブル装置1の撮像範囲401及び検出範囲441の位置の関係を示している。前景に対する撮像範囲401及び検出範囲441の位置は、ウェアラブル装置1を装着する利用者の位置や向きによって変化する。なお、図6に示す例では、ウェアラブル装置1が撮像中である、即ち、撮像部40が前景を撮像し、該撮像した画像を記憶部24に逐次伝送するとともに記憶部21にて一時的に保存している状態にある。   In FIG. 6, the foreground (left column) is a front view viewed through the display units 32 a and 32 b when the user wears the wearable device 1 on the head. In FIG. 6, the right column shows the relationship between the imaging range 401 and the detection range 441 of the wearable device 1 with respect to the foreground. The positions of the imaging range 401 and the detection range 441 with respect to the foreground vary depending on the position and orientation of the user wearing the wearable device 1. In the example illustrated in FIG. 6, the wearable device 1 is imaging, that is, the imaging unit 40 captures the foreground, sequentially transmits the captured images to the storage unit 24, and temporarily stores in the storage unit 21. It is in a saved state.

ステップS10において、前景には、撮像部40によって撮像され得る被写体P1と被写体P2とが存在する。利用者は、表示部32a及び32bを透して、被写体P1と被写体P2を視認することができる。利用者は、右手H(上肢)によって被写体P1を撮像の対象として指定している。より具体的には、利用者は、撮像部40又は検出部44の検出における深度方向(検出範囲における略中心の方向)において、右手Hが被写体P1と重畳するように、右手Hを移動している。図6の例では、撮像部40又は検出部44の検出における深度方向と利用者の前後方向(z軸方向)とが略一致している場合を示している。そして、右手Hが被写体P1と重畳している状態を所定時間継続させること等によって、被写体P1を撮像の対象として指定した状態とすることができる。ここで、ウェアラブル装置1は、利用者によって、被写体P1が撮像の対象として指定されたことを記憶する。その後、ウェアラブル装置1の位置や向きが変化した場合には、指定された被写体P1が撮像範囲401内または検出範囲441に在る場合には、被写体P1を検出し続ける。若しくは、ウェアラブル装置1の位置や向きが変化した場合には、該変化に基づいて、ウェアラブル装置1と被写体P1との相対的な位置関係の変化を算出する。これにより、ウェアラブル装置1の位置や向きが変化した後であっても、ウェアラブル装置1は、指定された被写体P1のウェアラブル1に対する位置を認識する。なお、ウェアラブル装置1は、利用者が撮像範囲401又は検出範囲441を視認可能なように、表示領域(図6では不図示)において、撮像範囲401又は検出範囲441の外郭に相当する枠等を表示しても良い。   In step S10, the foreground includes a subject P1 and a subject P2 that can be imaged by the imaging unit 40. The user can visually recognize the subject P1 and the subject P2 through the display units 32a and 32b. The user designates the subject P1 as an imaging target with the right hand H (upper limb). More specifically, the user moves the right hand H so that the right hand H overlaps the subject P1 in the depth direction (the direction of the approximate center in the detection range) in the detection by the imaging unit 40 or the detection unit 44. Yes. In the example of FIG. 6, the depth direction in the detection by the imaging unit 40 or the detection unit 44 and the front-rear direction (z-axis direction) of the user substantially coincide with each other. Then, the state in which the subject P1 is designated as an imaging target can be achieved by continuing the state in which the right hand H is superimposed on the subject P1 for a predetermined time. Here, the wearable device 1 stores that the subject P1 is designated as an imaging target by the user. Thereafter, when the position or orientation of the wearable device 1 changes, if the designated subject P1 is in the imaging range 401 or the detection range 441, the subject P1 is continuously detected. Alternatively, when the position or orientation of the wearable device 1 changes, a change in the relative positional relationship between the wearable device 1 and the subject P1 is calculated based on the change. Thereby, even after the position and orientation of the wearable device 1 have changed, the wearable device 1 recognizes the position of the designated subject P1 relative to the wearable 1. The wearable device 1 has a frame or the like corresponding to the outline of the imaging range 401 or the detection range 441 in the display area (not shown in FIG. 6) so that the user can visually recognize the imaging range 401 or the detection range 441. You may display.

ステップS11において、利用者は移動、又は、首の向きを変えている。利用者の移動や向きの変更等に伴うウェアラブル装置1の位置や向きの変化等に起因して、撮像範囲401及び検出範囲441の前景に対する位置が、ステップS10の場合に比して変化している。ここで、前景における被写体P1及び被写体P2の位置は変化していないものとする(S11における左列を参照)。ステップS11において、利用者は、撮像部40又は検出部44の検出における深度方向において、右手Hが被写体P2と重畳するように、右手Hを移動させることによって、被写体P2を撮像の対象として指定している。そして、ウェアラブル装置1は、利用者によって、被写体P1が撮像の対象として指定されたことを記憶する。ステップS11に示されるように、ウェアラブル装置1は、被写体P2が撮像範囲401外に在ることを検出している。また、ステップS11において、ウェアラブル装置1は、被写体P2の検出範囲441における位置、或は位置の変化に基づいて、被写体P2が撮像範囲401からどの程度離れた位置に在るのか、又は被写体P2が撮像範囲から離れている状態にあるか、又は被写体P2が撮像範囲401に近づいている状態にあるか、等を推定しても良い。   In step S11, the user is moving or changing the direction of the neck. Due to the change in the position and orientation of the wearable device 1 due to the movement of the user and the change of the orientation, the positions of the imaging range 401 and the detection range 441 relative to the foreground are changed compared to the case of step S10. Yes. Here, it is assumed that the positions of the subject P1 and the subject P2 in the foreground have not changed (see the left column in S11). In step S11, the user designates the subject P2 as an imaging target by moving the right hand H so that the right hand H overlaps the subject P2 in the depth direction detected by the imaging unit 40 or the detection unit 44. ing. The wearable device 1 stores that the subject P1 is designated as an imaging target by the user. As shown in step S <b> 11, the wearable device 1 detects that the subject P <b> 2 is outside the imaging range 401. Further, in step S11, the wearable device 1 determines how far the subject P2 is from the imaging range 401 based on the position of the subject P2 in the detection range 441 or a change in the position, or whether the subject P2 is It may be estimated whether it is in a state of being away from the imaging range or whether the subject P2 is in a state of approaching the imaging range 401.

ステップS12では、前景(左列)において、被写体P2は被写体P1に近づく方向(左方向)に移動している(被写体P2は例えば動物である)。このとき、利用者は、移動した被写体P2の位置の変化を追うように、移動や向きの変更を行い、これに伴って、撮像範囲401及び検出範囲441が左方向へ移動している(右列を参照)。そして、撮像範囲401に被写体P1と被写体P2の双方が撮像範囲401内に在る状態となったことを検出したことに基づいて、ウェアラブル装置1は撮像画像を取得する。   In step S12, in the foreground (left column), the subject P2 moves in a direction approaching the subject P1 (left direction) (the subject P2 is an animal, for example). At this time, the user moves and changes the direction so as to follow the change in the position of the moved subject P2, and accordingly, the imaging range 401 and the detection range 441 move to the left (right Column). Then, based on detecting that both the subject P1 and the subject P2 are in the imaging range 401 in the imaging range 401, the wearable device 1 acquires a captured image.

このような機能を実行することにより、複数の被写体を同時に撮像したい場合であって、少なくとも一の被写体が動物である場合には、複数の被写体の前景における位置を予め検出し、少なくとも一の被写体(動物)が所望とする位置(他の被写体から所定距離以内の位置)へ移動したタイミングでウェアラブル装置1が撮像画像の取得を行うので、利用者がタイミングを計って、操作を行う必要がない。   By executing such a function, when it is desired to simultaneously image a plurality of subjects and at least one subject is an animal, the positions of the plurality of subjects in the foreground are detected in advance, and at least one subject is detected. Since the wearable device 1 acquires a captured image at the timing when the (animal) moves to a desired position (a position within a predetermined distance from another subject), it is not necessary for the user to perform a timing operation. .

また、予め、被写体の前景における位置を検出する際に、該検出の範囲を撮像範囲401のみでなく、検出範囲441を加えた範囲に拡張できるので、被写体同士が離れている場合であっても、それぞれの被写体を指定することができる。   In addition, when the position of the subject in the foreground is detected in advance, the detection range can be expanded not only to the imaging range 401 but also to the range including the detection range 441, so even if the subjects are separated from each other. Each subject can be specified.

以上のように、本実施形態に係るウェアラブル装置1は、撮像部40と、現実の空間に在る所定物を検出する検出部44と、を備え、検出部44の検出結果に基づいて検出される所定物の所定動作に応じて所定機能を実行可能なウェアラブル装置であって、所定物の所定動作に応じて、検出部の検出範囲内に含まれる少なくとも一つの被写体の指定を受付け、該受付けがなされている状態において、被写体が撮像部40の撮像範囲における所定の位置に移動したことを契機に、撮像部40が撮像する撮像画像を保存(取得)する。   As described above, the wearable device 1 according to the present embodiment includes the imaging unit 40 and the detection unit 44 that detects a predetermined object in the real space, and is detected based on the detection result of the detection unit 44. A wearable device capable of executing a predetermined function in accordance with a predetermined operation of a predetermined object, and receiving and receiving designation of at least one subject included in a detection range of the detection unit in accordance with the predetermined operation of the predetermined object When the subject is moved, the captured image captured by the imaging unit 40 is saved (acquired) when the subject moves to a predetermined position in the imaging range of the imaging unit 40.

また、所定物の所定動作に応じて、検出部44の検出範囲内に含まれる複数の被写体の指定を受付け、該受付けがなされている状態において、複数の被写体同士が撮像部40の撮像範囲401において所定の位置関係となったことを契機に、撮像部40が撮像する撮像画像を保存(取得)する。   Further, according to a predetermined operation of a predetermined object, designation of a plurality of subjects included in the detection range of the detection unit 44 is accepted, and in the state where the acceptance is made, a plurality of subjects are captured within the imaging range 401 of the imaging unit 40. The captured image captured by the imaging unit 40 is saved (acquired) when the predetermined positional relationship is reached.

(変形例1)
以上に実施形態を説明してきた。以下に、上記の実施形態における変形例を説明する。
(Modification 1)
The embodiment has been described above. Below, the modification in said embodiment is demonstrated.

図7は、本実施形態における変形例を説明するための図である。上記の実施形態では、検出部44の検出範囲441と撮像部40(第2検出部)の撮像範囲401とを合わせた検出範囲において、上肢の所定動作を検出可能であって、機能の実行内容に応じて、検出範囲を変更する構成を例示したが、上肢の検出を行うための機能部は、これらの組み合わせに限定されない。例えば、図7(a)に示すように、互いに検出範囲の異なる複数の検出部44を備え、互いに異なる検出範囲を合わせた検出範囲(441及び443)において、上肢の所定動作を検出可能であるものとしても良い。そして、複数の検出部44の互いに異なる検出範囲を合わせた検出範囲の内、機能の実行内容に応じて、検出範囲における適用範囲を変更する構成として良い。   FIG. 7 is a diagram for explaining a modification of the present embodiment. In the above-described embodiment, the predetermined motion of the upper limb can be detected in the detection range obtained by combining the detection range 441 of the detection unit 44 and the imaging range 401 of the imaging unit 40 (second detection unit). However, the functional unit for detecting the upper limb is not limited to these combinations. For example, as shown in FIG. 7A, a plurality of detection units 44 having different detection ranges are provided, and a predetermined motion of the upper limb can be detected in a detection range (441 and 443) in which different detection ranges are combined. It is good as a thing. And it is good also as a structure which changes the application range in a detection range according to the execution content of a function among the detection ranges which match | combined the mutually different detection ranges of the some detection part 44. FIG.

また、例えば、図7(b)に示すように、一の検出部44を有し、機能の実行内容に応じて、検出部44における検出範囲における検出適用範囲を変更する構成として良い。図7(b)では、検出部44における検出適用範囲が範囲441a(斜線部分)に規定されている例が示されている。   Further, for example, as shown in FIG. 7B, one detection unit 44 may be provided, and the detection application range in the detection range in the detection unit 44 may be changed according to the execution content of the function. FIG. 7B shows an example in which the detection application range in the detection unit 44 is defined as a range 441a (shaded portion).

なお、所定物の検出適用範囲を変更は、例えば、赤外線照射部(又は赤外線撮像部)をウェアラブル装置1に機械的に軸支するように設け、ウェアラブル装置1に対して回動させることによって、赤外線照射部の向きを変更することによって実現されても良い。   In addition, the detection application range of the predetermined object is changed by, for example, providing the infrared irradiation unit (or infrared imaging unit) so as to be mechanically supported on the wearable device 1 and rotating the wearable device 1. You may implement | achieve by changing the direction of an infrared irradiation part.

また、所定物の検出適用範囲を変更は、赤外線照射範囲(又は赤外線撮像範囲)を変更することによって実現されても良い。この場合、赤外線の照射範囲を変更可能な走査部や偏光部材等が別途ウェアラブル装置1に設けられる。ウェアラブル装置1にプロジェクタを設けることによって、利用者に画像を視認させる構成とした場合に、該プロジェクタの光源から照射される光を二次元的に走査する走査部を、赤外線の照射範囲を変更するための走査部として兼ねても良い。   Further, changing the detection application range of the predetermined object may be realized by changing the infrared irradiation range (or infrared imaging range). In this case, the wearable device 1 is separately provided with a scanning unit, a polarizing member, and the like that can change the infrared irradiation range. When the wearable device 1 is provided with a projector so that the user can visually recognize an image, the scanning unit that scans light emitted from the light source of the projector two-dimensionally changes the infrared irradiation range. It may also serve as a scanning unit for this purpose.

図7に例示した構成は、機能の実行内容が、所定物の所定動作によって現実の空間の位置指定を行う操作を含む機能や、所定物の移動の軌跡情報に基づいた操作を含む機能等である場合に、適用可能である。   In the configuration illustrated in FIG. 7, the execution content of the function is a function including an operation of specifying a position of an actual space by a predetermined operation of a predetermined object, a function including an operation based on the movement trajectory information of the predetermined object, or the like. Applicable in some cases.

(変形例2)
上記の実施形態では、図5に示した検出パターン1の適用に際して、検出範囲441における、撮像範囲401と重畳する第1範囲441aにおいて、所定物の所定動作に基づく所定機能(撮像機能)の実行を禁止する構成(第1例(図3参照))を説明したが、このような構成に限定されない。例えば、検出範囲441における、撮像範囲401と重畳する第1範囲441aにおいても、所定物を検出し、該所定物の所定動作に基づく所定機能の実行を行っても良い。
(Modification 2)
In the above embodiment, when the detection pattern 1 shown in FIG. 5 is applied, a predetermined function (imaging function) based on a predetermined operation of a predetermined object is performed in the first range 441a that overlaps the imaging range 401 in the detection range 441. Although the structure (1st example (refer FIG. 3)) which prohibits is demonstrated, it is not limited to such a structure. For example, in the first range 441a that overlaps the imaging range 401 in the detection range 441, a predetermined object may be detected and a predetermined function based on a predetermined operation of the predetermined object may be performed.

応用例としては、例えば、検出範囲441と撮像範囲401との相互の位置関係が予め記憶されている状態において、第1範囲441aにおける上肢の位置を、撮像部40ではなく検出部44によって検出し、そして、検出範囲44における上肢の位置に基づいて、撮像範囲401における上肢の位置を推定する構成が採用されて良い。   As an application example, for example, in a state where the mutual positional relationship between the detection range 441 and the imaging range 401 is stored in advance, the position of the upper limb in the first range 441 a is detected not by the imaging unit 40 but by the detection unit 44. And the structure which estimates the position of the upper limb in the imaging range 401 based on the position of the upper limb in the detection range 44 may be employ | adopted.

この場合、ウェアラブル装置1は、撮像部40による合焦処理の適用範囲を、ウェアラブル装置1から所定距離以上前方の空間となるように予め設定している。そして、ウェアラブル装置1は、検出部44の検出結果に基づいて推定される、撮像範囲401における上肢の位置を中心として、該中心近傍の被写体に焦点を合わせるようにして良い。ここで、「所定距離以上前方」との事項における、「所定距離」とは、ウェアラブル装置1の前方において、利用者の上肢が存在し得る空間に基づく距離であり、例えば、ウェアラブル装置1から前方50cmまでの距離である。従って、ウェアラブル装置1には、撮像部40による合焦処理を実行するに際して、利用者の上肢を合焦対象とし得ない設定が予めなされている。このような条件において、ウェアラブル装置1は、上肢の位置に基づく合焦位置の指定を可能にしつつも、上肢を合焦対象とし得ない範囲にて、合焦処理を実行できるため、該上肢に合焦されてしまう、といったことを防ぐことができる。   In this case, the wearable device 1 sets the application range of the focusing process by the imaging unit 40 in advance so as to be a space ahead of the wearable device 1 by a predetermined distance or more. The wearable device 1 may focus on the subject in the vicinity of the center around the position of the upper limb in the imaging range 401 estimated based on the detection result of the detection unit 44. Here, the “predetermined distance” in the item “forward over a predetermined distance” is a distance based on a space where the user's upper limb may exist in front of the wearable device 1, for example, forward from the wearable device 1. The distance is up to 50 cm. Accordingly, the wearable device 1 is set in advance so that the user's upper limb cannot be focused when the focusing process by the imaging unit 40 is executed. Under such conditions, the wearable device 1 can perform the focusing process within a range where the upper limb cannot be focused while allowing the designation of the focus position based on the position of the upper limb. It is possible to prevent the in-focus state.

本発明を諸図面や実施形態に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。さらに、本明細書において開示される全ての技術的事項は、矛盾しないように再配置可能であり、複数の構成部を1つに組み合わせたり、或いは分割したりすることが可能である。   Although the present invention has been described based on the drawings and embodiments, it should be noted that those skilled in the art can easily make various changes and modifications based on the present disclosure. Therefore, it should be noted that these variations and modifications are included in the scope of the present invention. Further, all the technical matters disclosed in this specification can be rearranged so as not to contradict each other, and a plurality of components can be combined into one or divided.

上記の実施形態では、ウェアラブル装置1が、眼鏡形状を有する例を示してきたが、ウェアラブル装置1の形状はこれに限定されない。例えば、ウェアラブル装置1は、ユーザの頭部のほぼ上半分を覆うようなヘルメットタイプの形状を有していても良い。或いは、ウェアラブル装置1は、ユーザの顔面のほぼ全体を覆うようなマスクタイプの形状を有していても良い。   In the above-described embodiment, the example where the wearable device 1 has the shape of glasses has been shown, but the shape of the wearable device 1 is not limited to this. For example, the wearable device 1 may have a helmet-type shape that covers substantially the upper half of the user's head. Alternatively, the wearable device 1 may have a mask type shape that covers almost the entire face of the user.

また、上記の実施形態では、表示部32がユーザの左右の目の前に設けられる一対の表示部32a、32bを有している構成を例示してきたが、これに限定されず、表示部32は、ユーザの左右の目の内の一方の前に設けられる一つの表示部を有している構成であっても良い。   Further, in the above embodiment, the configuration in which the display unit 32 includes the pair of display units 32a and 32b provided in front of the user's left and right eyes has been exemplified, but the present invention is not limited thereto, and the display unit 32 is not limited thereto. May have a configuration having one display unit provided in front of one of the left and right eyes of the user.

また、上記の実施形態では、正面部の縁部が、表示部32の表示領域の縁の全周を囲っている構成を例示してきたが、これに限定されず、表示部32の表示領域の縁の一部のみを囲っている構成であっても良い。   Further, in the above-described embodiment, the configuration in which the edge of the front portion surrounds the entire circumference of the edge of the display area of the display unit 32 is not limited to this, but the display area of the display unit 32 is not limited to this. The structure which has enclosed only a part of edge may be sufficient.

また、上記の実施形態では、図4を参照して説明したように、実行する機能が撮像機能や文字入力機能(上肢の移動の軌跡情報に基づく操作を含む機能)である場合には、上肢を検出するための検出適用範囲を表示視認範囲とし、一方で、実行する機能が現実の空間の所定位置を指定する操作を含む機能である場合には、上肢を検出するための検出適用範囲を、表示視認範囲を除いた範囲とする構成を示したが、機能の実行内容と、検出適用範囲との組み合わせ、上記のものに限定されない。他の種々の実行内容を含む如何なる機能に対しても、該機能に適した検出範囲が適用される。   In the above embodiment, as described with reference to FIG. 4, when the function to be executed is an imaging function or a character input function (a function including an operation based on trajectory information of movement of the upper limb), the upper limb When the function to be executed is a function including an operation for designating a predetermined position in the real space, the detection application range for detecting the upper limb is set as the display visual recognition range. Although the configuration of the range excluding the display visual recognition range is shown, the combination of the function execution content and the detection application range is not limited to the above. The detection range suitable for the function is applied to any function including various other execution contents.

また、上記の実施形態では、所定物として上肢を検出する構成を示したが、これに限定されない。例えば、所定物は、利用者の身体ではない、利用者が把持する物(例えば、ペン等の棒状の物)であってよい。また、ここで利用者が把持する物は、携帯電話等の携帯電子機器であったり、利用者の上肢に装着される腕時計型端末等の電子機器であっても良い。   Further, in the above-described embodiment, the configuration in which the upper limb is detected as the predetermined object is shown, but the present invention is not limited to this. For example, the predetermined object may be an object gripped by the user (for example, a stick-shaped object such as a pen) that is not the user's body. In addition, the object gripped by the user here may be a portable electronic device such as a mobile phone or an electronic device such as a wristwatch type terminal worn on the upper limb of the user.

また、上記の実施形態では、利用者の上肢として手や指を撮像部40(或いは検出部44)によって検出する構成を示したが、手や指は、手袋やグローブ等が装着されている状態であっても検出可能である。   In the above-described embodiment, the configuration in which the imaging unit 40 (or the detection unit 44) detects a hand or a finger as the user's upper limb is shown. However, the hand or the finger is in a state in which a glove, a glove, or the like is worn. Even it can be detected.

上記の実施形態では、ウェアラブル装置1の構成と動作について説明したが、これに限定されず、各構成要素を備える方法やプログラムとして構成されても良い。   In the above embodiment, the configuration and operation of the wearable device 1 have been described. However, the present invention is not limited to this and may be configured as a method or program including each component.

1 ウェアラブル装置
1a 前面部
1b 側面部
1c 側面部
13 操作部
22 制御部
24 記憶部
24a 制御プログラム
24b 撮像データ
25 検出処理部
26 表示制御部
32a、32b 表示部
40、42 撮影部
44 検出部
DESCRIPTION OF SYMBOLS 1 Wearable apparatus 1a Front part 1b Side part 1c Side part 13 Operation part 22 Control part 24 Storage part 24a Control program 24b Imaging data 25 Detection process part 26 Display control part 32a, 32b Display part 40, 42 Image | photographing part 44 Detection part

Claims (4)

撮像部と、
現実の空間に在る所定物を検出する検出部と、を備え、
前記検出部によって検出される、前記所定物の所定動作に応じて所定機能を実行するウェアラブル装置であって、
前記撮像部が撮像中のときは、
前記検出部の検出範囲における、前記撮像部の撮像範囲と重畳する第1範囲においては、該第1範囲内で前記所定物の所定動作を検出しても、該所定動作に応じた前記所定機能を実行しない
ウェアラブル装置。
An imaging unit;
A detection unit for detecting a predetermined object in an actual space,
A wearable device that performs a predetermined function according to a predetermined operation of the predetermined object, detected by the detection unit,
When the imaging unit is imaging,
In the first range that overlaps with the imaging range of the imaging unit in the detection range of the detection unit, the predetermined function corresponding to the predetermined operation is detected even if the predetermined operation of the predetermined object is detected within the first range. Do not execute wearable devices.
表示部を備え、
前記表示部の表示領域における前記撮像部の撮像範囲と重畳しない所定領域に、前記所定機能に関連する表示画像を表示し、
前記所定領域と前記所定物が重畳したことに基づいて、前記所定機能を実行する
請求項1に記載のウェアラブル装置。
With a display,
Displaying a display image related to the predetermined function in a predetermined area that does not overlap with the imaging range of the imaging unit in the display area of the display unit;
The wearable device according to claim 1, wherein the predetermined function is executed based on the predetermined region and the predetermined object being overlapped.
撮像部と、現実の空間に在る所定物を検出する検出部と、を備え、前記検出部によって検出される、前記所定物の所定動作に応じて所定機能を実行するウェアラブル装置によって実行される制御方法であって、
前記撮像部が撮像中のときは、
前記検出部の検出範囲における、前記撮像部の撮像範囲と重畳する第1範囲においては、該第1範囲内で前記所定物の所定動作を検出しても、該所定動作に応じた前記所定機能を実行しない
ことを特徴とする制御方法。
An imaging unit and a detection unit that detects a predetermined object in a real space, and is executed by a wearable device that performs a predetermined function according to a predetermined operation of the predetermined object detected by the detection unit A control method,
When the imaging unit is imaging,
In the first range that overlaps with the imaging range of the imaging unit in the detection range of the detection unit, the predetermined function corresponding to the predetermined operation is detected even if the predetermined operation of the predetermined object is detected within the first range. A control method characterized by not executing.
撮像部と、現実の空間に在る所定物を検出する検出部と、を備えるウェアラブル装置に、前記検出部によって検出される、前記所定物の所定動作に応じて所定機能を実行させる制御プログラムであって、
前記撮像部が撮像中のときは、
前記検出部の検出範囲における、前記撮像部の撮像範囲と重畳する第1範囲においては、該第1範囲内で前記所定物の所定動作を検出しても、該所定動作に応じた前記所定機能を前記ウェアラブル装置に実行させない
ことを特徴とする制御プログラム。
A control program that causes a wearable device including an imaging unit and a detection unit that detects a predetermined object in a real space to execute a predetermined function according to a predetermined operation of the predetermined object detected by the detection unit. There,
When the imaging unit is imaging,
In the first range that overlaps with the imaging range of the imaging unit in the detection range of the detection unit, the predetermined function corresponding to the predetermined operation is detected even if the predetermined operation of the predetermined object is detected within the first range. Is not executed by the wearable device.
JP2015091575A 2015-04-28 2015-04-28 Wearable device, control method, and control program Active JP6483514B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015091575A JP6483514B2 (en) 2015-04-28 2015-04-28 Wearable device, control method, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015091575A JP6483514B2 (en) 2015-04-28 2015-04-28 Wearable device, control method, and control program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019021054A Division JP6817350B2 (en) 2019-02-07 2019-02-07 Wearable devices, control methods and control programs

Publications (2)

Publication Number Publication Date
JP2016207145A JP2016207145A (en) 2016-12-08
JP6483514B2 true JP6483514B2 (en) 2019-03-13

Family

ID=57490194

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015091575A Active JP6483514B2 (en) 2015-04-28 2015-04-28 Wearable device, control method, and control program

Country Status (1)

Country Link
JP (1) JP6483514B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL275824B1 (en) 2018-01-17 2024-04-01 Magic Leap Inc Display systems and methods for determining registration between a display and a user's eyes
IL305833A (en) 2018-01-17 2023-11-01 Magic Leap Inc Eye center of rotation determination, depth plane selection, and render camera positioning in display systems
JP7155613B2 (en) * 2018-05-29 2022-10-19 富士フイルムビジネスイノベーション株式会社 Information processing device and program
JP7382387B2 (en) 2018-07-24 2023-11-16 マジック リープ, インコーポレイテッド Display system and method for determining alignment between a display and a user's eyes

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5766957B2 (en) * 2011-01-14 2015-08-19 オリンパス株式会社 Gesture input device
JP6136090B2 (en) * 2012-03-13 2017-05-31 株式会社ニコン Electronic device and display device
JP6149403B2 (en) * 2013-01-07 2017-06-21 セイコーエプソン株式会社 Display device and control method of display device
JP6195893B2 (en) * 2013-02-19 2017-09-13 ミラマ サービス インク Shape recognition device, shape recognition program, and shape recognition method
EP2975492A1 (en) * 2013-03-11 2016-01-20 NEC Solution Innovators, Ltd. Three-dimensional user interface device and three-dimensional operation processing method
JP5900393B2 (en) * 2013-03-21 2016-04-06 ソニー株式会社 Information processing apparatus, operation control method, and program

Also Published As

Publication number Publication date
JP2016207145A (en) 2016-12-08

Similar Documents

Publication Publication Date Title
JP6393367B2 (en) Tracking display system, tracking display program, tracking display method, wearable device using them, tracking display program for wearable device, and operation method of wearable device
US9728010B2 (en) Virtual representations of real-world objects
US9201578B2 (en) Gaze swipe selection
US9552060B2 (en) Radial selection by vestibulo-ocular reflex fixation
CN116348836A (en) Gesture tracking for interactive game control in augmented reality
US10477090B2 (en) Wearable device, control method and non-transitory storage medium
US20140152558A1 (en) Direct hologram manipulation using imu
US20140168261A1 (en) Direct interaction system mixed reality environments
EP3388921A1 (en) Control device of head mounted display; operation method and operation program thereof; and image display system
CN114127669A (en) Trackability enhancement for passive stylus
WO2018076202A1 (en) Head-mounted display device that can perform eye tracking, and eye tracking method
KR20220120649A (en) Artificial Reality System with Varifocal Display of Artificial Reality Content
JP2013258614A (en) Image generation device and image generation method
WO2014128752A1 (en) Display control device, display control program, and display control method
JP6483514B2 (en) Wearable device, control method, and control program
CN115053270A (en) System and method for operating a head mounted display system based on user identity
JPWO2020080107A1 (en) Information processing equipment, information processing methods, and programs
JP6446465B2 (en) I / O device, I / O program, and I / O method
JP2017191546A (en) Medical use head-mounted display, program of medical use head-mounted display, and control method of medical use head-mounted display
JP6817350B2 (en) Wearable devices, control methods and control programs
CN103713387A (en) Electronic device and acquisition method
JP6479835B2 (en) I / O device, I / O program, and I / O method
JP2017111537A (en) Head-mounted display and program for head-mounted display
JP6479836B2 (en) I / O device, I / O program, and I / O method
JP2016133541A (en) Electronic spectacle and method for controlling the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190214

R150 Certificate of patent or registration of utility model

Ref document number: 6483514

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150