JP2019075175A - Wearable device, control method, and control program - Google Patents

Wearable device, control method, and control program Download PDF

Info

Publication number
JP2019075175A
JP2019075175A JP2019021054A JP2019021054A JP2019075175A JP 2019075175 A JP2019075175 A JP 2019075175A JP 2019021054 A JP2019021054 A JP 2019021054A JP 2019021054 A JP2019021054 A JP 2019021054A JP 2019075175 A JP2019075175 A JP 2019075175A
Authority
JP
Japan
Prior art keywords
range
predetermined
detection
unit
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019021054A
Other languages
Japanese (ja)
Other versions
JP6817350B2 (en
Inventor
須藤 智浩
Tomohiro Sudo
智浩 須藤
伸悟 伊東
Shingo Ito
伸悟 伊東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2019021054A priority Critical patent/JP6817350B2/en
Publication of JP2019075175A publication Critical patent/JP2019075175A/en
Application granted granted Critical
Publication of JP6817350B2 publication Critical patent/JP6817350B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To provide a more convenient wearable device.SOLUTION: A wearable device according to the present invention is a wearable device worn on the head, includes a detection unit that detects a predetermined object present in a real space, executes a predetermined function according to a predetermined movement of the detected predetermined object, and when starting up the predetermined function, changes a detection application range for the detection unit according to the details of execution of the predetermined function.SELECTED DRAWING: Figure 1

Description

この発明は、ユーザの頭部に装着可能なウェアラブル装置、制御方法及び制御プログラムに関する。   The present invention relates to a wearable device wearable on the head of a user, a control method, and a control program.

上記のウェアラブル装置として、近年、眼前に配置されるディスプレイと、手指の動きを認識可能な赤外線検知ユニットと、を備え、手のジェスチャによって操作が行われるヘッドマウントディスプレイ装置が開示されている(特許文献1参照)。   In recent years, a head-mounted display device has been disclosed as the wearable device described above that includes a display placed in front of the eye and an infrared detection unit capable of recognizing the movement of the finger, and an operation is performed by a hand gesture (Patent Reference 1).

国際公開第2014/128751号International Publication No. 2014/128751

上記のようなウェアラブル装置においては、より使い勝手の良いものが望まれる。   Among the wearable devices as described above, those that are more convenient to use are desired.

本発明の目的は、より使い勝手の良いウェアラブル装置を提供することにある。   An object of the present invention is to provide a wearable device that is more convenient to use.

1つの態様に係るウェアラブル装置は、現実の空間に在る所定物を検出する検出部を備え、前記検出部によって検出される、前記所定物の所定動作に応じて所定機能を実行する、頭部に装着されるウェアラブル装置であって、前記所定機能を起動すると、該所定機能の実行内容に応じて、前記検出部の検出適用範囲を変更する。   A wearable device according to one aspect includes a detection unit configured to detect a predetermined object existing in a real space, and performs a predetermined function according to a predetermined operation of the predetermined object detected by the detection unit. When the predetermined function is activated, the detection application range of the detection unit is changed according to the content of execution of the predetermined function.

1つの態様に係るウェアラブル装置は、撮像部と、現実の空間に在る所定物を検出する検出部と、を備え、前記検出部によって検出される、前記所定物の所定動作に応じて所定機能を実行するウェアラブル装置であって、前記所定物の所定動作に応じて、前記検出部の検出範囲内に含まれる少なくとも一つの被写体の指定を受付け、該受付けがなされている状態において、前記被写体が前記撮像部の撮像範囲における所定の位置に移動したことを契機に、該撮像部が撮像する撮像画像を保存する。   A wearable device according to one aspect includes an imaging unit and a detection unit configured to detect a predetermined object existing in a real space, and the predetermined function according to a predetermined operation of the predetermined object detected by the detection unit. A wearable device for performing at least one subject included in the detection range of the detection unit according to a predetermined operation of the predetermined object, and the subject being in a state in which the reception is performed The captured image captured by the imaging unit is saved when the imaging unit moves to a predetermined position in the imaging range of the imaging unit.

1つの態様に係るウェアラブル装置は、撮像部と、現実の空間に在る所定物を検出する検出部と、を備え、前記撮像部が撮像中のときは、前記検出部の検出範囲における、前記撮像部の撮像範囲と重畳しない範囲において、前記所定動作を検出したことに基づいて、前記撮像部の機能に係る処理を実行する。   The wearable device according to one aspect includes an imaging unit and a detection unit that detects a predetermined object existing in the real space, and the imaging unit is in the detection range of the detection unit when the imaging unit is in imaging. The processing related to the function of the imaging unit is executed based on the detection of the predetermined operation in a range not overlapping the imaging range of the imaging unit.

1つの態様に係るウェアラブル装置は、撮像部と、表示部と、現実の空間に在る所定物の所定動作を検出する検出部と、を備え、前記撮像部が撮像中のときは、前記表示部の表示領域における前記撮像部の撮像範囲と重畳しない所定領域において、前記所定動作を検出したことに基づいて、前記撮像部の機能に係る処理を実行する。   The wearable device according to one aspect includes an imaging unit, a display unit, and a detection unit that detects a predetermined movement of a predetermined object existing in the real space, and the display is performed when the imaging unit is imaging. The processing related to the function of the imaging unit is executed based on the detection of the predetermined operation in a predetermined area not overlapping the imaging range of the imaging unit in the display area of the unit.

本発明によれば、より使い勝手の良いウェアラブル装置を提供することができる。   According to the present invention, it is possible to provide a wearable device that is easier to use.

図1は、ウェアラブル装置の斜視図である。FIG. 1 is a perspective view of a wearable device. 図2は、ウェアラブル装置のブロック図である。FIG. 2 is a block diagram of the wearable device. 図3は、撮像部の撮像範囲と、検出部の検出範囲と、表示部の表示領域との関係を示す第1例である。FIG. 3 is a first example showing the relationship between the imaging range of the imaging unit, the detection range of the detection unit, and the display area of the display unit. 図4は、撮像部の撮像範囲と、検出部の検出範囲と、表示部の表示領域との関係を示す第2例である。FIG. 4 is a second example showing the relationship between the imaging range of the imaging unit, the detection range of the detection unit, and the display area of the display unit. 図5は、機能の実行内容によって検出範囲を変更する際の各変更パターンを示す図である。FIG. 5 is a diagram showing each change pattern when changing the detection range according to the execution content of the function. 図6は、ウェアラブル装置1の所定機能の実行例を説明するための図である。FIG. 6 is a diagram for explaining an execution example of a predetermined function of the wearable device 1. 図7は、本実施形態における変形例を説明するための図である。FIG. 7 is a view for explaining a modification of the present embodiment.

以下、本発明につき図面を参照しつつ詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。   Hereinafter, the present invention will be described in detail with reference to the drawings. The present invention is not limited by the following description. Further, constituent elements in the following description include those which can be easily conceived by those skilled in the art, substantially the same ones, and so-called equivalent ranges.

まず、図1を参照しながら、ウェアラブル装置1の全体的な構成について説明する。図1は、装置1の斜視図である。図1に示すように、ウェアラブル装置1は、利用者の頭部に装着されるヘッドマウントタイプの装置である。   First, the overall configuration of the wearable device 1 will be described with reference to FIG. FIG. 1 is a perspective view of the device 1. As shown in FIG. 1, the wearable device 1 is a head mount type device worn on the head of a user.

ウェアラブル装置1は、前面部1aと、側面部1bと、側面部1cとを有する。前面部1aは、装着時に、利用者の両目を覆うように利用者の正面に配置される。側面部1bは、前面部1aの一方の端部に接続され、側面部1cは、前面部1aの他方の端部に接続される。側面部1b及び側面部1cは、装着時に、眼鏡の蔓のように利用者の耳によって支持され、ウェアラブル装置1を安定させる。側面部1b及び側面部1cは、装着時に、利用者の頭部の背面で接続されるように構成されてもよい。   The wearable device 1 has a front surface portion 1a, a side surface portion 1b, and a side surface portion 1c. The front portion 1a is disposed on the front of the user so as to cover the eyes of the user at the time of wearing. The side surface portion 1b is connected to one end of the front surface portion 1a, and the side surface portion 1c is connected to the other end of the front surface portion 1a. The side portion 1 b and the side portion 1 c are supported by the user's ear like a pair of glasses when worn, and stabilize the wearable device 1. The side surface portion 1 b and the side surface portion 1 c may be configured to be connected on the back surface of the head of the user at the time of wearing.

前面部1aは、装着時に利用者の目と対向する面に表示部32a及び表示部32bを備える。表示部32aは、装着時に利用者の右目と対向する位置に配設され、表示部32bは、装着時に利用者の左目と対向する位置に配設される。表示部32aは、右目用の画像を表示し、表示部32bは、左目用の画像を表示する。このように、装着時に利用者のそれぞれの目に対応した画像を表示する表示部32a及び表示部32bを備えることにより、ウェアラブル装置1は、両眼の視差を利用した3次元表示を実現することができる。   The front surface portion 1a includes a display portion 32a and a display portion 32b on the surface facing the eyes of the user at the time of wearing. The display unit 32a is disposed at a position facing the user's right eye at the time of wearing, and the display unit 32b is disposed at a position facing the user's left eye at the time of wearing. The display 32a displays an image for the right eye, and the display 32b displays an image for the left eye. As described above, the wearable device 1 realizes three-dimensional display using parallax of both eyes by providing the display unit 32a and the display unit 32b that display images corresponding to the respective eyes of the user at the time of wearing. Can.

表示部32a及び表示部32bは、一対の半透過ディスプレイであるが、これに限定されない。例えば、表示部32a及び表示部32bは、メガネレンズ、サングラスレンズ、及び紫外線カットレンズ等のレンズ類を設け、レンズとは別に表示部32a及び表示部32bを設けてもよい。表示部32a及び表示部32bは、利用者の右目と左目に異なる画像を独立して提供することができれば、1つの表示デバイスによって構成されてもよい。   Although the display part 32a and the display part 32b are a pair of semi-transmissive display, it is not limited to this. For example, the display 32a and the display 32b may be provided with lenses such as a spectacle lens, a sunglass lens, and an ultraviolet ray cut lens, and the display 32a and the display 32b may be provided separately from the lenses. The display unit 32a and the display unit 32b may be configured by one display device as long as images different from the user's right eye and left eye can be provided independently.

前面部1aには、撮像部40が備えられている。撮像部40は、利用者の視界に相当する範囲の画像を取得する。ここでいう視界とは、例えば、利用者が正面を見ているときの視界である。なお、撮像部40は、前面部1aの一方の端部(装着時の右目側)の近傍に配設される撮像部と、前面部1aの他方の端部(装着時の左目側)の近傍に配設される撮像部との2つから構成されていても良い。この場合、前面部1aの一方の端部(装着時の右目側)の近傍に配設される撮像部によって、利用者の右目の視界に相当する範囲の画像が取得され、前面部1aの一方の端部(装着時の左目側)の近傍に配設される撮像部によって、利用者の左目の視界に相当する範囲の画像が取得される。   An imaging unit 40 is provided on the front surface 1 a. The imaging unit 40 acquires an image in a range corresponding to the field of view of the user. The view referred to here is, for example, a view when the user is looking at the front. The imaging unit 40 includes an imaging unit disposed in the vicinity of one end of the front surface portion 1a (right eye side at the time of wearing) and the vicinity of the other end portion of the front surface 1a (the left eye at the time of wearing It may be comprised from two with the imaging part arrange | positioned by this. In this case, an image in a range equivalent to the field of vision of the user's right eye is acquired by the imaging unit disposed in the vicinity of one end of the front surface 1a (right eye side at the time of wearing). An image in a range equivalent to the field of vision of the user's left eye is acquired by the imaging unit disposed in the vicinity of the end portion (the side of the left eye when worn).

ウェアラブル装置1は、利用者が視認している前景に各種情報を視認させる機能を有する。前景とは、利用者の前方の風景である。ウェアラブル装置1は、表示部32a及び表示部32bが表示を行っていない場合、表示部32a及び表示部32bを透して前景を利用者に視認させる。ウェアラブル装置1は、表示部32a及び表示部32bが表示を行っている場合、表示部32a及び表示部32bを透した前景と、表示部32a及び表示部32bの表示内容とを利用者に視認させる。   The wearable device 1 has a function of causing various information to be viewed in the foreground viewed by the user. The foreground is the scene ahead of the user. When the display 32a and the display 32b do not perform display, the wearable device 1 causes the user to visually recognize the foreground through the display 32a and the display 32b. When the display unit 32a and the display unit 32b perform display, the wearable device 1 causes the user to visually recognize the foreground through the display unit 32a and the display unit 32b and the display contents of the display unit 32a and the display unit 32b. .

図1では、ウェアラブル装置1が、眼鏡のような形状を有する例を示したが、ウェアラブル装置1の形状はこれに限定されない。例えば、ウェアラブル装置1は、ゴーグルの形状を有してもよい。ウェアラブル装置1は、例えば、情報処理装置、バッテリ装置等の外部装置と有線または無線で接続される構成であってもよい。   Although FIG. 1 shows an example in which the wearable device 1 has a shape like glasses, the shape of the wearable device 1 is not limited to this. For example, the wearable device 1 may have the shape of goggles. For example, the wearable device 1 may be connected to an external device such as an information processing device or a battery device by wire or wirelessly.

次に、図2を参照しながら、ウェアラブル装置1の機能的な構成について説明する。図2は、ウェアラブル装置1のブロック図である。図2に示すように、ウェアラブル装置1は、操作部13と、制御部22と、記憶部24と、表示部32a及び32bと、撮像部40と、視線検出部42と、検出部44と、測距部46とを有する。   Next, the functional configuration of the wearable device 1 will be described with reference to FIG. FIG. 2 is a block diagram of the wearable device 1. As illustrated in FIG. 2, the wearable device 1 includes an operation unit 13, a control unit 22, a storage unit 24, display units 32 a and 32 b, an imaging unit 40, a sight line detection unit 42, and a detection unit 44. And a distance measuring unit 46.

操作部13は、例えば、側面部(1b又は1c)に配設されるタッチセンサである。タッチセンサは、利用者の接触を検出可能であり、検出結果に応じて、ウェアラブル装置1の起動、停止、動作モードの変更等の基本的な操作を受け付ける。   The operation unit 13 is, for example, a touch sensor disposed on the side surface portion (1b or 1c). The touch sensor can detect the touch of the user, and receives basic operations such as activation and termination of the wearable device 1 and change of the operation mode according to the detection result.

表示部32a及び32bは、液晶ディスプレイ(Liquid Crystal Display)、有機EL(Organic Electro−Luminessence)パネル等の半透過または透過の表示デバイスを備える。表示部32a及び32bは、制御部22から入力される制御信号に従って各種の情報を画像として表示する。表示部32a及び32bは、レーザー光線等の光源を用いて利用者の網膜に画像を投影する投影装置であってもよい。この場合、眼鏡を模したウェアラブル装置1のレンズ部分にハーフミラーを設置して、別途設けられるプロジェクタから照射される画像が投影される構成であってもよい。また、前述したように、表示部32a及び32bは、各種の情報を3次元的に表示しても良い。また、各種の情報を利用者の前方(利用者から離れた位置)にあたかも存在するかのように表示しても良い。このように情報を表示する方式としては、例えば、フレームシーケンシャル方式、偏光方式、直線偏光方式、円偏光方式、トップアンドボトム方式、サイドバイサイド方式、アナグリフ方式、レンチキュラ方式、パララックスバリア方式、液晶パララックスバリア方式、2視差方式等の多視差方式の何れかが採用されて良い。   The display units 32 a and 32 b include semi-transmissive or transmissive display devices such as a liquid crystal display (Liquid Crystal Display), an organic electro-luminescence (EL) panel, and the like. The display units 32 a and 32 b display various information as an image in accordance with a control signal input from the control unit 22. The display units 32a and 32b may be projection devices that project an image on the user's retina using a light source such as a laser beam. In this case, a half mirror may be installed in the lens portion of the wearable device 1 that simulates glasses, and an image irradiated from a separately provided projector may be projected. Further, as described above, the display units 32a and 32b may three-dimensionally display various information. In addition, various information may be displayed as if it exists in front of the user (a position away from the user). As a system for displaying information in this manner, for example, frame sequential system, polarization system, linear polarization system, circular polarization system, top-and-bottom system, side-by-side system, anaglyph system, lenticular system, parallax barrier system, liquid crystal parallax Either a barrier system or a multi-parallax system such as a two-parallax system may be employed.

撮像部40は、CCD(Charge Coupled Device Image Sensor)、CMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサを用いて電子的に画像を撮像する。そして、撮像部40は、撮像した画像を信号に変換して制御部22へ出力する。   The imaging unit 40 electronically captures an image using an image sensor such as a charge coupled device image sensor (CCD) or a complementary metal oxide semiconductor (CMOS). Then, the imaging unit 40 converts the captured image into a signal and outputs the signal to the control unit 22.

視線検出部42は、例えば、赤外線を利用者の目に照射可能な赤外線照射部と、赤外感度を有する赤外線撮像部とからなる。制御部22は、後述する、制御プログラム24aを実行することにより、視線検出部42が取得した利用者の画像に基づいて、利用者の視線位置を検出する。視線検出部42は、例えば、図1に示すように、ウェアラブル装置1の前面部1aにおける利用者の顔側の面に設けられている。   The line-of-sight detection unit 42 includes, for example, an infrared irradiation unit capable of irradiating infrared light to the eyes of the user, and an infrared imaging unit having infrared sensitivity. The control unit 22 executes a control program 24a described later to detect the gaze position of the user based on the image of the user acquired by the gaze detection unit 42. For example, as shown in FIG. 1, the line-of-sight detection unit 42 is provided on the face of the front side portion 1 a of the wearable device 1 on the face side of the user.

なお、視線検出部42は、上記のものに限られず、上記の撮像部40とは別に設けられる撮像部であって、利用者の目を撮像可能な撮像部としても良い。制御部22は、後述する、制御プログラム24aを実行することにより、視線検出部42が取得した利用者の画像における、目頭と虹彩との位置関係に基づいて視線方向を検出する。   The line-of-sight detection unit 42 is not limited to the above-described one, and may be an imaging unit provided separately from the above-described imaging unit 40 and may be an imaging unit capable of imaging the eyes of the user. The control unit 22 executes a control program 24a described later to detect the direction of the line of sight based on the positional relationship between the eye inside and the iris in the image of the user acquired by the line-of-sight detection unit 42.

なお、視線検出部42は、上記のものに限られず、利用者の目の周辺に接触可能な位置に設けられる電極を有し、利用者の目の動作(まばたきや視線移動)に伴って生じる筋電位を検出する筋電センサであっても良い。ここで、筋電位を測定するための測定電極として、利用者の鼻の左右側部のそれぞれに接触可能な第1電極と第2電極とが、例えば、ウェアラブル装置1のブリッジから延設されるノーズパッドに設けられる。また、基準電極として、ユーザの鼻の中央部に接触可能な第3電極がブリッジに設けられる。このような構成とすることにより、筋電センサは、例えば、ユーザが視線を所定の方向に移動させたときに、第3電極を基準とした第1電極及び第2電極の電位の変化を検出する。制御部22は、筋電センサの検出結果に基づいて、利用者の目の動作として、例えば、まばたきの有無、視線移動の有無(視線方向、視線位置の変化等も含む)等を検出する。   The line-of-sight detection unit 42 is not limited to the above-described one, and has an electrode provided at a position where it can contact the periphery of the user's eyes, and occurs with the user's eye movement (blinking or eye movement). It may be an myoelectric sensor that detects myoelectric potential. Here, as measurement electrodes for measuring the myoelectric potential, a first electrode and a second electrode capable of contacting each of the left and right sides of the user's nose are extended, for example, from the bridge of the wearable device 1 Provided on the nose pad. In addition, as a reference electrode, a bridge is provided with a third electrode that can contact the central portion of the user's nose. With such a configuration, the myoelectric sensor detects, for example, changes in the potential of the first electrode and the second electrode based on the third electrode when the user moves the sight line in a predetermined direction. Do. Based on the detection result of the myoelectric sensor, the control unit 22 detects, for example, the presence or absence of blinking, the presence or absence of eye movement (including a change in eye direction, eye position, etc.) as the eye movement of the user.

なお、基準電極としての第3電極は、ブリッジとは異なる位置に設けられていても良い。例えば、第3電極は、側面部1b(或いは1c)における、前面部1aとは反対側の端部近傍に設けてられても良い。なお、電極の配置構成はこれらに限定されるものではなく、公知の種々の技術が適用されて良い。   Note that the third electrode as a reference electrode may be provided at a position different from the bridge. For example, the third electrode may be provided in the vicinity of the end of the side surface portion 1b (or 1c) opposite to the front surface portion 1a. The arrangement configuration of the electrodes is not limited to these, and various known techniques may be applied.

検出部44は、撮像部40の撮像範囲及び撮像範囲の周囲(或は前景)に存在する現実の物体を検出する。検出部44は、例えば、現実の物体のうち、予め登録された形状(例えば、人間の手、指等の形状)にマッチする物体(所定物)を検出する。検出部44は、予め形状が登録されていない物体(所定物)についても、画素の明度、彩度、色相のエッジ等に基づいて、画像中の現実の物体の範囲(形状及び大きさ)を検出するように構成されてもよい。   The detection unit 44 detects an imaging range of the imaging unit 40 and a real object present around (or in the foreground of) the imaging range. The detection unit 44 detects, for example, an object (predetermined object) matching a shape (for example, a shape of a human hand, a finger or the like) registered in advance among real objects. The detection unit 44 detects the range (shape and size) of the real object in the image even for an object (predetermined object) whose shape is not registered in advance, based on the lightness, saturation, edge of hue, etc. of the pixel. It may be configured to detect.

検出部44は、現実の物体(所定物)を検出するセンサを有する。センサは、例えば、可視光、赤外線、紫外線、電波、音波、磁気、静電容量の少なくとも1つを用いて、現実の物体を検出するセンサである。   The detection unit 44 has a sensor that detects a real object (predetermined object). The sensor is, for example, a sensor that detects a real object using at least one of visible light, infrared light, ultraviolet light, radio waves, sound waves, magnetism, and capacitance.

本実施形態においては、撮像部40は、検出部44を兼ねても良い。すなわち、撮像部40は、撮像される画像を解析することによって、撮像範囲内の物体(所定物)を検出する。   In the present embodiment, the imaging unit 40 may double as the detection unit 44. That is, the imaging unit 40 detects an object (predetermined object) within the imaging range by analyzing the imaged image.

制御部22は、演算手段であるCPU(Central Processing Unit)と、記憶手段であるメモリとを備え、これらのハードウェア資源を用いてプログラムを実行することによって各種の機能を実現する。具体的には、制御部22は、記憶部24に記憶されているプログラムやデータを読み出してメモリに展開し、メモリに展開されたプログラムに含まれる命令をCPUに実行させる。そして、制御部22は、CPUによる命令の実行結果に応じて、メモリ及び記憶部24に対してデータの読み書きを行ったり、表示部32a、32b等の動作を制御したりする。CPUが命令を実行するに際しては、メモリに展開されているデータや検出部44等を介して検出される操作がパラメータや判定条件の一部として利用される。   The control unit 22 includes a central processing unit (CPU) as an arithmetic unit and a memory as a storage unit, and implements various functions by executing a program using these hardware resources. Specifically, the control unit 22 reads a program or data stored in the storage unit 24 and expands it in a memory, and causes the CPU to execute an instruction included in the program expanded in the memory. Then, the control unit 22 reads and writes data to the memory and the storage unit 24 and controls the operation of the display units 32a and 32b according to the execution result of the instruction by the CPU. When the CPU executes an instruction, data developed in the memory or an operation detected through the detection unit 44 or the like is used as part of the parameter or the determination condition.

記憶部24は、フラッシュメモリ等の不揮発性を有する記憶装置からなり、各種のプログラムやデータを記憶する。記憶部24に記憶されるプログラムには、制御プログラム24aが含まれる。記憶部24に記憶されるデータには、撮像データ24bが含まれる。記憶部24は、メモリカード等の可搬の記憶媒体と、記憶媒体に対して読み書きを行う読み書き装置との組み合わせによって構成されてもよい。この場合、制御プログラム24a、撮像データ24bは、記憶媒体に記憶されていてもよい。また、制御プログラム24aは、無線通信または有線通信によってサーバ装置等の他の装置から取得されてもよい。   The storage unit 24 is a non-volatile storage device such as a flash memory and stores various programs and data. The programs stored in the storage unit 24 include a control program 24 a. The data stored in the storage unit 24 includes imaging data 24 b. The storage unit 24 may be configured by a combination of a portable storage medium such as a memory card and a read / write device that reads from and writes to the storage medium. In this case, the control program 24a and the imaging data 24b may be stored in a storage medium. The control program 24a may also be acquired from another device such as a server device by wireless communication or wired communication.

制御プログラム24aは、ウェアラブル装置1を稼働させるための各種制御に関する機能を提供する。制御プログラム24aが提供する機能には、撮像部40の撮像を制御する機能、視線検出部42の検出結果から利用者の視線を検出する機能、表示部32a、32bの表示を制御する機能等が含まれる。   The control program 24 a provides functions related to various controls for operating the wearable device 1. The functions provided by the control program 24a include a function to control the imaging of the imaging unit 40, a function to detect the line of sight of the user from the detection result of the line of sight detection unit 42, and a function to control the display of the display units 32a and 32b. included.

制御プログラム24aは、検出処理部25と、表示制御部26とを含む。検出処理部25は、撮像部40の撮像範囲に存在する現実の物体(所定物)を検出するとともに、現実の物体(所定物)の所定動作を検出するための機能を提供する。また、検出処理部25は、検出部44の検出範囲内に存在する現実の物体(所定物)を検出するとともに、現実の物体(所定物)の所定動作を検出ための機能を提供する。表示制御部26は、表示部32a及び32bの表示状態と撮像範囲との対応関係を管理するための機能を提供する。   The control program 24 a includes a detection processing unit 25 and a display control unit 26. The detection processing unit 25 detects an actual object (predetermined object) present in the imaging range of the imaging unit 40 and provides a function for detecting a predetermined movement of the actual object (predetermined object). Further, the detection processing unit 25 detects an actual object (predetermined object) present in the detection range of the detection unit 44, and provides a function for detecting a predetermined operation of the actual object (predetermined object). The display control unit 26 provides a function for managing the correspondence between the display states of the display units 32 a and 32 b and the imaging range.

また、検出処理部25は、視線検出部42の検出結果から利用者の視線を検出する機能を提供する。例えば、検出処理部25は、利用者の画像に対して角膜反射法に基づくアルゴリズムを適用することにより、利用者の視線位置を検出する。具体的には、検出処理部25は、ユーザの画像を取得する際に、上記赤外線照射部から赤外線を照射させる。検出処理部25は、取得した利用者の画像から、瞳孔の位置と赤外線の角膜反射の位置をそれぞれ特定する。検出処理部25は、瞳孔の位置と赤外線の角膜反射の位置の位置関係に基づいて、利用者の視線の方向を特定する。例えば、検出処理部25は、瞳孔の位置が角膜反射の位置よりも目尻側にあれば、視線の方向は目尻側であると判定し、瞳孔の位置が角膜反射の位置よりも目頭側にあれば、視線の方向は目頭側であると判定する。検出処理部25は、例えば、虹彩の大きさに基づいて、利用者の眼球とディスプレイとの距離を算出する。検出処理部25は、利用者の視線の方向と、利用者の眼球とディスプレイとの距離とに基づいて、利用者の眼球内にある瞳孔の中心位置から、瞳孔を起点とする視線がディスプレイと交差するときのディスプレイ上の位置である視線位置を検出する。そして、検出処理部25は、上記視線位置の検出を再帰的に実行することにより、利用者の視線の移動を検出する。   The detection processing unit 25 also provides a function of detecting the line of sight of the user from the detection result of the line of sight detection unit 42. For example, the detection processing unit 25 detects the gaze position of the user by applying an algorithm based on the corneal reflection method to the image of the user. Specifically, when acquiring a user's image, the detection processing unit 25 causes the infrared irradiation unit to emit infrared light. The detection processing unit 25 specifies the position of the pupil and the position of corneal reflection of infrared light from the acquired image of the user. The detection processing unit 25 specifies the direction of the line of sight of the user based on the positional relationship between the position of the pupil and the position of corneal reflection of infrared light. For example, if the position of the pupil is on the corner of the eye than the position of the corneal reflection, the detection processing unit 25 determines that the direction of the line of sight is on the side of the corner of the eye, and the position of the pupil is on the corner of the eye than the position of the corneal reflection. For example, it is determined that the direction of the line of sight is on the eye inside side. The detection processing unit 25 calculates the distance between the eye of the user and the display based on, for example, the size of the iris. The detection processing unit 25 displays the line of sight starting at the pupil from the central position of the pupil in the eye of the user based on the direction of the line of sight of the user and the distance between the eye of the user and the display. A gaze position which is a position on the display when crossing is detected. Then, the detection processing unit 25 detects the movement of the line of sight of the user by recursively executing the detection of the line of sight position.

なお、上記の例は、検出処理部25が、角膜反射法を利用した処理を実行することにより、利用者の視線位置を検出する場合であるが、この例には限られない。例えば、検出処理部25が、利用者の画像について画像認識処理を実行することにより、上記視線位置を検出するようにしてもよい。例えば、検出処理部25は、利用者の画像から、利用者の眼球を含む所定の領域を抽出し、目頭と虹彩との位置関係に基づいて視線方向を特定する。そして、検出処理部25は、特定した視線方向と、利用者の眼球からディスプレイまでの距離とに基づいて、上記視線位置を検出する。或いは、検出処理部25は、利用者がディスプレイ上の表示領域各所を閲覧しているときの複数の眼球の画像を参照画像としてそれぞれ蓄積しておく。そして、検出処理部25は、参照画像と、判定対象として取得される利用者の眼球の画像とを照合することにより、上記視線位置を検出する。   Although the above-mentioned example is a case where detection processing part 25 detects a user's look position by performing processing using a corneal reflex method, it is not restricted to this example. For example, the detection processing unit 25 may detect the gaze position by performing an image recognition process on the image of the user. For example, the detection processing unit 25 extracts a predetermined area including the eyeball of the user from the image of the user, and specifies the gaze direction based on the positional relationship between the inner corner of the eye and the iris. Then, the detection processing unit 25 detects the gaze position based on the identified gaze direction and the distance from the user's eye to the display. Alternatively, the detection processing unit 25 accumulates, as reference images, images of a plurality of eyeballs when the user browses the display areas on the display. Then, the detection processing unit 25 detects the sight line position by collating the reference image with the image of the eye of the user acquired as the determination target.

撮像データ24bは、撮像部40によって撮像範囲を撮像した画像を示すデータである。撮像データ24bは、撮像部40が、前面部1aの一方の端部の近傍に配設される撮像部と、前面部1aの他方の端部の近傍に配設される撮像部との2つから構成される場合には、それぞれによって撮像された画像を合成したデータでもよいし、それぞれの画像を示すデータでもよい。撮像データ24bには、静止画データと動画データとが含まれる。   The imaging data 24 b is data indicating an image obtained by imaging the imaging range by the imaging unit 40. The imaging data 24b includes two imaging units, the imaging unit 40 being disposed in the vicinity of one end of the front surface 1a, and the imaging unit disposed in the vicinity of the other end of the front surface 1a. When it consists of these, the data which synthesize | combined the image imaged by each may be sufficient, and the data which show each image may be sufficient. The imaging data 24 b includes still image data and moving image data.

次に、図3、図4を参照し、撮像部40の撮像範囲と、検出部44の検出範囲と、表示部32a及び32bの表示領域との関係について説明する。図3は、撮像部40の撮像範囲と、検出部44の検出範囲と、表示部32a及び32bの表示領域との関係を示す第1例である。   Next, the relationship between the imaging range of the imaging unit 40, the detection range of the detection unit 44, and the display areas of the display units 32a and 32b will be described with reference to FIG. 3 and FIG. FIG. 3 is a first example showing the relationship between the imaging range of the imaging unit 40, the detection range of the detection unit 44, and the display areas of the display units 32a and 32b.

なお、本実施形態では、検出部44が、赤外線を照射する赤外線照射部と、現実の所定物から反射される赤外線を受光可能な(赤外感度を有する)赤外線撮像部とからなるものとして説明していく。即ち、制御部22は、赤外線撮像部の撮像画像から、現実の物体(所定物)を検出する。また、本実施形態では、表示部32a及び32bがウェアラブル装置1から離れた位置にあたかも存在するかのように表示画像を表示させるものとして説明していく。   In the present embodiment, the detection unit 44 is described as being composed of an infrared irradiation unit that emits infrared light, and an infrared imaging unit that can receive infrared light reflected from an actual predetermined object (having infrared sensitivity). I will. That is, the control unit 22 detects a real object (predetermined object) from the image captured by the infrared imaging unit. Further, in the present embodiment, it is assumed that the display image is displayed as if the display units 32 a and 32 b are present at positions away from the wearable device 1.

図3(a)は、撮像部40の撮像範囲と、検出部44の検出範囲と、表示部32a及び32bの表示領域とを模式的に示した斜視図である。図3(b)は、図3(a)の上面図であり、図3(c)、(d)は、図3(a)の側面図である。図3において、x軸、y軸、z軸からなる三次元直交座標系が定義される。y軸方向は、鉛直方向であり、z軸方向は、利用者の前後方向であり、x軸方向は、y軸方向とz軸方向との双方と直交する方向である。図示するように、図3(d)は、利用者が前方を視認した際の視界に対応する。   FIG. 3A is a perspective view schematically showing an imaging range of the imaging unit 40, a detection range of the detection unit 44, and display areas of the display units 32a and 32b. 3 (b) is a top view of FIG. 3 (a), and FIGS. 3 (c) and 3 (d) are side views of FIG. 3 (a). In FIG. 3, a three-dimensional orthogonal coordinate system including x-axis, y-axis and z-axis is defined. The y-axis direction is the vertical direction, the z-axis direction is the longitudinal direction of the user, and the x-axis direction is the direction orthogonal to both the y-axis direction and the z-axis direction. As illustrated, FIG. 3 (d) corresponds to the field of view when the user views the front.

図3には、撮像部40によって撮像可能な撮像範囲401と、検出部44によって検出可能な検出範囲441と、表示部32a及び32bによって表示可能な表示領域321と、が示されている。本実施形態(第1例)において、検出可能な検出範囲441は、撮像範囲401を包含している(検出範囲441内に撮像範囲401が存在する)。図3(a)〜(d)から解るように、検出範囲441は、3次元空間を有する。即ち、検出部44の赤外線照射部から照射された赤外線を、赤外線撮像部により検出することによって、3次元空間である検出範囲441内の所定物を検出できる。また、3次元空間である検出範囲441内の所定物の所定動作を検出し、これを契機に所定動作に応じた所定機能を実行可能としても良い。例えば、所定物が利用者の腕、手、又は指、或いはこれらを組み合わせたもの(上肢と総称する)である場合、所定動作としては、指の曲げ動作・伸展動作、手首の曲げ、前腕の回転(回内、回外)等(ジェスチャ)が挙げられる。また、上肢の所定領域の位置が、検出範囲441内において所定の移動をすることを、所定物(上肢)の所定動作として検出しても良い。また、所定物(上肢)が所定の形態となることを、所定物(上肢)の所定動作として検出しても良い。例えば、親指を情報に伸ばしつつ他の指を握った形態(グッドサイン)等が挙げられる。   FIG. 3 shows an imaging range 401 that can be imaged by the imaging unit 40, a detection range 441 that can be detected by the detection unit 44, and a display area 321 that can be displayed by the display units 32a and 32b. In the present embodiment (first example), the detectable detection range 441 includes the imaging range 401 (the imaging range 401 exists in the detection range 441). As understood from FIGS. 3A to 3D, the detection range 441 has a three-dimensional space. That is, by detecting the infrared light emitted from the infrared irradiation unit of the detection unit 44 by the infrared imaging unit, it is possible to detect a predetermined object in the detection range 441 which is a three-dimensional space. In addition, a predetermined operation of a predetermined object in the detection range 441 which is a three-dimensional space may be detected, and a predetermined function according to the predetermined operation may be made executable upon detection of the predetermined operation. For example, if the predetermined object is the user's arm, hand, or finger, or a combination thereof (collectively referred to as the upper limbs), the predetermined action includes bending action / extension action of the finger, bending of the wrist, and forearm There are rotations (in and out) and the like (gesture). In addition, the movement of the predetermined region of the upper limb in the detection range 441 may be detected as the predetermined movement of the predetermined object (upper limb). In addition, it may be detected that the predetermined object (upper limb) is in the predetermined form as the predetermined motion of the predetermined object (upper limb). For example, there is a form (Good Sign) in which the other finger is held while extending the thumb to information.

また、図3(a)〜(d)から解るように、表示部32a及び32bは、実際に設けられたウェアラブル装置1の部分ではなく、ウェアラブル装置1から離れた位置となる表示領域321に、表示画像を表示する。このとき、表示部32a及び32bは、表示画像を、奥行きを持つ立体形状の3Dオブジェクトとして表示しても良い。なお、当該奥行きは、z軸方向における厚みに対応する。   Further, as can be understood from FIGS. 3A to 3D, the display portions 32a and 32b are not in the part of the wearable device 1 actually provided, but in the display area 321 at a position away from the wearable device 1. Display the displayed image. At this time, the display units 32a and 32b may display the display image as a three-dimensional 3D object having a depth. The depth corresponds to the thickness in the z-axis direction.

続いて図3を参照し、所定物の所定動作に基づいて所定機能を実行する例を説明する。図3の例では、所定機能として、撮像部40によって撮像画像を取得する撮像機能を実行する場合を示している。なお、「撮像画像を取得する」とは、撮像部40が撮像する撮像画像を撮像データ24bとして記憶部24に記憶(保存)することである。ここで、検出部の検出範囲441における、撮像部40の撮像範囲401と重畳する範囲(検出範囲441と撮像範囲401とが共有する空間)を第1範囲441aとし、検出部の検出範囲441における、撮像部40の撮像範囲401と重畳しない範囲を第2範囲441bとする。なお、第1範囲441aは、斜線で示されている部分である。   Then, with reference to FIG. 3, the example which performs a predetermined function based on the predetermined operation | movement of a predetermined thing is demonstrated. In the example of FIG. 3, the case where the imaging function which acquires a captured image by the imaging part 40 is shown as a predetermined function is shown. Note that “to obtain a captured image” means to store (save) the captured image captured by the imaging unit 40 as the captured data 24 b in the storage unit 24. Here, a range (a space shared by the detection range 441 and the imaging range 401) overlapping with the imaging range 401 of the imaging unit 40 in the detection range 441 of the detection unit is a first range 441a. A range not overlapping with the imaging range 401 of the imaging unit 40 is referred to as a second range 441 b. The first range 441a is a portion indicated by oblique lines.

また、表示領域321における、第2範囲441bと重なる領域321a(例えば、図3における点線が囲われた領域)には、所定機能(撮像機能)に関連する表示画像51〜54が表示されている。アイコン51は、例えば、撮像機能の1つである、露出補正における補正値を変更する機能を示した表示画像である。アイコン52は、例えば、撮像機能の1つである、ISO感度を変更する機能を示した表示画像である。アイコン53は、例えば、撮像機能の1つである、撮像画像を取得する機能を示した表示画像である。アイコン54は、例えば、撮像機能の1つである、ズーム機能を示した表示画像である。   In the display area 321, in the area 321a overlapping with the second range 441b (for example, the area surrounded by the dotted line in FIG. 3), display images 51 to 54 related to the predetermined function (imaging function) are displayed. . The icon 51 is, for example, a display image showing a function of changing a correction value in exposure correction, which is one of imaging functions. The icon 52 is, for example, a display image showing one of the imaging functions, a function of changing the ISO sensitivity. The icon 53 is, for example, a display image showing a function of acquiring a captured image, which is one of imaging functions. The icon 54 is, for example, a display image showing a zoom function, which is one of the imaging functions.

ここで、ウェアラブル装置1が撮像中である、即ち、撮像部40が前景を撮像し、該撮像した画像を記憶部24に逐次伝送するとともに記憶部21にて一時的に保存している状態であるとき、ウェアラブル装置1は、検出部44の検出範囲441における、撮像部40の撮像範囲401と重畳する第1範囲441aにおいては、該第1範囲441a(斜線で示した範囲)内で所定物の所定動作を検出しても、該所定動作に応じた所定機能を実行しない。ここで所定機能は、例えば上記のような、撮像画像を取得する機能である。   Here, in a state in which the wearable device 1 is imaging, that is, the imaging unit 40 images the foreground and sequentially transmits the captured image to the storage unit 24 and temporarily stores the image in the storage unit 21. When there is a first range 441a of the detection range 441 of the detection unit 44 that overlaps with the imaging range 401 of the imaging unit 40, the wearable device 1 detects a predetermined object within the first range 441a (the range indicated by hatching). Even if the predetermined operation of the above is detected, the predetermined function corresponding to the predetermined operation is not executed. Here, the predetermined function is, for example, the function of acquiring a captured image as described above.

これにより、第1範囲441a内に所定物(上肢)がある状態で、撮像画像の取得操作がなされることによって、上肢が画像中に映った撮像画像が取得される、といったことが生じず、使い勝手が良くなる。   As a result, when a predetermined object (upper limb) is present in the first range 441a, the captured image in which the upper limb appears in the image is not acquired by performing the capture operation of the captured image. Usability is improved.

また、ウェアラブル装置1は、表示部32a及び32bの表示領域321における撮像部40の撮像範囲と重畳しない領域321aに、所定機能に関連する表示画像51〜54を表示し、領域321aと所定物(上肢)が重畳したことに基づいて、所定機能を実行する構成を有していても良い。   Further, the wearable device 1 displays the display images 51 to 54 related to the predetermined function in the area 321a not overlapping with the imaging range of the imaging unit 40 in the display area 321 of the display units 32a and 32b. It may have a configuration that performs a predetermined function based on the overlapping of the upper limbs).

このとき、第2範囲441b内における、アイコン53(撮像画像を取得する機能を示した表示画像)が表示された領域に利用者の指が在る状態で、該指を奥行方向(z軸方向)に移動させる動作(指を押し出す動作)がなされると、これを契機に、表示画像53に基づく機能として、撮像画像の取得を行っても良い。このように、撮像範囲(第1範囲441a)内に上肢が入り込んでいない状態で、画像の取得が行えるので、使い勝手が良くなる。   At this time, with the finger of the user in the area where the icon 53 (display image showing the function of acquiring a captured image) is displayed in the second range 441b, the finger is moved in the depth direction (z-axis direction) When an operation of moving to a position (an operation of pushing out a finger) is performed, a captured image may be acquired as a function based on the display image 53 in response to this. As described above, since the image acquisition can be performed in a state where the upper limbs do not enter the imaging range (first range 441a), usability is improved.

また、上記構成の他に、検出範囲441における、撮像範囲401と重畳する第1範囲441a(或いは撮像範囲401内)から、検出範囲441における、撮像範囲401と重畳しない第2範囲441b(或いは撮像範囲401外)へ上肢が移動したことに基づいて、表示画像53に基づく機能として、撮像画像の取得がなされる構成としても良い。このとき、上肢の移動を撮像部40の撮像画像から検出しても良いし、検出部44の検出結果から検出しても良い。このような構成においても、撮像範囲(第1範囲441a)内に上肢が入り込んでいない状態で、画像の取得が行えるので、使い勝手が良くなる。   In addition to the above configuration, a second range 441b (or imaging) which does not overlap with the imaging range 401 in the detection range 441 from the first range 441a (or in the imaging range 401) overlapping with the imaging range 401 in the detection range 441 As a function based on the display image 53, acquisition of a captured image may be performed based on movement of the upper limb to the outside of the range 401). At this time, the movement of the upper limb may be detected from the captured image of the imaging unit 40 or may be detected from the detection result of the detection unit 44. Also in such a configuration, since the image can be acquired without the upper limbs entering the imaging range (first range 441a), usability is improved.

上記に説明したように、ウェアラブル装置1は、撮像部40と、現実の空間に在る所定物を検出する検出部44と、を備え、撮像部40が撮像中のときは、検出部44の検出範囲441における、撮像部40の撮像範囲401と重畳しない範囲441bにおいて、前記所定動作を検出したことに基づいて、撮像部40の機能に係る処理を実行するものとして特徴づけられて良い。   As described above, the wearable device 1 includes the imaging unit 40 and the detection unit 44 that detects a predetermined object existing in the real space, and when the imaging unit 40 is in the process of imaging, the wearable device 1 In the detection range 441, in a range 441 b not overlapping with the imaging range 401 of the imaging unit 40, processing relating to the function of the imaging unit 40 may be performed based on the detection of the predetermined operation.

また、ウェアラブル装置1は、撮像部40が撮像中のときは、表示部32の表示領域321における撮像部40の撮像範囲401と重畳しない所定領域321aにおいて、書影物の所定動作を検出したことに基づいて、撮像部40の機能に係る処理を実行する構成としても良い。   In addition, the wearable device 1 detects the predetermined movement of the shadow object in the predetermined area 321 a that does not overlap with the imaging range 401 of the imaging unit 40 in the display area 321 of the display unit 32 when the imaging unit 40 is imaging. It is good also as composition which performs processing concerning a function of imaging part 40 based on these.

また、上記の実施形態においては、図3(d)に示すように、第2範囲441b(検出範囲441における、撮像範囲401と重畳しない範囲)における、撮像範囲401の右端近傍の範囲にアイコン51〜54を表示する構成を示したが、これに限定されず、撮像範囲401の左端近傍または上端近傍または下端近傍の範囲にアイコン51〜54を表示しても良い。この場合、撮像範囲401の左端近傍または上端近傍または下端近傍の範囲に所定物が在る状態において、所定物の所定動作を検出することに基づいて、所定機能の実行できるようにして良い。   Further, in the above embodiment, as shown in FIG. 3D, the icon 51 is displayed in the second range 441b (a range not overlapping with the imaging range 401 in the detection range 441) in the range near the right end of the imaging range 401. Although the configuration for displaying ~ 54 is shown, the present invention is not limited to this, and the icons 51 to 54 may be displayed in the range near the left end or the upper end or the lower end of the imaging range 401. In this case, in a state where the predetermined object is in the range near the left end or the upper end or the lower end of the imaging range 401, the predetermined function may be performed based on detection of the predetermined operation of the predetermined object.

なお、このような構成ではなく、第2範囲441bにおける、撮像範囲401の上端近傍の範囲(撮像範囲401の上部の範囲)においては、該範囲内における所定物の所定動作に基づく所定機能の実行を禁止し、第2範囲441bにおける、撮像範囲401の上端近傍の範囲(撮像範囲401の上部の範囲)を除いた範囲においては、該範囲内における所定物の所定動作に基づく所定機能の実行を許可するようにしても良い。例えば、第2範囲441bにおける、撮像範囲401の上端近傍の範囲内に、所定物(例えば、利用者の指の先端部)が在る状態で、撮像画像の取得がなされた場合には、利用者の手や前腕の一部分が画像中に映った状態で撮像画像が取得されてしまうこともあり得る。これに対し、上記構成では、撮像範囲401の上端近傍の範囲において、所定機能の実行を禁止するため、このような問題が生じ難くなる。   Note that instead of such a configuration, in a range near the upper end of the imaging range 401 (a range above the imaging range 401) in the second range 441b, execution of a predetermined function based on a predetermined operation of a predetermined object in the range In the second range 441b except for the range near the upper end of the imaging range 401 (the upper range of the imaging range 401), the execution of the predetermined function based on the predetermined operation of the predetermined object in the range is prohibited. You may allow it. For example, in the case where acquisition of a captured image is performed in a state where a predetermined object (for example, the tip of the user's finger) is in a range near the upper end of the imaging range 401 in the second range 441b In some cases, a captured image may be acquired with a part of the person's hand or forearm appearing in the image. On the other hand, in the above configuration, since the execution of the predetermined function is prohibited in the range near the upper end of the imaging range 401, such a problem hardly occurs.

上記の実施形態におけるウェアラブル装置1は、他の見方によれば、撮像機能を起動することによって撮像中となったときに、検出部44の検出範囲441を、該検出範囲441から第1範囲441aを除いた第2範囲441bに変更する構成を有しているものとして規定され得る。即ち、ウェアラブル装置1は、検出部44によって検出される、所定物の所定動作に応じて所定機能を実行するウェアラブル装置であって、所定機能を起動すると、該所定機能の実行内容に応じて、検出部44の検出適用範囲を変更するものである。   According to another viewpoint, the wearable device 1 according to the above-described embodiment detects the detection range 441 of the detection unit 44 from the detection range 441 to the first range 441a when imaging is underway by activating the imaging function. Can be defined as having a configuration to be changed to the second range 441b excluding. That is, the wearable device 1 is a wearable device that executes a predetermined function according to a predetermined operation of a predetermined object detected by the detection unit 44. When the predetermined function is activated, the wearable device 1 is activated according to the execution content of the predetermined function. The detection application range of the detection unit 44 is changed.

このような構成を有することにより、ウェアラブル装置1は、利用者の操作の内容(ウェアラブル装置1に実行させる機能の内容)に応じて、適切な検出範囲とすることができるので、誤検出による誤操作等を招き難くすることができる。   By having such a configuration, the wearable device 1 can have an appropriate detection range according to the content of the user's operation (content of the function to be executed by the wearable device 1). Etc. can be made hard to invite.

例えば、所定機能の実行内容が撮像機能である場合には、上記のように、検出部40の検出適用範囲を第2範囲441bとして良い。他方で、所定機能の実行内容が撮像機能とは異なる機能、例えば、所定物の所定動作によって、現実の空間の所定位置を指定する操作を含む機能である場合には、検出部40の検出適用範囲を第1範囲441aと第2範囲441bとを合わせた範囲(範囲441に相当)として良い。現実の空間の所定位置を指定する操作を含む機能とは、例えば、前景に実在する建物を利用者によって指定することにより、指定した建物に関する情報等を表示させる機能である。例えば、利用者の前後方向(例えば、z軸方向)において、利用者の指先と重なる前景の建物が、選択されたものとみなす構成であって良い。   For example, when the content of execution of the predetermined function is the imaging function, as described above, the detection application range of the detection unit 40 may be set as the second range 441 b. On the other hand, when the execution content of the predetermined function is a function different from the imaging function, for example, the function including an operation of specifying a predetermined position in the real space by a predetermined operation of a predetermined object, The range may be a range (corresponding to the range 441) in which the first range 441a and the second range 441b are combined. The function including an operation of designating a predetermined position in the real space is, for example, a function of displaying information and the like relating to the designated building by designating a building existing in the foreground by the user. For example, a building in the foreground that overlaps the user's fingertip in the front-rear direction (for example, the z-axis direction) of the user may be considered as selected.

ここで、例えば、「検出部40の検出適用範囲を第2範囲441bとする」ことは、検出部44における赤外線照射部による照射範囲(又は赤外線撮像部の撮像範囲)を変更することによってなされても良い。或いは、「検出部40の検出適用範囲を第2範囲441bとする」ことは、赤外線照射部による照射範囲(又は赤外線撮像部の撮像範囲)は変更せず、検出範囲411にて所定物の所定動作を検出するが、該所定動作に基づいて機能を実行するための適用範囲を第2範囲441bに変更することによってなされても良い。この変更の処理は、例えば、制御部22によってなされて良い。   Here, for example, “making the detection application range of the detection unit 40 the second range 441 b” is performed by changing the irradiation range of the infrared irradiation unit in the detection unit 44 (or the imaging range of the infrared imaging unit) Also good. Alternatively, “the detection range of the detection unit 40 is set as the second range 441 b” does not change the radiation range of the infrared radiation unit (or the imaging range of the infrared imaging unit), and the predetermined range in the detection range 411 The operation may be detected by changing the application range for performing the function based on the predetermined operation to the second range 441b. The process of this change may be performed by the control unit 22, for example.

また、所定機能の実行内容が、現実の空間の所定位置を指定する操作を含む場合には、上記とは異なる他の例として、検出部44の検出範囲441の内、第1範囲441a(又は撮像範囲401)を検出適用範囲として良い。即ち、第2範囲441bにおいては上肢(指先)の所定動作を検出しても、所定機能を実行しないようにする。ここで、図3(d)に示すように、第1範囲441a(又は撮像範囲401)は、表示領域321に囲われていることから、利用者によって視認可能な表示視認範囲と称する。   In addition, when the execution content of the predetermined function includes an operation of specifying a predetermined position in the real space, as another example different from the above, the first range 441a (or the detection range 441 of the detection unit 44) The imaging range 401) may be set as the detection application range. That is, in the second range 441b, the predetermined function is not performed even if the predetermined movement of the upper limb (fingertip) is detected. Here, as shown in FIG. 3D, since the first range 441a (or the imaging range 401) is surrounded by the display area 321, the first range 441a (or the imaging range 401) is referred to as a display visual range that can be visually recognized by the user.

このように、ウェアラブル装置1は、機能の実行内容が、所定物の所定動作によって現実の空間の位置指定を行う操作を含むか否かを判定し、該判定結果によって、前記検出適用範囲を変更する構成を有する。そして、現実の空間の所定位置を指定する操作を機能の実行内容に含む場合には、利用者によって表示領域321を視認し得る表示視認範囲を、検出部44の検出適用範囲とする。   As described above, the wearable device 1 determines whether or not the execution content of the function includes the operation of specifying the position of the real space by the predetermined operation of the predetermined object, and changes the detection application range according to the determination result. Configuration. Then, when the execution content of the function includes an operation of specifying a predetermined position in the real space, a display visual recognition range in which the user can visually recognize the display area 321 is set as a detection application range of the detection unit 44.

上記構成によれば、現実の空間の所定位置を指定する操作の適用範囲を、利用者が視認しながら行える程度の適当な範囲とすることができ、意図しない操作がなされてしまう、といったことを減らす事ができる。   According to the above configuration, the applicable range of the operation for designating the predetermined position in the real space can be an appropriate range that can be performed while the user visually recognizes, and an unintended operation is performed. It can be reduced.

図4は、撮像部40の撮像範囲と、検出部44の検出範囲と、表示部32a及び32bの表示領域との関係を示す第2例である。   FIG. 4 is a second example showing the relationship between the imaging range of the imaging unit 40, the detection range of the detection unit 44, and the display areas of the display units 32a and 32b.

図4(a)は、撮像部40の撮像範囲と、検出部44の検出範囲と、表示部32a及び32bの表示領域とを模式的に示した斜視図である。図4(b)、(c)は、図4(a)の側面図である。図4において、x軸、y軸、z軸からなる三次元直交座標系が定義される。y軸方向は、鉛直方向であり、z軸方向は、利用者の前後方向であり、x軸方向は、y軸方向とz軸方向との双方と直交する方向である。図示するように、図4(c)は、利用者が前方を視認した際の視界に対応する。   FIG. 4A is a perspective view schematically showing an imaging range of the imaging unit 40, a detection range of the detection unit 44, and display areas of the display units 32a and 32b. FIG.4 (b), (c) is a side view of Fig.4 (a). In FIG. 4, a three-dimensional orthogonal coordinate system including x-axis, y-axis and z-axis is defined. The y-axis direction is the vertical direction, the z-axis direction is the longitudinal direction of the user, and the x-axis direction is the direction orthogonal to both the y-axis direction and the z-axis direction. As illustrated, FIG. 4 (c) corresponds to the field of view when the user views the front.

図4に示す例においても、第1例(図3)と同様、撮像部40によって撮像可能な撮像範囲401と、検出部によって検出可能な検出範囲441と、表示部32a及び32bによって表示可能な表示領域321と、が示されている。第2例においては、検出可能な検出範囲441は、撮像範囲401の下方に位置する。   Also in the example shown in FIG. 4, as in the first example (FIG. 3), an imaging range 401 that can be imaged by the imaging unit 40, a detection range 441 that can be detected by the detection unit, and display by the display units 32a and 32b A display area 321 is shown. In the second example, the detectable detection range 441 is located below the imaging range 401.

図4に示す例においても、第1例(図3)と同様、ウェアラブル装置1は、3次元空間である検出範囲441内で所定物の所定動作を検出し、該所定動作に応じた所定機能を実行可能である。所定動作は、第1例(図3)と同様である。   Also in the example shown in FIG. 4, the wearable device 1 detects a predetermined motion of a predetermined object in a detection range 441 which is a three-dimensional space, as in the first example (FIG. 3), and a predetermined function corresponding to the predetermined motion Is feasible. The predetermined operation is similar to that of the first example (FIG. 3).

図4の例では、所定機能として、撮像部40によって撮像画像を取得する機能を実行する場合を示している。   In the example of FIG. 4, a case where the imaging unit 40 executes a function of acquiring a captured image is shown as the predetermined function.

ここで、ウェアラブル装置1が撮像中である、即ち、撮像部40が前景を撮像し、該撮像した画像を記憶部24に逐次伝送するとともに記憶部21にて一時的に保存している状態である場合、ウェアラブル装置1は、逐次伝送される撮像画像中に所定物が含まれていることを検出可能である。また、逐次伝送される撮像画像から所定物の所定動作がなされたか否かを検出することも可能であり、さらに、所定動作を検出したことに基づいて、所定機能を実行することも可能である。従って、撮像部40は、現実の空間に在る所定物を検出する検出部44と同様に扱われて良い(撮像部40と検出部44とを、一の検出部として見なしても良い)。即ち、ウェアラブル装置1は、撮像部40の撮像範囲401と検出部44の検出範囲441とを合わせた空間に所定物が在る状態において、該所定物の所定動作を検出可能である。撮像部40は、検出部44と区別される第2検出部として機能する。   Here, in a state in which the wearable device 1 is imaging, that is, the imaging unit 40 images the foreground and sequentially transmits the captured image to the storage unit 24 and temporarily stores the image in the storage unit 21. In some cases, the wearable device 1 can detect that a predetermined object is included in the sequentially transmitted captured image. Moreover, it is also possible to detect whether or not a predetermined operation of a predetermined object has been performed from captured images sequentially transmitted, and it is also possible to execute a predetermined function based on the detection of the predetermined operation. . Therefore, the imaging unit 40 may be treated in the same manner as the detection unit 44 that detects a predetermined object in the real space (the imaging unit 40 and the detection unit 44 may be regarded as one detection unit). That is, the wearable device 1 can detect the predetermined operation of the predetermined object in a state where the predetermined object exists in a space obtained by combining the imaging range 401 of the imaging unit 40 and the detection range 441 of the detection unit 44. The imaging unit 40 functions as a second detection unit distinguished from the detection unit 44.

本実施形態におけるウェアラブル装置1は、該ウェアラブル装置1が撮像機能を起動したことにより撮像中となったときには、撮像部40(第2検出部)と検出部44とを、一の検出部として見なした場合における該検出部の検出範囲を変更しても良い。例えば、ウェアラブル装置1が撮像中でない場合においては、上肢を検出するための検出範囲を撮像範囲401と検出範囲441とを合わせた範囲とし、一方で、撮像中である場合には、上肢を検出するための検出範囲を検出範囲441のみとしても良い。即ち、ウェアラブル装置1が撮像中である場合には、撮像範囲401内で上肢の所定動作を検出しても、該所定動作に応じた所定機能を実行させないようにする。   The wearable device 1 according to the present embodiment sees the imaging unit 40 (second detection unit) and the detection unit 44 as one detection unit when the wearable device 1 starts imaging by activating the imaging function. In this case, the detection range of the detection unit may be changed. For example, in the case where the wearable device 1 is not in imaging, the detection range for detecting the upper limb is a combination of the imaging range 401 and the detection range 441. On the other hand, in the case of imaging, the upper limb is detected. The detection range to be set may be only the detection range 441. That is, when the wearable device 1 is imaging, even if a predetermined motion of the upper limb is detected in the imaging range 401, the predetermined function according to the predetermined motion is not performed.

このような構成を有することにより、ウェアラブル装置1は、撮像範囲内に所定物(上肢)がある状態で、撮像画像の取得を行うための操作等がなされることによって、上肢が画像中に映った撮像画像が取得される、といったことが生じず、使い勝手が良くなる。   By having such a configuration, the wearable device 1 displays the upper limb in the image by performing an operation or the like for acquiring a captured image in a state where the predetermined object (upper limb) is in the imaging range. There is no possibility that the captured image is acquired, and the usability is improved.

ここで、上記の撮像機能は、検出部44の検出範囲441において、仮想平面442を規定するとともに、仮想平面442の座標と表示範囲321における所定範囲の座標とを対応付けることによって、仮想平面442に対する上肢H(例えば指先)の位置に基づいて、表示範囲321における位置の指定を行えるようにしても良い。具体的に、ウェアラブル装置1は、検出範囲441における指先の位置を検出するとともに、該位置を、仮想平面442に対して、該仮想平面442と垂直な方向から投影した場合に、該仮想平面442に投影される投影位置を検出する。そして、仮想平面442における投影位置に基づいて、該投影位置に対応付けられた表示範囲321の位置を指定する。図4(c)に示すように、仮想平面442における投影位置に基づいて、該投影位置に対応付けられた表示範囲321における、アイコン53に重畳する位置が利用者によって指定されている。そして、アイコン53に重畳する位置が指定されていることに基づいて、アイコン53に対応する機能(撮像画像を取得する機能)が実行される。   Here, the imaging function described above defines the virtual plane 442 in the detection range 441 of the detection unit 44, and associates the coordinates of the virtual plane 442 with the coordinates of the predetermined range in the display range 321, thereby obtaining the virtual plane 442 The position in the display range 321 may be specified based on the position of the upper limb H (for example, a fingertip). Specifically, when the wearable device 1 detects the position of the fingertip in the detection range 441 and projects the position on the virtual plane 442 from the direction perpendicular to the virtual plane 442, the virtual plane 442 Detect the projection position projected on the Then, based on the projection position on the virtual plane 442, the position of the display range 321 associated with the projection position is designated. As shown in FIG. 4C, based on the projection position on the virtual plane 442, the user designates a position to be superimposed on the icon 53 in the display range 321 associated with the projection position. Then, based on the designation of the position to be superimposed on the icon 53, the function (the function of acquiring a captured image) corresponding to the icon 53 is executed.

ここで、仮想平面442の向きは、種々の条件によって規定されて良い。例えば、図4(b)に示すように、検出範囲441における中心方向Cと仮想平面442とが所定角度Aで交わるような向きとなるように設定されている。ここで、所定角度Aは、例えば、45〜90度程度として良い。ここで、中心方向Cは、略角錐状の3次元空間を有する検出範囲411(図4(a)参照)における底面に相当する部分の略中心を通る線(図4(b)参照)であって良い。   Here, the orientation of the virtual plane 442 may be defined by various conditions. For example, as shown in FIG. 4B, it is set so that the central direction C in the detection range 441 and the virtual plane 442 intersect at a predetermined angle A. Here, the predetermined angle A may be, for example, about 45 to 90 degrees. Here, the central direction C is a line (see FIG. 4B) passing substantially through the center of a portion corresponding to the bottom surface in the detection range 411 (see FIG. 4A) having a substantially pyramidal three-dimensional space. It is good.

また、仮想平面442の向きは、自装置(ウェアラブル装置1)と所定物(指先等の上肢における所定箇所)とを通る仮想線と所定角度Aで交わるような向きとなるように設定しても良い。   Also, the direction of the virtual plane 442 is set to be such that it intersects at a predetermined angle A with a virtual line passing through the own device (the wearable device 1) and a predetermined object (a predetermined location on the upper limb of a finger tip or the like). good.

また、仮想平面442の向きは、利用者の顔の所定位置(例えば、目)と所定物(指先等の上肢における所定箇所)とを通る仮想線と所定角度Aで交わるような向きとなるように設定しても良い。このとき、ウェアラブル装置1は、利用者の顔の所定位置(例えば、目)を、ウェアラブル装置1における利用者の顔に面する部分に設けられる撮像部(或いは視線検出部44)によって検出して良い。   Also, the direction of the virtual plane 442 is such that it intersects at a predetermined angle A with a virtual line passing through a predetermined position (for example, an eye) of the user's face and a predetermined object (a predetermined location on the upper limb of a finger tip or the like) It may be set to At this time, the wearable device 1 detects a predetermined position (for example, an eye) of the user's face by the imaging unit (or the line-of-sight detection unit 44) provided in the part of the wearable device 1 facing the user's face. good.

また、検出範囲441において、利用者の指先が伸展している場合には、該伸展方向と仮想平面442とが所定角度Aで交わるような向きとなるように、仮想平面442が規定されて良い。   Further, in the detection range 441, when the user's fingertip is extended, the virtual plane 442 may be defined such that the extension direction and the virtual plane 442 intersect at a predetermined angle A. .

また、視線検出部42の検出結果によって推定される利用者の視線方向と所定角度Aで交わるように仮想平面442の向きが規定されても良い。   Further, the direction of the virtual plane 442 may be defined so as to intersect the user's sight line direction estimated by the detection result of the sight line detection unit 42 at a predetermined angle A.

以上の構成によれば、利用者が文字入力操作を行うに際して、利用者が想像している面の向きとウェアラブル装置1が規定する仮想面442の向きとが近くなるため、利用者の思い通りの操作が実行されやすくなる。特に、所定角度Aが90度に近づくほど、利用者が想像している面の向きとウェアラブル装置1が規定する仮想面442の向きとがより近くなり、使い勝手が向上する。   According to the above configuration, when the user performs the character input operation, the direction of the surface imagined by the user and the direction of the virtual surface 442 defined by the wearable device 1 become close to each other. The operation is easier to perform. In particular, as the predetermined angle A approaches 90 degrees, the orientation of the surface imagined by the user and the orientation of the virtual surface 442 defined by the wearable device 1 become closer, and usability improves.

なお、利用者が表示領域321を視認し得ない検出範囲441内において、上肢の動作に基づいて機能を実行する場合には、図4(c)に示すように、検出範囲44内において検出される上肢Hの形状や位置に基づいて、検出した形状と同様な形状の仮想オブジェクトH’を表示領域321内における所定位置に、表示して良い。これにより、検出範囲が表示領域321と重畳しない場合であっても、表示領域321内に仮想オブジェクトH’を表示し、該仮想オブジェクトを視認しながら操作できるので、使い勝手が良い。   In the case where the function is executed based on the motion of the upper limb in the detection range 441 in which the user can not visually recognize the display area 321, as shown in FIG. 4C, it is detected in the detection range 44. Based on the shape and position of the upper limb H, a virtual object H ′ having a shape similar to the detected shape may be displayed at a predetermined position in the display area 321. As a result, even when the detection range does not overlap with the display area 321, the virtual object H 'is displayed in the display area 321, and the virtual object can be manipulated while being viewed, which is convenient.

また、撮像機能を起動する例を示したが、他の例として、上肢(所定物)の移動の軌跡情報に基づいた操作(例えば、利用者が空中で文字を描くように指を移動させた軌跡情報に基づいて文字を入力する文字入力操作)を実行内容に含む機能を起動する構成であっても良い。機能の実行内容が上肢の移動の軌跡情報に基づいた操作を含む場合には、表示視認範囲(撮像範囲401)と重ならない範囲である検出範囲441のみを、検出適用範囲としても良い。ここで、検出適用範囲とする検出範囲441は、表示視認範囲(撮像範囲401)よりも下方に位置する。また、検出範囲441における、利用者の目の高さの位置から所定長さ以上、下方に位置する範囲を、検出適用範囲として規定しても良い。   Moreover, although the example which starts an imaging function was shown, operation (For example, the user moved the finger so that the character was drawn in the air as another example) based on the locus | trajectory information of movement of an upper limb (predetermined thing) It may be configured to activate a function including, in the execution content, a character input operation of inputting characters based on locus information. When the content of execution of the function includes an operation based on the trajectory information of the movement of the upper limb, only the detection range 441 which does not overlap with the display visual range (the imaging range 401) may be set as the detection application range. Here, the detection range 441 as the detection application range is located below the display visual range (the imaging range 401). In addition, a range located below the position of the height of the user's eyes in the detection range 441 by a predetermined length or more may be defined as the detection application range.

このように、ウェアラブル装置1は、所定機能の実行内容が、所定物の移動の軌跡情報に基づいた操作を含むか否かを判定し、該判定結果によって、検出適用範囲を変更する構成を有する。そして、所定物の移動の軌跡情報に基づいた操作を含む場合には、表示視認範囲と重ならない範囲を、検出適用範囲とする。   As described above, the wearable device 1 has a configuration that determines whether the execution content of the predetermined function includes an operation based on the movement trajectory information of the predetermined object, and changes the detection application range according to the determination result. . Then, when the operation based on the trajectory information of the movement of the predetermined object is included, a range not overlapping with the display visual recognition range is set as a detection application range.

このような構成により、文字入力操作等の、現実の空間の所定位置を指定するために上肢を顔の位置(表示視認範囲)にまで上げる必要のない操作においては、検出範囲をより下方に位置に変更できるので、上肢を不必要に上方へ上げる必要がなく、楽に操作を行うことができる。   With such a configuration, in an operation such as a character input operation where it is not necessary to raise the upper limbs to the position of the face (display visual recognition range) in order to specify a predetermined position in the real space, the detection range is positioned further downward Since the upper limbs need not be raised unnecessarily, the operation can be performed easily.

ここで、上記の文字入力機能は、検出部44の検出範囲441において、所定物(上肢)の2次元的な移動を検出するための仮想平面を規定し、該仮想平面に対する上肢の移動の軌跡に基づいて利用者が所望とする文字を検出することによって実現されて良い。ウェアラブル装置1は、仮想平面を規定すると、検出範囲における仮想平面の座標を記憶し、検出範囲441内における上肢の所定領域(例えば指先)の位置を仮想平面に対して垂直な方向から投影し、該仮想平面に投影される投影位置の座標を検出する。そして、指先の仮想平面に対する投影位置の座標変化に基づいて、指先の移動の軌跡を検出する。例えば、利用者が文字入力を行うべく、指先を移動させることで文字を描く動作を行ったとすると、指先の移動の軌跡を仮想平面に投影させた場合における、該仮想平面上での軌跡に基づいて文字の検出を行う。   Here, the character input function described above defines a virtual plane for detecting two-dimensional movement of a predetermined object (upper limb) in the detection range 441 of the detection unit 44, and a locus of movement of the upper limb with respect to the virtual plane. It may be realized by detecting characters desired by the user on the basis of. Having defined the virtual plane, the wearable device 1 stores the coordinates of the virtual plane in the detection range, and projects the position of a predetermined region (for example, a fingertip) of the upper limb in the detection range 441 from the direction perpendicular to the virtual plane. The coordinates of the projection position projected onto the virtual plane are detected. Then, based on the change in coordinates of the projection position with respect to the virtual plane of the fingertip, a trajectory of movement of the fingertip is detected. For example, if the user performs an operation of drawing a character by moving a fingertip in order to perform character input, a locus of movement of the fingertip is projected on a virtual plane, based on a locus on the virtual plane. Character detection.

また、撮像機能や文字入力機能を起動する例を示したが、他の例として、所定物の所定動作によって現実の空間の所定位置を指定する操作を実行内容に含む機能を実行しても良い。ウェアラブル装置1は、機能の実行内容が、所定物の所定動作によって現実の空間の所定位置を指定する操作を含む機能である場合には、検出部44の検出適用範囲を撮像範囲401のみとしても良い(即ち、検出範囲441内における所定動作によっては、機能の実行に係る動作を実行しない)。図4の例において、撮像範囲401は、表示領域321に囲われている(図4(c)を参照)ことから、利用者によって視認可能な表示視認範囲と称する。このような構成によれば、現実の空間の所定位置を指定する操作の適用範囲を、利用者が視認しながら行える程度の適当な範囲とすることができ、意図しない操作がなされてしまう、といったことを減らす事ができる。なお、所定物の所定動作によって現実の空間の所定位置を指定する機能である場合には、上記のような仮想平面は、表示領域321における奥行き方向(z軸方向)と直交する向きとして良い。   In addition, although the example of activating the imaging function and the character input function has been shown, as another example, the function may be executed including an operation of specifying a predetermined position in the real space by a predetermined operation of a predetermined object. . The wearable device 1 sets the detection application range of the detection unit 44 as only the imaging range 401 when the execution content of the function is a function including an operation of specifying a predetermined position in the real space by a predetermined operation of a predetermined object. It is good (that is, depending on the predetermined operation in the detection range 441, the operation relating to the execution of the function is not performed). In the example of FIG. 4, since the imaging range 401 is enclosed by the display area 321 (see FIG. 4C), it is referred to as a display visual range which can be visually recognized by the user. According to such a configuration, the application range of the operation for designating the predetermined position in the real space can be made an appropriate range that can be performed while the user visually recognizes, and an unintended operation is performed. You can reduce things. In the case where the predetermined position of the real space is designated by the predetermined operation of the predetermined object, the virtual plane as described above may be oriented orthogonal to the depth direction (z-axis direction) in the display area 321.

以上に、所定機能を起動したときの該所定機能の実行内容に応じて、検出部44(或いは撮像部40(第2検出部)と検出部44とを一つの検出部と見なした場合の該検出部)の検出適用範囲を変更する種々の例を示した。ここで、ウェアラブル装置1は、検出部の検出結果から所定物の動作が検出されたことを契機に、該動作(ジェスチャ)の種類に応じた機能を起動する構成を有していても良い。例えば、両手の指で四角を形成する、即ち、撮像用フレームを模した四角を形成するジェスチャがなされた場合には、実行内容を撮像機能とし、一方で、人差し指が伸展している状態で所定の文字を描こうとするジェスチャがなされた場合には、実行内容を文字入力機能として検出しても良い。また、所定機能の起動の指示を受け付ける手段としては、例えば、表示領域321内に撮像機能に対応付けられた表示画像と、文字入力機能に対応付けられた表示画像と、を表示し、利用者の上肢が重畳した一方の表示画像に対応する機能を実行するようにしても良い。   As described above, in the case where the detection unit 44 (or the imaging unit 40 (second detection unit) and the detection unit 44 are regarded as one detection unit according to the content of execution of the predetermined function when the predetermined function is activated. The various examples which change the detection range of the said detection part were shown. Here, the wearable device 1 may have a configuration for activating a function according to the type of the operation (gesture) when the operation of the predetermined object is detected from the detection result of the detection unit. For example, when a gesture is performed in which a square is formed by fingers of both hands, that is, a square that imitates a frame for imaging is made, the execution content is set to the imaging function, while the index finger is in a stretched state. If a gesture is made to draw a character, the execution content may be detected as a character input function. In addition, as means for receiving an instruction to activate a predetermined function, for example, a display image associated with the imaging function and a display image associated with the character input function are displayed in the display area 321, and the user A function corresponding to one display image on which the upper limbs are superimposed may be executed.

機能の実行内容によって検出範囲を変更する際の各変更パターンを図5に示す。パターン1は、第1例(図3)の場合と同様であり、撮像範囲401と検出範囲441とが重畳し、また、撮像範囲401と検出範囲441との双方が表示領域321と重畳している例である。このような構成に依れば、利用者は、撮像範囲401と検出範囲441のいずれにおいても、所定物(上肢)を視認しながら、動作(ジェスチャ)を行うことができる。   Each change pattern at the time of changing a detection range by the content of execution of a function is shown in FIG. The pattern 1 is the same as in the first example (FIG. 3), and the imaging range 401 and the detection range 441 overlap, and both the imaging range 401 and the detection range 441 overlap the display area 321. Example. According to such a configuration, the user can perform an operation (gesture) while visually recognizing the predetermined object (upper limb) in any of the imaging range 401 and the detection range 441.

パターン2は、第2例(図4)の場合と同様であり、表示領域321と重畳する撮像範囲401と、表示領域321と重畳しない検出領域441と、によって上肢の所定動作を検出可能である場合に、表示領域321と重畳する撮像範囲401における上肢の所定動作によって、所定機能を実行する例である。撮像範囲401(第2検出部の検出範囲)は、利用者の前後方向において、利用者の目の高さと一致する部分を有しているため、現実に存在する所定物(例えば指先)を視認しながら、動作(ジェスチャ)を行いやすい。従って、所定物の所定動作によって現実の空間の所定位置を指定する操作を実行内容に含む機能に適用して良い。なお、このような場合においては、上記のような仮想オブジェクトH’を表示しない構成として良い。   Pattern 2 is the same as in the second example (FIG. 4), and the predetermined motion of the upper limb can be detected by the imaging range 401 overlapping the display area 321 and the detection area 441 not overlapping the display area 321. In this case, the predetermined function is performed by the predetermined movement of the upper limb in the imaging range 401 to be superimposed on the display area 321. Since the imaging range 401 (the detection range of the second detection unit) has a portion that matches the height of the user's eyes in the front-rear direction of the user, the user can visually recognize a predetermined object (for example, a fingertip) While doing, it is easy to make an action (gesture). Therefore, an operation of specifying a predetermined position in the real space by a predetermined operation of a predetermined object may be applied to the function including in the execution content. In such a case, the virtual object H 'as described above may not be displayed.

パターン3は、第2例(図4)の場合と同様、表示領域321と重畳する撮像範囲401と、表示領域321と重畳しない検出領域441と、によって上肢の所定動作を検出可能である場合である。パターン3は、検出領域441において、上肢の動作による操作を行う際に基準となる仮想平面が、検出範囲441の中心方向Cに所定角度Aで交わるような向き(或いは、上記に示した種々の条件によって規定される向き)に設定されている場合である。   As in the case of the second example (FIG. 4), pattern 3 is a case where the predetermined movement of the upper limb can be detected by the imaging range 401 overlapping with the display area 321 and the detection area 441 not overlapping with the display area 321. is there. In pattern 3, in the detection area 441, a direction in which a virtual plane serving as a reference when performing an operation by the operation of the upper limb intersects the central direction C of the detection range 441 at a predetermined angle A (or various types shown above) It is the case where it is set to the direction specified by the conditions.

パターン4は、第2例(図4)の場合と同様、表示領域321と重畳する撮像範囲401と、表示領域321と重畳しない検出領域441と、によって上肢の所定動作を検出可能である場合である。パターン4は、表示領域321と重畳しない検出領域441において、仮想平面の向きが水平方向となるように設定されている場合である。   As in the case of the second example (FIG. 4), pattern 4 is a case where the predetermined movement of the upper limb can be detected by the imaging range 401 overlapping with the display area 321 and the detection area 441 not overlapping with the display area 321. is there. Pattern 4 is a case where the direction of the virtual plane is set to be the horizontal direction in the detection area 441 which does not overlap with the display area 321.

例えば、利用者が机の上に指を載せた状態で指を動かすことにより操作を行う場合も想定される。このような場合には、パターン4のように、机の上面と仮想平面が平行となるように該仮想平面の向きを変更しても良い。即ち、ウェアラブル装置1は、検出部44(或いは撮像部40)の検出結果から、現実の空間において所定の大きさの面を検出した場合、仮想平面の向きを、該仮想平面が前記検出した面と平行となるような向きに変更する構成を特徴としていても良い。   For example, it is also assumed that the user performs an operation by moving a finger while placing the finger on the desk. In such a case, as in the pattern 4, the direction of the virtual plane may be changed such that the upper surface of the desk and the virtual plane are parallel. That is, when the wearable device 1 detects a surface of a predetermined size in the real space from the detection result of the detection unit 44 (or the imaging unit 40), the virtual plane detects the direction of the virtual plane. It may be characterized in that it is configured to change in a direction parallel to the direction.

これまでに、本発明に係る実施形態を説明してきた。ここで、本実施形態に係るウェアラブル装置1は、撮像部40(第2検出部)の撮像範囲401において上肢を検出可能なウェアラブル装置1であって、また、検出部44の検出範囲441においても上肢を検出可能であることから、上肢を検出可能な範囲が拡張されているものと見なされても良い。このような構成を有することによって、例えば以下のような応用が可能になる。   The embodiments according to the present invention have been described above. Here, the wearable device 1 according to the present embodiment is the wearable device 1 capable of detecting the upper limb in the imaging range 401 of the imaging unit 40 (second detection unit), and also in the detection range 441 of the detection unit 44. Since the upper limbs can be detected, the range in which the upper limbs can be detected may be considered to be expanded. By having such a configuration, for example, the following applications become possible.

図6は、本実施形態におけるウェアラブル装置1の所定機能の実行例を説明するための図である。図6に示す機能は、制御プログラム24aが提供する制御に基づいて実行されるものである。   FIG. 6 is a diagram for explaining an execution example of a predetermined function of the wearable device 1 according to the present embodiment. The functions shown in FIG. 6 are executed based on the control provided by the control program 24a.

図6において、前景(左列)は、利用者がウェアラブル装置1を頭部に装着した状態で、表示部32a及び32bを透して視認している前方の景色である。図6において、右列には、前景に対する、ウェアラブル装置1の撮像範囲401及び検出範囲441の位置の関係を示している。前景に対する撮像範囲401及び検出範囲441の位置は、ウェアラブル装置1を装着する利用者の位置や向きによって変化する。なお、図6に示す例では、ウェアラブル装置1が撮像中である、即ち、撮像部40が前景を撮像し、該撮像した画像を記憶部24に逐次伝送するとともに記憶部21にて一時的に保存している状態にある。   In FIG. 6, the foreground (left row) is a front view viewed through the display portions 32a and 32b in a state where the user wears the wearable device 1 on the head. In FIG. 6, the right column shows the relationship between the position of the imaging range 401 and the detection range 441 of the wearable device 1 with respect to the foreground. The positions of the imaging range 401 and the detection range 441 with respect to the foreground change depending on the position and orientation of the user wearing the wearable device 1. In the example illustrated in FIG. 6, the wearable device 1 is capturing an image, that is, the imaging unit 40 captures an image of the foreground, sequentially transmits the captured image to the storage unit 24 and temporarily It is in the state of saving.

ステップS10において、前景には、撮像部40によって撮像され得る被写体P1と被写体P2とが存在する。利用者は、表示部32a及び32bを透して、被写体P1と被写体P2を視認することができる。利用者は、右手H(上肢)によって被写体P1を撮像の対象として指定している。より具体的には、利用者は、撮像部40又は検出部44の検出における深度方向(検出範囲における略中心の方向)において、右手Hが被写体P1と重畳するように、右手Hを移動している。図6の例では、撮像部40又は検出部44の検出における深度方向と利用者の前後方向(z軸方向)とが略一致している場合を示している。そして、右手Hが被写体P1と重畳している状態を所定時間継続させること等によって、被写体P1を撮像の対象として指定した状態とすることができる。ここで、ウェアラブル装置1は、利用者によって、被写体P1が撮像の対象として指定されたことを記憶する。その後、ウェアラブル装置1の位置や向きが変化した場合には、指定された被写体P1が撮像範囲401内または検出範囲441に在る場合には、被写体P1を検出し続ける。若しくは、ウェアラブル装置1の位置や向きが変化した場合には、該変化に基づいて、ウェアラブル装置1と被写体P1との相対的な位置関係の変化を算出する。これにより、ウェアラブル装置1の位置や向きが変化した後であっても、ウェアラブル装置1は、指定された被写体P1のウェアラブル1に対する位置を認識する。なお、ウェアラブル装置1は、利用者が撮像範囲401又は検出範囲441を視認可能なように、表示領域(図6では不図示)において、撮像範囲401又は検出範囲441の外郭に相当する枠等を表示しても良い。   In step S10, a subject P1 and a subject P2 that can be imaged by the imaging unit 40 exist in the foreground. The user can visually recognize the subject P1 and the subject P2 through the display portions 32a and 32b. The user designates the subject P1 as an imaging target by the right hand H (upper limb). More specifically, the user moves the right hand H so that the right hand H overlaps the subject P1 in the depth direction (the direction of the approximate center of the detection range) in detection by the imaging unit 40 or the detection unit 44. There is. In the example of FIG. 6, the case where the depth direction in detection of the imaging unit 40 or the detection unit 44 substantially matches the front-rear direction (z-axis direction) of the user is shown. Then, by causing the right hand H to overlap the subject P1 for a predetermined time or the like, the subject P1 can be designated as an imaging target. Here, the wearable device 1 stores that the subject P1 has been designated as a target for imaging by the user. Thereafter, when the position or the orientation of the wearable device 1 changes, when the designated subject P1 is in the imaging range 401 or in the detection range 441, the subject P1 is continuously detected. Alternatively, when the position or orientation of the wearable device 1 changes, a change in the relative positional relationship between the wearable device 1 and the subject P1 is calculated based on the change. Thereby, even after the position or orientation of the wearable device 1 changes, the wearable device 1 recognizes the position of the specified subject P1 with respect to the wearable 1. In the display area (not shown in FIG. 6), the wearable device 1 has a frame or the like corresponding to the outer periphery of the imaging range 401 or the detection range 441 so that the user can visually recognize the imaging range 401 or the detection range 441. You may display it.

ステップS11において、利用者は移動、又は、首の向きを変えている。利用者の移動や向きの変更等に伴うウェアラブル装置1の位置や向きの変化等に起因して、撮像範囲401及び検出範囲441の前景に対する位置が、ステップS10の場合に比して変化している。ここで、前景における被写体P1及び被写体P2の位置は変化していないものとする(S11における左列を参照)。ステップS11において、利用者は、撮像部40又は検出部44の検出における深度方向において、右手Hが被写体P2と重畳するように、右手Hを移動させることによって、被写体P2を撮像の対象として指定している。そして、ウェアラブル装置1は、利用者によって、被写体P1が撮像の対象として指定されたことを記憶する。ステップS11に示されるように、ウェアラブル装置1は、被写体P2が撮像範囲401外に在ることを検出している。また、ステップS11において、ウェアラブル装置1は、被写体P2の検出範囲441における位置、或は位置の変化に基づいて、被写体P2が撮像範囲401からどの程度離れた位置に在るのか、又は被写体P2が撮像範囲から離れている状態にあるか、又は被写体P2が撮像範囲401に近づいている状態にあるか、等を推定しても良い。   In step S11, the user moves or turns his / her neck. The positions of the imaging range 401 and the detection range 441 with respect to the foreground are changed as compared with the case of step S10 due to the change of the position and the orientation of the wearable device 1 caused by the movement of the user and the change of the direction. There is. Here, it is assumed that the positions of the subject P1 and the subject P2 in the foreground have not changed (see the left column in S11). In step S11, the user designates the subject P2 as an imaging target by moving the right hand H so that the right hand H overlaps the subject P2 in the depth direction detected by the imaging unit 40 or the detection unit 44. ing. Then, the wearable device 1 stores that the user has designated the subject P1 as an imaging target. As shown in step S11, the wearable device 1 detects that the subject P2 is out of the imaging range 401. In step S11, the wearable device 1 determines how far away the subject P2 is from the imaging range 401 based on the position of the subject P2 in the detection range 441 or a change in the position, or the subject P2 is It may be estimated whether it is in a state of being separated from the imaging range, or in a state of being close to the imaging range 401 or the like.

ステップS12では、前景(左列)において、被写体P2は被写体P1に近づく方向(左方向)に移動している(被写体P2は例えば動物である)。このとき、利用者は、移動した被写体P2の位置の変化を追うように、移動や向きの変更を行い、これに伴って、撮像範囲401及び検出範囲441が左方向へ移動している(右列を参照)。そして、撮像範囲401に被写体P1と被写体P2の双方が撮像範囲401内に在る状態となったことを検出したことに基づいて、ウェアラブル装置1は撮像画像を取得する。   In step S12, in the foreground (left row), the subject P2 is moving in a direction (left direction) approaching the subject P1 (the subject P2 is, for example, an animal). At this time, the user moves and changes the direction so as to follow the change in the position of the moved subject P2, and accordingly, the imaging range 401 and the detection range 441 move in the left direction (right See column). The wearable device 1 acquires a captured image based on the detection that both the subject P1 and the subject P2 are in the imaging range 401 in the imaging range 401.

このような機能を実行することにより、複数の被写体を同時に撮像したい場合であって、少なくとも一の被写体が動物である場合には、複数の被写体の前景における位置を予め検出し、少なくとも一の被写体(動物)が所望とする位置(他の被写体から所定距離以内の位置)へ移動したタイミングでウェアラブル装置1が撮像画像の取得を行うので、利用者がタイミングを計って、操作を行う必要がない。   By performing such a function, when it is desired to simultaneously capture a plurality of subjects, and at least one subject is an animal, the positions of the plurality of subjects in the foreground are detected in advance, and the at least one subject is detected. Since the wearable device 1 acquires a captured image at the timing when the (animal) moves to a desired position (position within a predetermined distance from another subject), the user does not have to measure the timing and perform an operation. .

また、予め、被写体の前景における位置を検出する際に、該検出の範囲を撮像範囲401のみでなく、検出範囲441を加えた範囲に拡張できるので、被写体同士が離れている場合であっても、それぞれの被写体を指定することができる。   In addition, when detecting the position of the subject in the foreground in advance, the detection range can be expanded not only to the imaging range 401 but also to the range including the detection range 441. , Each subject can be specified.

以上のように、本実施形態に係るウェアラブル装置1は、撮像部40と、現実の空間に在る所定物を検出する検出部44と、を備え、検出部44の検出結果に基づいて検出される所定物の所定動作に応じて所定機能を実行可能なウェアラブル装置であって、所定物の所定動作に応じて、検出部の検出範囲内に含まれる少なくとも一つの被写体の指定を受付け、該受付けがなされている状態において、被写体が撮像部40の撮像範囲における所定の位置に移動したことを契機に、撮像部40が撮像する撮像画像を保存(取得)する。   As described above, the wearable device 1 according to the present embodiment includes the imaging unit 40 and the detection unit 44 that detects a predetermined object existing in the real space, and is detected based on the detection result of the detection unit 44. The wearable device is capable of executing a predetermined function according to a predetermined operation of a predetermined object, and receives specification of at least one subject included in the detection range of the detection unit according to the predetermined operation of the predetermined object, and receives the designation When the subject is moved to a predetermined position in the imaging range of the imaging unit 40 in a state where it is being performed, the captured image captured by the imaging unit 40 is stored (acquired).

また、所定物の所定動作に応じて、検出部44の検出範囲内に含まれる複数の被写体の指定を受付け、該受付けがなされている状態において、複数の被写体同士が撮像部40の撮像範囲401において所定の位置関係となったことを契機に、撮像部40が撮像する撮像画像を保存(取得)する。   Further, in accordance with the predetermined operation of the predetermined object, the specification of the plurality of subjects included in the detection range of the detection unit 44 is received, and in the state where the reception is performed, the plurality of subjects are the imaging range 401 of the imaging unit 40 The captured image to be captured by the imaging unit 40 is stored (acquired) when the predetermined positional relationship is reached.

(変形例1)
以上に実施形態を説明してきた。以下に、上記の実施形態における変形例を説明する。
(Modification 1)
The embodiments have been described above. Below, the modification in said embodiment is demonstrated.

図7は、本実施形態における変形例を説明するための図である。上記の実施形態では、検出部44の検出範囲441と撮像部40(第2検出部)の撮像範囲401とを合わせた検出範囲において、上肢の所定動作を検出可能であって、機能の実行内容に応じて、検出範囲を変更する構成を例示したが、上肢の検出を行うための機能部は、これらの組み合わせに限定されない。例えば、図7(a)に示すように、互いに検出範囲の異なる複数の検出部44を備え、互いに異なる検出範囲を合わせた検出範囲(441及び443)において、上肢の所定動作を検出可能であるものとしても良い。そして、複数の検出部44の互いに異なる検出範囲を合わせた検出範囲の内、機能の実行内容に応じて、検出範囲における適用範囲を変更する構成として良い。   FIG. 7 is a view for explaining a modification of the present embodiment. In the above embodiment, the predetermined action of the upper limb can be detected in the detection range in which the detection range 441 of the detection unit 44 and the imaging range 401 of the imaging unit 40 (second detection unit) are combined. Accordingly, the configuration for changing the detection range is illustrated, but the functional unit for detecting the upper limb is not limited to these combinations. For example, as shown in FIG. 7A, a plurality of detection units 44 having different detection ranges are provided, and predetermined movements of the upper limb can be detected in detection ranges (441 and 443) in which different detection ranges are combined. It is good also as a thing. Then, among the detection ranges in which different detection ranges of the plurality of detection units 44 are combined, the application range in the detection range may be changed according to the content of execution of the function.

また、例えば、図7(b)に示すように、一の検出部44を有し、機能の実行内容に応じて、検出部44における検出範囲における検出適用範囲を変更する構成として良い。図7(b)では、検出部44における検出適用範囲が範囲441a(斜線部分)に規定されている例が示されている。   Further, for example, as shown in FIG. 7B, one detection unit 44 may be provided, and the detection application range in the detection range of the detection unit 44 may be changed according to the content of the function execution. FIG. 7B shows an example in which the detection application range in the detection unit 44 is defined in a range 441a (hatched portion).

なお、所定物の検出適用範囲を変更は、例えば、赤外線照射部(又は赤外線撮像部)をウェアラブル装置1に機械的に軸支するように設け、ウェアラブル装置1に対して回動させることによって、赤外線照射部の向きを変更することによって実現されても良い。   The detection application range of the predetermined object can be changed, for example, by mechanically supporting the infrared irradiation unit (or infrared imaging unit) on the wearable device 1 and rotating the wearable device 1 by rotating the wearable device 1. It may be realized by changing the direction of the infrared radiation unit.

また、所定物の検出適用範囲を変更は、赤外線照射範囲(又は赤外線撮像範囲)を変更することによって実現されても良い。この場合、赤外線の照射範囲を変更可能な走査部や偏光部材等が別途ウェアラブル装置1に設けられる。ウェアラブル装置1にプロジェクタを設けることによって、利用者に画像を視認させる構成とした場合に、該プロジェクタの光源から照射される光を二次元的に走査する走査部を、赤外線の照射範囲を変更するための走査部として兼ねても良い。   Also, changing the detection application range of the predetermined object may be realized by changing the infrared radiation range (or infrared imaging range). In this case, the wearable device 1 is separately provided with a scanning unit, a polarization member, and the like capable of changing the irradiation range of infrared light. By providing the projector in the wearable device 1 and changing the irradiation range of the infrared light to the scanning unit that two-dimensionally scans the light emitted from the light source of the projector when the image is made to be viewed by the user You may double as a scanning part for.

図7に例示した構成は、機能の実行内容が、所定物の所定動作によって現実の空間の位置指定を行う操作を含む機能や、所定物の移動の軌跡情報に基づいた操作を含む機能等である場合に、適用可能である。   The configuration illustrated in FIG. 7 is a function in which the execution content of the function includes a function including an operation for specifying the position of the real space by a predetermined operation of a predetermined object, and a function including an operation based on trajectory information of movement of the predetermined object. In some cases, it is applicable.

(変形例2)
上記の実施形態では、図5に示した検出パターン1の適用に際して、検出範囲441における、撮像範囲401と重畳する第1範囲441aにおいて、所定物の所定動作に基づく所定機能(撮像機能)の実行を禁止する構成(第1例(図3参照))を説明したが、このような構成に限定されない。例えば、検出範囲441における、撮像範囲401と重畳する第1範囲441aにおいても、所定物を検出し、該所定物の所定動作に基づく所定機能の実行を行っても良い。
(Modification 2)
In the above embodiment, when the detection pattern 1 shown in FIG. 5 is applied, the execution of the predetermined function (imaging function) based on the predetermined operation of the predetermined object in the first range 441a overlapping the imaging range 401 in the detection range 441 Although the configuration (the first example (see FIG. 3)) for prohibiting the above has been described, the present invention is not limited to such a configuration. For example, a predetermined object may be detected in the first range 441a overlapping the imaging range 401 in the detection range 441, and a predetermined function may be executed based on a predetermined operation of the predetermined object.

応用例としては、例えば、検出範囲441と撮像範囲401との相互の位置関係が予め記憶されている状態において、第1範囲441aにおける上肢の位置を、撮像部40ではなく検出部44によって検出し、そして、検出範囲44における上肢の位置に基づいて、撮像範囲401における上肢の位置を推定する構成が採用されて良い。   As an application example, for example, in a state where the relative positional relationship between the detection range 441 and the imaging range 401 is stored in advance, the position of the upper limb in the first range 441a is detected by the detection unit 44 instead of the imaging unit 40 Then, based on the position of the upper limb in the detection range 44, a configuration may be adopted in which the position of the upper limb in the imaging range 401 is estimated.

この場合、ウェアラブル装置1は、撮像部40による合焦処理の適用範囲を、ウェアラブル装置1から所定距離以上前方の空間となるように予め設定している。そして、ウェアラブル装置1は、検出部44の検出結果に基づいて推定される、撮像範囲401における上肢の位置を中心として、該中心近傍の被写体に焦点を合わせるようにして良い。ここで、「所定距離以上前方」との事項における、「所定距離」とは、ウェアラブル装置1の前方において、利用者の上肢が存在し得る空間に基づく距離であり、例えば、ウェアラブル装置1から前方50cmまでの距離である。従って、ウェアラブル装置1には、撮像部40による合焦処理を実行するに際して、利用者の上肢を合焦対象とし得ない設定が予めなされている。このような条件において、ウェアラブル装置1は、上肢の位置に基づく合焦位置の指定を可能にしつつも、上肢を合焦対象とし得ない範囲にて、合焦処理を実行できるため、該上肢に合焦されてしまう、といったことを防ぐことができる。   In this case, the wearable device 1 sets in advance the application range of the focusing process by the imaging unit 40 to be a space ahead of the wearable device 1 by a predetermined distance or more. Then, the wearable device 1 may focus on a subject in the vicinity of the center with the position of the upper limb in the imaging range 401 estimated on the basis of the detection result of the detection unit 44. Here, the “predetermined distance” in the term “predetermined distance or more forward” is a distance based on a space where the user's upper limb may exist in front of the wearable device 1, for example, from the wearable device 1 forward The distance is up to 50 cm. Therefore, in the wearable device 1, when performing the focusing process by the imaging unit 40, the setting in which the upper limb of the user can not be set as the focusing target is set in advance. Under such conditions, the wearable device 1 can execute the focusing process in a range where the upper limb can not be focused while being able to specify the in-focus position based on the position of the upper limb. It is possible to prevent being in focus.

本発明を諸図面や実施形態に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。従って、これらの変形や修正は本発明の範囲に含まれることに留意されたい。さらに、本明細書において開示される全ての技術的事項は、矛盾しないように再配置可能であり、複数の構成部を1つに組み合わせたり、或いは分割したりすることが可能である。   Although the present invention has been described based on the drawings and embodiments, it should be noted that those skilled in the art can easily make various changes and modifications based on the present disclosure. Therefore, it should be noted that these variations and modifications are included in the scope of the present invention. Furthermore, all the technical matters disclosed in the present specification can be rearranged without contradiction, and a plurality of components can be combined or divided into one.

上記の実施形態では、ウェアラブル装置1が、眼鏡形状を有する例を示してきたが、ウェアラブル装置1の形状はこれに限定されない。例えば、ウェアラブル装置1は、ユーザの頭部のほぼ上半分を覆うようなヘルメットタイプの形状を有していても良い。或いは、ウェアラブル装置1は、ユーザの顔面のほぼ全体を覆うようなマスクタイプの形状を有していても良い。   In the above embodiment, although the example in which the wearable device 1 has an eyeglass shape has been shown, the shape of the wearable device 1 is not limited to this. For example, the wearable device 1 may have a helmet type shape that covers approximately the upper half of the user's head. Alternatively, the wearable device 1 may have a mask type shape that covers substantially the entire face of the user.

また、上記の実施形態では、表示部32がユーザの左右の目の前に設けられる一対の表示部32a、32bを有している構成を例示してきたが、これに限定されず、表示部32は、ユーザの左右の目の内の一方の前に設けられる一つの表示部を有している構成であっても良い。   Moreover, although said embodiment illustrated the structure which has a pair of display part 32a, 32b in which the display part 32 is provided in front of a user's left and right eyes, it is not limited to this, The display part 32 May be configured to have one display unit provided in front of one of the left and right eyes of the user.

また、上記の実施形態では、正面部の縁部が、表示部32の表示領域の縁の全周を囲っている構成を例示してきたが、これに限定されず、表示部32の表示領域の縁の一部のみを囲っている構成であっても良い。   Moreover, in the above embodiment, the edge of the front part exemplifies a configuration in which the entire circumference of the edge of the display area of the display unit 32 is surrounded, but the present invention is not limited thereto. It may be configured to surround only part of the edge.

また、上記の実施形態では、図4を参照して説明したように、実行する機能が撮像機能や文字入力機能(上肢の移動の軌跡情報に基づく操作を含む機能)である場合には、上肢を検出するための検出適用範囲を表示視認範囲とし、一方で、実行する機能が現実の空間の所定位置を指定する操作を含む機能である場合には、上肢を検出するための検出適用範囲を、表示視認範囲を除いた範囲とする構成を示したが、機能の実行内容と、検出適用範囲との組み合わせ、上記のものに限定されない。他の種々の実行内容を含む如何なる機能に対しても、該機能に適した検出範囲が適用される。   In the above embodiment, as described with reference to FIG. 4, if the function to be performed is an imaging function or a character input function (a function including an operation based on trajectory information of movement of the upper limb), the upper limb In the case where the detection application range for detecting an object is a display visual range, while the function to be performed is a function including an operation of designating a predetermined position in a real space, the detection application range for detecting an upper limb is Although the configuration in which the display visual recognition range is excluded is shown, the combination of the function execution content and the detection application range is not limited to the above. For any function including various other execution contents, a detection range suitable for the function is applied.

また、上記の実施形態では、所定物として上肢を検出する構成を示したが、これに限定されない。例えば、所定物は、利用者の身体ではない、利用者が把持する物(例えば、ペン等の棒状の物)であってよい。また、ここで利用者が把持する物は、携帯電話等の携帯電子機器であったり、利用者の上肢に装着される腕時計型端末等の電子機器であっても良い。   Moreover, in said embodiment, although the structure which detects an upper limb as a predetermined thing was shown, it is not limited to this. For example, the predetermined object may be an object (eg, a rod-like object such as a pen) grasped by the user that is not the user's body. The object held by the user here may be a portable electronic device such as a mobile phone or an electronic device such as a watch-type terminal worn on the upper limb of the user.

また、上記の実施形態では、利用者の上肢として手や指を撮像部40(或いは検出部44)によって検出する構成を示したが、手や指は、手袋やグローブ等が装着されている状態であっても検出可能である。   Further, in the above embodiment, the configuration in which the hand or finger is detected by the imaging unit 40 (or the detection unit 44) as the upper limb of the user is shown, but the hand or finger is wearing a glove or glove Even if it is detectable.

上記の実施形態では、ウェアラブル装置1の構成と動作について説明したが、これに限定されず、各構成要素を備える方法やプログラムとして構成されても良い。   Although the above-mentioned embodiment explained composition and operation of wearable device 1, it is not limited to this, but may be constituted as a method and program provided with each component.

1 ウェアラブル装置
1a 前面部
1b 側面部
1c 側面部
13 操作部
22 制御部
24 記憶部
24a 制御プログラム
24b 撮像データ
25 検出処理部
26 表示制御部
32a、32b 表示部
40、42 撮影部
44 検出部
DESCRIPTION OF SYMBOLS 1 wearable device 1a front face part 1b side face part 1c side face part 13 operation part 22 control part 24 control part 24 storage part 24a control program 24b imaging data 25 detection processing part 26 display control part 32a, 32b display part 40, 42 photographing part 44 detection part

Claims (12)

現実の空間に在る所定物を検出する検出部を備え、
前記検出部によって検出される、前記所定物の所定動作に応じて所定機能を実行する、頭部に装着されるウェアラブル装置であって、
前記所定機能を起動すると、該所定機能の実行内容に応じて、前記検出部の検出適用範囲を変更する
ウェアラブル装置。
A detection unit for detecting a predetermined object existing in the real space;
A wearable device worn on a head that performs a predetermined function according to a predetermined operation of the predetermined object detected by the detection unit,
A wearable device, which, upon activating the predetermined function, changes a detection application range of the detection unit according to the content of execution of the predetermined function.
前記所定機能の実行内容が、前記所定物の所定動作によって現実の空間の位置指定を行う操作を含むか否かを判定し、該判定結果によって、前記検出適用範囲を変更する
請求項1に記載のウェアラブル装置。
It is determined whether or not the content of execution of the predetermined function includes an operation for specifying the position of the actual space by the predetermined operation of the predetermined object, and the detection application range is changed according to the determination result. Wearable devices.
所定の表示領域を有した表示部を備え、
前記所定機能の実行内容が、前記所定物の所定動作によって現実の空間の位置指定を行う操作を含む場合には、
利用者によって前記表示領域を視認し得る表示視認範囲を、前記検出適用範囲とする
請求項2に記載のウェアラブル装置。
A display unit having a predetermined display area;
In the case where the content of execution of the predetermined function includes an operation of specifying the position of the actual space by the predetermined operation of the predetermined object,
The wearable device according to claim 2, wherein a display visual recognition range in which the user can visually recognize the display area is set as the detection application range.
前記所定機能の実行内容が、前記所定物の移動の軌跡情報に基づいた操作を含むか否かを判定し、該判定結果によって、前記検出適用範囲を変更する
請求項1に記載のウェアラブル装置。
The wearable device according to claim 1, wherein it is determined whether the content of execution of the predetermined function includes an operation based on movement trajectory information of the predetermined object, and the detection application range is changed according to the determination result.
所定の表示領域を有した表示部と、
利用者によって前記表示領域を視認し得る表示視認範囲を規定する制御部と、を備え、
前記所定機能の実行内容が、前記所定物の移動の軌跡情報に基づいた操作を含む場合には、
前記検出部の検出可能な範囲の内、前記表示視認範囲と重ならない範囲を、前記検出適用範囲とする
請求項4に記載のウェアラブル装置。
A display unit having a predetermined display area;
A control unit that defines a display visual recognition range in which the user can visually recognize the display area;
When the content of execution of the predetermined function includes an operation based on trajectory information of movement of the predetermined object,
The wearable device according to claim 4, wherein a range not overlapping with the display visual range within the detectable range of the detection unit is set as the detection application range.
前記検出適用範囲は、前記表示視認範囲よりも下方に位置する
請求項5に記載のウェアラブル装置。
The wearable device according to claim 5, wherein the detection application range is located below the display visual range.
制御部を備え、
前記検出部は、現実の空間を3次元的に検出可能であり、
前記制御部は、前記検出部の3次元的な検出範囲内において、仮想平面を規定し、
現実の空間における前記所定物の位置を検出するとともに、該位置を、前記仮想平面に対して、該仮想平面と垂直な方向から投影した場合に、該仮想平面に投影される投影位置を検出し、
前記仮想平面における、前記投影位置に基づいて、前記所定機能を実行する
請求項1に記載のウェアラブル装置。
Equipped with a control unit,
The detection unit can three-dimensionally detect a real space,
The control unit defines a virtual plane within a three-dimensional detection range of the detection unit,
While detecting the position of the predetermined object in the real space, when the position is projected from the direction perpendicular to the virtual plane with respect to the virtual plane, a projection position projected onto the virtual plane is detected. ,
The wearable device according to claim 1, wherein the predetermined function is performed based on the projection position on the virtual plane.
所定の表示範囲を有する表示部を備え、
前記制御部は、前記仮想平面の座標と、前記表示範囲における所定範囲の座標とを対応付け、
前記表示範囲における前記投影位置に対応した位置に前記所定物の形状に基づく仮想オブジェクトを表示する
請求項7に記載のウェアラブル装置。
And a display unit having a predetermined display range,
The control unit associates the coordinates of the virtual plane with the coordinates of a predetermined range in the display range,
The wearable device according to claim 7, wherein a virtual object based on the shape of the predetermined object is displayed at a position corresponding to the projection position in the display range.
撮像部と、
現実の空間に在る所定物を検出する検出部と、を備え、
前記検出部によって検出される、前記所定物の所定動作に応じて所定機能を実行するウェアラブル装置であって、
前記所定物の所定動作に応じて、前記検出部の検出範囲内に含まれる少なくとも一つの被写体の指定を受付け、該受付けがなされている状態において、前記被写体が前記撮像部の撮像範囲における所定の位置に移動したことを契機に、該撮像部が撮像する撮像画像を保存する
ウェアラブル装置。
An imaging unit,
A detection unit for detecting a predetermined object existing in the real space;
A wearable device that executes a predetermined function according to a predetermined operation of the predetermined object detected by the detection unit,
In accordance with the predetermined operation of the predetermined object, the designation of at least one subject included in the detection range of the detection unit is received, and in the state where the reception is performed, the subject is a predetermined one in the imaging range of the imaging unit The wearable device stores a captured image captured by the imaging unit in response to movement to a position.
前記所定物の所定動作に応じて、前記検出部の検出範囲内に含まれる複数の被写体の指定を受付け、該受付けがなされている状態において、前記複数の被写体同士が前記撮像部の撮像範囲において所定の位置関係となったことを契機に、該撮像部が撮像する撮像画像を保存する
請求項9に記載のウェアラブル装置。
In accordance with a predetermined operation of the predetermined object, specification of a plurality of subjects included in the detection range of the detection unit is received, and in a state where the reception is performed, the plurality of subjects are in the imaging range of the imaging unit The wearable device according to claim 9, wherein the captured image captured by the imaging unit is stored when the predetermined positional relationship is reached.
撮像部と、
現実の空間に在る所定物を検出する検出部と、を備え、
前記撮像部が撮像中のときは、
前記検出部の検出範囲における、前記撮像部の撮像範囲と重畳しない範囲において、前記所定動作を検出したことに基づいて、前記撮像部の機能に係る処理を実行する
ウェアラブル装置。
An imaging unit,
A detection unit for detecting a predetermined object existing in the real space;
When the imaging unit is in imaging,
A wearable device that executes processing related to a function of the imaging unit based on detection of the predetermined operation in a range not overlapping with an imaging range of the imaging unit in a detection range of the detection unit.
撮像部と、
表示部と、
現実の空間に在る所定物の所定動作を検出する検出部と、を備え、
前記撮像部が撮像中のときは、
前記表示部の表示領域における前記撮像部の撮像範囲と重畳しない所定領域において、前記所定動作を検出したことに基づいて、前記撮像部の機能に係る処理を実行する
ウェアラブル装置。
An imaging unit,
A display unit,
A detection unit for detecting a predetermined movement of a predetermined object existing in the real space;
When the imaging unit is in imaging,
A wearable device, which executes processing related to a function of the imaging unit based on detection of the predetermined operation in a predetermined area not overlapping the imaging range of the imaging unit in a display area of the display unit.
JP2019021054A 2019-02-07 2019-02-07 Wearable devices, control methods and control programs Active JP6817350B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019021054A JP6817350B2 (en) 2019-02-07 2019-02-07 Wearable devices, control methods and control programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019021054A JP6817350B2 (en) 2019-02-07 2019-02-07 Wearable devices, control methods and control programs

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015091575A Division JP6483514B2 (en) 2015-04-28 2015-04-28 Wearable device, control method, and control program

Publications (2)

Publication Number Publication Date
JP2019075175A true JP2019075175A (en) 2019-05-16
JP6817350B2 JP6817350B2 (en) 2021-01-20

Family

ID=66544703

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019021054A Active JP6817350B2 (en) 2019-02-07 2019-02-07 Wearable devices, control methods and control programs

Country Status (1)

Country Link
JP (1) JP6817350B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024076039A1 (en) * 2022-10-06 2024-04-11 재단법인 아산사회복지재단 Haptic feedback device and method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008134452A (en) * 2006-11-28 2008-06-12 Sky Kk Imaging apparatus and photographing control program for imaging apparatus
JP2012235225A (en) * 2011-04-28 2012-11-29 Olympus Imaging Corp Imaging apparatus and image data recording method
WO2014045683A1 (en) * 2012-09-21 2014-03-27 ソニー株式会社 Control device and recording medium
WO2015041405A1 (en) * 2013-09-23 2015-03-26 Samsung Electronics Co., Ltd. Display apparatus and method for motion recognition thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008134452A (en) * 2006-11-28 2008-06-12 Sky Kk Imaging apparatus and photographing control program for imaging apparatus
JP2012235225A (en) * 2011-04-28 2012-11-29 Olympus Imaging Corp Imaging apparatus and image data recording method
WO2014045683A1 (en) * 2012-09-21 2014-03-27 ソニー株式会社 Control device and recording medium
WO2015041405A1 (en) * 2013-09-23 2015-03-26 Samsung Electronics Co., Ltd. Display apparatus and method for motion recognition thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024076039A1 (en) * 2022-10-06 2024-04-11 재단법인 아산사회복지재단 Haptic feedback device and method

Also Published As

Publication number Publication date
JP6817350B2 (en) 2021-01-20

Similar Documents

Publication Publication Date Title
JP6393367B2 (en) Tracking display system, tracking display program, tracking display method, wearable device using them, tracking display program for wearable device, and operation method of wearable device
US9728010B2 (en) Virtual representations of real-world objects
US9779512B2 (en) Automatic generation of virtual materials from real-world materials
US10429941B2 (en) Control device of head mounted display, operation method and operation program thereof, and image display system
US10477090B2 (en) Wearable device, control method and non-transitory storage medium
US20140152558A1 (en) Direct hologram manipulation using imu
ES2742416T3 (en) Corneal imaging device and method
WO2018076202A1 (en) Head-mounted display device that can perform eye tracking, and eye tracking method
CN114127669A (en) Trackability enhancement for passive stylus
JP6483514B2 (en) Wearable device, control method, and control program
CN115053270A (en) System and method for operating a head mounted display system based on user identity
JP2017191546A (en) Medical use head-mounted display, program of medical use head-mounted display, and control method of medical use head-mounted display
JP6446465B2 (en) I / O device, I / O program, and I / O method
JP6817350B2 (en) Wearable devices, control methods and control programs
CN103713387A (en) Electronic device and acquisition method
JP6479835B2 (en) I / O device, I / O program, and I / O method
JP2017111537A (en) Head-mounted display and program for head-mounted display
JP2018018449A (en) Information processing system, operation method, and operation program
JP2016133541A (en) Electronic spectacle and method for controlling the same
JP6479836B2 (en) I / O device, I / O program, and I / O method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200421

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201224

R150 Certificate of patent or registration of utility model

Ref document number: 6817350

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150