JP2014022937A - Head-mounted information input/output device and head-mounted information input/output method - Google Patents

Head-mounted information input/output device and head-mounted information input/output method Download PDF

Info

Publication number
JP2014022937A
JP2014022937A JP2012159684A JP2012159684A JP2014022937A JP 2014022937 A JP2014022937 A JP 2014022937A JP 2012159684 A JP2012159684 A JP 2012159684A JP 2012159684 A JP2012159684 A JP 2012159684A JP 2014022937 A JP2014022937 A JP 2014022937A
Authority
JP
Japan
Prior art keywords
user
image
display unit
eye
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012159684A
Other languages
Japanese (ja)
Inventor
Satoshi Ejima
聡 江島
Shigeru Kato
茂 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012159684A priority Critical patent/JP2014022937A/en
Publication of JP2014022937A publication Critical patent/JP2014022937A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a head-mounted information input/output device and a head-mounted information input/output method that are capable of reducing power consumption.SOLUTION: A head-mounted information input/output device comprises: a display unit that displays an image; a holding unit that holds the display unit in the vicinity of a user's eye; a plurality of illumination units that are provided on the display unit, and illuminate the vicinity of the user's eye; and a control unit that controls lighting states of the plurality of illumination units in accordance with a positional relationship between the user and the display unit.

Description

本発明は、頭部装着型情報入出力装置、及び頭部装着型情報入出力方法に関する。   The present invention relates to a head-mounted information input / output device and a head-mounted information input / output method.

近年、ユーザーの視線や注視点を検出する技術が提案されている。このような技術は、カメラのファインダーに用いられることがある。特許文献1に開示された視線検出装置では、撮影者の眼球像を検出するための照明光源が、カメラのファインダー内の接眼レンズの周りに配置されている。この照明光源から照射された光が撮影者の眼球で反射され、この反射された光を、ファインダー内に配置されているイメージセンサーが受光することで、撮影者の眼球像、つまり、視線が検出される。   In recent years, a technique for detecting a user's line of sight or a gazing point has been proposed. Such a technique may be used for a camera finder. In the line-of-sight detection device disclosed in Patent Literature 1, an illumination light source for detecting a photographer's eyeball image is arranged around an eyepiece lens in a camera finder. The light emitted from this illumination light source is reflected by the photographer's eyeball, and this reflected light is received by the image sensor arranged in the viewfinder, thereby detecting the photographer's eyeball image, that is, the line of sight. Is done.

特開平6−138375号公報JP-A-6-138375

しかしながら、このような装置では、撮影者の眼球像、つまり、視線を検出するための照明光源の消費電力が大きいという問題がある。   However, such an apparatus has a problem that the power consumption of the illumination light source for detecting the eyeball image of the photographer, that is, the line of sight is large.

本発明は、上記の事情に鑑み成されたものであって、消費電力を低減することができる頭部装着型情報入出力装置、及び頭部装着型情報入出力方法を提供することを目的としている。   The present invention has been made in view of the above circumstances, and aims to provide a head-mounted information input / output device and a head-mounted information input / output method that can reduce power consumption. Yes.

上記目的を達成するため、本発明の一態様に係る頭部装着型情報入出力装置は、画像を表示する表示部と、ユーザーの眼の近傍に前記表示部を保持する保持部と、前記表示部に設けられ、前記ユーザーの眼の近傍を照明する複数の照明部と、前記ユーザーと前記表示部との位置関係に応じて、前記複数の照明部の点灯状態を制御する制御部と、を備えることを特徴としている。   To achieve the above object, a head-mounted information input / output device according to an aspect of the present invention includes a display unit that displays an image, a holding unit that holds the display unit in the vicinity of a user's eye, and the display. A plurality of illumination units that illuminate the vicinity of the user's eyes, and a control unit that controls lighting states of the plurality of illumination units according to a positional relationship between the user and the display unit. It is characterized by providing.

上記目的を達成するため、本発明の一態様に係る頭部装着型情報入出力方法は、頭部装着型情報入出力装置における頭部装着型情報入出力方法であって、画像を表示する表示部に設けられた複数の照明部が、ユーザーの眼の近傍を照明する手順と、制御部が、前記ユーザーと前記表示部との位置関係に基づいて、前記複数の照明部の点灯状態を制御する制御手順と、を含むことを特徴としている。   In order to achieve the above object, a head-mounted information input / output method according to an aspect of the present invention is a head-mounted information input / output method in a head-mounted information input / output device, which displays an image. A plurality of illumination units provided in the unit illuminate the vicinity of the user's eyes, and the control unit controls the lighting state of the plurality of illumination units based on the positional relationship between the user and the display unit And a control procedure to be performed.

本発明によれば、頭部装着型情報入出力装置は、消費電力を低減することができる。   According to the present invention, the head-mounted information input / output device can reduce power consumption.

第1実施形態のヘッドマウントディスプレイの斜視図である。It is a perspective view of the head mounted display of a 1st embodiment. 第1実施形態に係るヘッドマウントディスプレイを背面側から見た斜視図である。It is the perspective view which looked at the head mounted display concerning a 1st embodiment from the back side. 第1実施形態に係るディスプレイ本体の水平断面図である。It is a horizontal sectional view of the display main part concerning a 1st embodiment. 第1実施形態に係るヘッドバンドの動作説明図である。It is operation | movement explanatory drawing of the headband which concerns on 1st Embodiment. 第1実施形態に係るヘッドマウントディスプレイの装着形態(第1表示モード)を示す図である。It is a figure which shows the mounting | wearing form (1st display mode) of the head mounted display which concerns on 1st Embodiment. 第1実施形態に係るヘッドマウントディスプレイに付属のステレオイヤホンを示す斜視図である。It is a perspective view which shows the stereo earphone attached to the head mounted display which concerns on 1st Embodiment. 第1実施形態に係る眼球照明ライトの点灯と消灯を説明する図である。It is a figure explaining lighting and extinction of the eyeball illumination light concerning a 1st embodiment. 第1実施形態に係る表示部の構成及び光学系を説明するための表示部の断面図である。It is sectional drawing of the display part for demonstrating the structure and optical system of a display part which concern on 1st Embodiment. 第1〜第3観察状態のそれぞれにおける表示領域の違いを説明する図である。It is a figure explaining the difference of the display area in each of the 1st-3rd observation state. 第1観察状態における観察範囲と撮像範囲を説明する図である。It is a figure explaining the observation range and imaging range in a 1st observation state. 第1観察状態における撮像画像の一例を説明する図である。It is a figure explaining an example of the captured image in the 1st observation state. 第2観察状態における撮像画像の一例を説明する図である。It is a figure explaining an example of the captured image in the 2nd observation state. 第2観察状態における観察範囲と撮像範囲を説明する図である。It is a figure explaining the observation range and imaging range in a 2nd observation state. 第3観察状態における撮像画像の一例を説明する図である。It is a figure explaining an example of the captured image in the 3rd observation state. 第3観察状態における観察範囲と撮像範囲を説明する図である。It is a figure explaining the observation range and imaging range in a 3rd observation state. 眼の正面に表示部を配置して眼を含む周辺の画像を撮像する例を説明する図である。It is a figure explaining the example which arrange | positions a display part in front of eyes and images the surrounding image containing eyes. 第1実施形態に係る眼の下側に表示部を配置して眼を下から撮像する例を説明する図である。It is a figure explaining the example which arrange | positions a display part to the lower side of the eye which concerns on 1st Embodiment, and images an eye from the bottom. 第1実施形態に係る撮像素子の画角と選択範囲を説明する図である。It is a figure explaining the angle of view and selection range of the image sensor concerning a 1st embodiment. 第1実施形態に係る撮像領域と選択領域を説明する図である。It is a figure explaining the imaging area and selection area concerning a 1st embodiment. 第1実施形態に係る選択範囲の選択を機械的に行う機構を説明する図である。It is a figure explaining the mechanism which performs selection of the selection range concerning a 1st embodiment mechanically. 第1実施形態に係るヘッドマウントディスプレイの機能ブロック図である。It is a functional block diagram of the head mounted display concerning a 1st embodiment. 第1実施形態に係る処理部の機能ブロック図である。It is a functional block diagram of the process part which concerns on 1st Embodiment. 第1実施形態に係るHMDの電源オン状態後に行う動作のフローチャートである。It is a flowchart of the operation | movement performed after the power supply state of HMD which concerns on 1st Embodiment. 第1実施形態に係る左右の眼の検出処理手順のフローチャートである。It is a flowchart of the detection process procedure of the right and left eyes which concerns on 1st Embodiment. 右眼観察形態の場合の撮像範囲Sの撮像画像の一例を説明する図である。It is a figure explaining an example of the picked-up image of the imaging range S in the case of a right eye observation form. 左眼観察形態の場合の撮像範囲Sの撮像画像の一例を説明する図である。It is a figure explaining an example of the captured image of the imaging range S in the case of a left eye observation form. 左眼観察形態における撮像画像の一例を説明する図である。It is a figure explaining an example of the captured image in a left-eye observation form. 第1実施形態に係るHMDの装着ガイドの処理手順のフローチャートである。It is a flowchart of the process sequence of the mounting guide of HMD which concerns on 1st Embodiment. 第1実施形態に係るHMDの眼球照明ライトの選択処理手順のフローチャートである。It is a flowchart of the selection processing procedure of the HMD eyeball illumination light according to the first embodiment. 第1実施形態に係る「注視点検出のためのキャリブレーション」との比較例としてのキャリブレーション例について説明する図である。It is a figure explaining the example of calibration as a comparative example with "Calibration for gaze point detection" concerning a 1st embodiment. 第1実施形態に係る注視点検出のためのキャリブレーションの手順のフローチャートである。It is a flowchart of the procedure of the calibration for the gaze point detection which concerns on 1st Embodiment. 第1実施形態に係る注視点検出のためのキャリブレーションの手順のフローチャートである。It is a flowchart of the procedure of the calibration for the gaze point detection which concerns on 1st Embodiment. 第1実施形態に係る右眼観察形態における眼球照明ライトの点灯、消灯を説明する図である。It is a figure explaining lighting and extinguishing of the eyeball illumination light in the right eye observation mode according to the first embodiment. 第1実施形態に係る表示部の位置と眼球照明ライトの関係を説明する図であり、ユーザーの顔を水平正面から見た図である。It is a figure explaining the relationship between the position of the display part which concerns on 1st Embodiment, and an eyeball illumination light, and is the figure which looked at the user's face from the horizontal front. 第1実施形態に係るパスワード入力画面の一例である。It is an example of the password input screen which concerns on 1st Embodiment. 第1実施形態に係るメニュー画面の一例を示す図である。It is a figure which shows an example of the menu screen which concerns on 1st Embodiment. 第1実施形態に係るユーザーに入力を促す画面の一例である。It is an example of the screen which prompts the user who concerns on 1st Embodiment. 第1実施形態に係る視線入力のアプリケーションの画面の説明を行う図である。It is a figure explaining the screen of the application of the eyes | visual_axis input which concerns on 1st Embodiment. 第2実施形態に係るヘッドマウントディスプレイの装着形態(第2表示モード、待避モード)を示す図である。It is a figure which shows the mounting form (2nd display mode, retreat mode) of the head mounted display which concerns on 2nd Embodiment. 第2実施形態に係る表示部の位置と眼球照明ライトの関係を説明する図であり、ユーザーの顔を水平正面から見た図である。It is a figure explaining the relationship between the position of the display part which concerns on 2nd Embodiment, and an eyeball illumination light, and is the figure which looked at the user's face from the horizontal front. 第2実施形態に係るHMDの眼球照明ライトの選択処理手順のフローチャートである。It is a flowchart of the selection processing procedure of the eyeball illumination light of HMD which concerns on 2nd Embodiment. 第3実施形態に係る眼球照明ライトの配置を説明する図である。It is a figure explaining arrangement | positioning of the eyeball illumination light which concerns on 3rd Embodiment. 第3実施形態に係る表示部の位置と眼球照明ライトの関係を説明する図であり、ユーザーの顔を水平正面から見た図である。It is a figure explaining the relationship between the position of the display part which concerns on 3rd Embodiment, and an eyeball illumination light, and is the figure which looked at the user's face from the horizontal front. 第4実施形態に係る光学系を説明するための表示部の断面図である。It is sectional drawing of the display part for demonstrating the optical system which concerns on 4th Embodiment. 第4実施形態に係る観察範囲と撮像範囲を説明する図である。It is a figure explaining the observation range and imaging range which concern on 4th Embodiment.

本実施形態に係るヘッドマウントディスプレイ(頭部装着型情報入出力装置)は、ユーザーの眼を照明するための複数の照明部を、表示部の近傍に備える。ヘッドマウントディスプレイは、これら複数の照明部の点灯状態を、ユーザーと表示部との位置関係に応じて制御する。すなわち、ヘッドマウントディスプレイは、ユーザーと表示部との位置関係に応じて、点灯させる照明部を選択する。これにより、ヘッドマウントディスプレイは、表示部がユーザーの眼に対して下側、上側又は外側のいずれに配置された場合でも、ユーザーの観察している視線や注視点を、検出することができる。
以下、情報出力装置をヘッドマウントディスプレイに適用した例について説明するが、本発明はこれに限られない。
The head mounted display (head-mounted information input / output device) according to the present embodiment includes a plurality of illumination units for illuminating the user's eyes in the vicinity of the display unit. The head mounted display controls the lighting state of the plurality of illumination units according to the positional relationship between the user and the display unit. That is, the head mounted display selects the illumination unit to be turned on according to the positional relationship between the user and the display unit. Accordingly, the head mounted display can detect the line of sight and the gazing point observed by the user regardless of whether the display unit is disposed on the lower side, the upper side, or the outer side with respect to the user's eyes.
Hereinafter, an example in which the information output apparatus is applied to a head mounted display will be described, but the present invention is not limited to this.

以下、本発明の実施形態について図面を参照しながら説明する。
以下の説明においては、必要に応じてXYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ、ヘッドマウントディスプレイの各部の位置関係について説明する。水平面内の所定方向をX軸方向、水平面内においてX軸方向と直交する方向をY軸方向、X軸方向及びY軸方向のそれぞれと直交する方向(すなわち鉛直方向)をZ軸方向とする。また、X軸、Y軸、及びZ軸まわりの回転(傾斜)方向をそれぞれ、θX、θY、及びθZ方向とする。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
In the following description, an XYZ rectangular coordinate system is set as necessary, and the positional relationship of each part of the head mounted display will be described with reference to the XYZ rectangular coordinate system. A predetermined direction in the horizontal plane is defined as an X-axis direction, a direction orthogonal to the X-axis direction in the horizontal plane is defined as a Y-axis direction, and a direction orthogonal to each of the X-axis direction and the Y-axis direction (that is, a vertical direction) is defined as a Z-axis direction. Further, the rotation (inclination) directions around the X axis, Y axis, and Z axis are the θX, θY, and θZ directions, respectively.

[第1実施形態]
図1は、本実施形態に係るヘッドマウントディスプレイ(頭部装着装置、以下、HMDともいう)1の斜視図である。図2は、本実施形態に係るヘッドマウントディスプレイ1を背面側から見た斜視図である。図3は、本実施形態に係るディスプレイ本体20の水平断面図である。図4は、本実施形態に係るヘッドバンドの動作説明図である。図5は、本実施形態に係るヘッドマウントディスプレイの装着形態(第1表示モード)を示す図である。
[First Embodiment]
FIG. 1 is a perspective view of a head mounted display (head mounted device, hereinafter also referred to as HMD) 1 according to the present embodiment. FIG. 2 is a perspective view of the head mounted display 1 according to the present embodiment as viewed from the back side. FIG. 3 is a horizontal sectional view of the display main body 20 according to the present embodiment. FIG. 4 is an explanatory diagram of the operation of the headband according to the present embodiment. FIG. 5 is a diagram illustrating a mounting mode (first display mode) of the head mounted display according to the present embodiment.

HMD1は、ディスプレイ本体20と、ユーザーの頭部に装着されディスプレイ本体20を支持するヘッドバンド40と、を備えた単眼式のヘッドマウントディスプレイである。本実施形態のHMD1は、図5に示すように、両眼どちらでも使用可能である。図5(A)には、ユーザーが右眼(右目)で表示部60を見ている状態、図5(B)には左眼(左目)で見ている状態が示されている。
また、図2に示すように、ディスプレイ本体20とヘッドバンド40とは、連結ピン41を介して着脱可能に構成されている。なお、図1及び図2では、ディスプレイ本体20の長手方向をY軸方向、ヘッドバンド40がユーザーの頭部を挟持する方向をX軸方向としている。
The HMD 1 is a monocular head mounted display that includes a display main body 20 and a headband 40 that is attached to the user's head and supports the display main body 20. The HMD 1 of the present embodiment can be used with either eye as shown in FIG. FIG. 5A shows a state where the user is viewing the display unit 60 with the right eye (right eye), and FIG. 5B shows a state where the user is viewing with the left eye (left eye).
As shown in FIG. 2, the display main body 20 and the headband 40 are configured to be detachable via a connecting pin 41. 1 and 2, the longitudinal direction of the display main body 20 is defined as the Y-axis direction, and the direction in which the headband 40 sandwiches the user's head is defined as the X-axis direction.

以下、HMD1の各部の構成について詳細に説明する。
ディスプレイ本体20は、主要回路を内蔵するとともに操作部や各種インタフェースを備えた装置本体部21と、装置本体部21の先端に連結された表示部60とを有する。
Hereinafter, the configuration of each part of the HMD 1 will be described in detail.
The display main body 20 includes a device main body 21 that includes a main circuit and includes an operation unit and various interfaces, and a display unit 60 that is connected to the tip of the device main body 21.

装置本体部21は、概略板状の筐体21A(図3参照)を有する。本実施形態では、装置本体部21においてヘッドバンド40との接続部が設けられている側の端部(+Y側の端部)を基端部とし、この基端部と反対側の端部(−Y側の端部)を先端部とする。また、装置本体部21をヘッドバンド40に装着した状態で、装置本体部21のヘッドバンド40側(+X側)を内側、ヘッドバンド40と反対側(−X側)を外側とする。   The apparatus main body 21 has a substantially plate-shaped casing 21A (see FIG. 3). In the present embodiment, an end portion (+ Y side end portion) on the side where the connection portion with the headband 40 is provided in the apparatus main body portion 21 is a base end portion, and an end portion on the opposite side of the base end portion ( The end on the -Y side) is the tip. Further, in a state where the apparatus main body 21 is attached to the headband 40, the headband 40 side (+ X side) of the apparatus main body 21 is the inside, and the opposite side (−X side) from the headband 40 is the outside.

装置本体部21の外面には、図1に示すように、メインスイッチ28と、タッチスイッチ34と、集音マイク24とが、筐体21Aの長手方向に沿って配置されている。
メインスイッチ28はディスプレイ本体20の電源のオンオフ操作を行うスイッチである。タッチスイッチ34は、表面に手指等で触れることによりHMD1の各種操作を行うことができるタッチパネルである。集音マイク24は、環境音を収集する外部マイクである。
As shown in FIG. 1, a main switch 28, a touch switch 34, and a sound collecting microphone 24 are arranged on the outer surface of the apparatus main body 21 along the longitudinal direction of the housing 21A.
The main switch 28 is a switch for turning on / off the power of the display body 20. The touch switch 34 is a touch panel that can perform various operations of the HMD 1 by touching the surface with a finger or the like. The sound collection microphone 24 is an external microphone that collects environmental sounds.

装置本体部21内面の基端部側に、図2に示すように、耳元スピーカー23と、オーディオコネクター26と、連結孔31を有するヘッドバンドヒンジ32とが設けられている。装置本体部21内面の中央部に心拍数センサー137が設けられている。装置本体部21の内側面の先端部には通話マイク37が設けられている。   As shown in FIG. 2, an ear speaker 23, an audio connector 26, and a headband hinge 32 having a connection hole 31 are provided on the base end side of the inner surface of the apparatus main body 21. A heart rate sensor 137 is provided at the center of the inner surface of the apparatus main body 21. A call microphone 37 is provided at the tip of the inner side surface of the apparatus main body 21.

耳元スピーカー23は、ユーザーの耳の近傍に配置される。耳元スピーカー23からユーザーに音声情報が伝えられる。オーディオコネクター26は、例えば、図6に示すイヤホンが接続される音声入出力端子である。ヘッドバンドヒンジ32はヘッドバンド40とのジョイント部である。通話マイク37にはユーザーの音声が入力される。   The ear speaker 23 is disposed in the vicinity of the user's ear. Audio information is transmitted from the ear speaker 23 to the user. The audio connector 26 is, for example, an audio input / output terminal to which the earphone shown in FIG. 6 is connected. The headband hinge 32 is a joint part with the headband 40. The voice of the user is input to the call microphone 37.

心拍数センサー137は、ユーザーの顔の表面に接触させることでユーザーの心拍数を測定するセンサーである。心拍数センサー137は、発光ダイオード等を備えた発光部と、ユーザーの皮膚内部で反射した光を検知する受光部とを有する。心拍数センサー137は、血流の変化による反射光量の変化を検出することで心拍数をカウントする。心拍数センサー137はユーザーの眼の近くに配置されるが、発光部から赤外域の光を射出させる構成とすればユーザーにまぶしさを感じさせることはない。   The heart rate sensor 137 is a sensor that measures a user's heart rate by contacting the surface of the user's face. The heart rate sensor 137 includes a light emitting unit including a light emitting diode and the like, and a light receiving unit that detects light reflected inside the user's skin. The heart rate sensor 137 counts the heart rate by detecting a change in the amount of reflected light due to a change in blood flow. The heart rate sensor 137 is disposed near the user's eyes, but if the infrared light is emitted from the light emitting unit, the user will not feel glare.

装置本体部21の基端部側の側端面には、USBコネクター25と、操作スイッチ30と、ビデオコネクター27とが設けられている。
USBコネクター25はUSB(Universal Serial Bus)デバイスの接続端子である。本実施形態では、例えば不図示のリモコン(リモートコントローラー)が接続される。
操作スイッチ30は、例えばトラックボールやスティックなどのポインティングデバイスである。操作スイッチ30は表示部60に表示される画面に正対するように設けられている。これにより、操作スイッチ30における操作の左右方向と、上記画面の左右方向とが一致するので、ユーザーは画面を見ながら直感的に操作スイッチ30を操作することが可能である。
ビデオコネクター27は映像入出力端子である。
A USB connector 25, an operation switch 30, and a video connector 27 are provided on the side end surface of the apparatus main body 21 on the base end side.
The USB connector 25 is a connection terminal of a USB (Universal Serial Bus) device. In this embodiment, for example, a remote controller (not shown) is connected.
The operation switch 30 is a pointing device such as a trackball or a stick. The operation switch 30 is provided to face the screen displayed on the display unit 60. As a result, the left-right direction of the operation on the operation switch 30 matches the left-right direction of the screen, so that the user can intuitively operate the operation switch 30 while looking at the screen.
The video connector 27 is a video input / output terminal.

図3に示すように、装置本体部21には、筐体21Aの長手方向に沿って延びる板状の回路基板29と、バッテリー33とが内蔵されている。回路基板29には、図示略の制御回路、電源回路等が実装されており、図示略の配線を介してディスプレイ本体20の各部と電気的に接続されている。   As shown in FIG. 3, the apparatus main body 21 incorporates a plate-like circuit board 29 extending along the longitudinal direction of the housing 21 </ b> A and a battery 33. A control circuit, a power supply circuit, and the like (not shown) are mounted on the circuit board 29, and are electrically connected to each part of the display body 20 via wiring (not shown).

装置本体部21の外面に露出するタッチスイッチ34の内側には、液晶パネルからなる表示パネル36と、バックライト35とが配置されている。本実施形態では、表示パネル36の表示画像がタッチスイッチ34を透過して表示される。表示パネル36及びバックライト35を、有機ELパネルや電気泳動パネルとしてもよい。   A display panel 36 made of a liquid crystal panel and a backlight 35 are arranged inside the touch switch 34 exposed on the outer surface of the apparatus main body 21. In the present embodiment, the display image on the display panel 36 is displayed through the touch switch 34. The display panel 36 and the backlight 35 may be an organic EL panel or an electrophoresis panel.

ヘッドバンドヒンジ32は、筐体21Aに設けられた凹曲面状の収容部32aと、収容部32aに嵌合された球状部32bとからなるボールジョイントである。球状部32bは、球面状の側面部と、この側面部を挟むように互いに平行に形成された2つの平面部を有する。2つの平面部を垂直に貫くように連結孔31が形成されている。連結孔31は軸方向視で六角形状に形成されている。連結孔31にヘッドバンド40の連結ピン41が挿入されることによりディスプレイ本体20とヘッドバンド40とが連結される。   The headband hinge 32 is a ball joint composed of a concavely curved housing portion 32a provided in the housing 21A and a spherical portion 32b fitted to the housing portion 32a. The spherical portion 32b has a spherical side surface portion and two plane portions formed in parallel to each other so as to sandwich the side surface portion. A connecting hole 31 is formed so as to penetrate the two flat portions vertically. The connection hole 31 is formed in a hexagonal shape when viewed in the axial direction. The display main body 20 and the headband 40 are connected by inserting the connection pin 41 of the headband 40 into the connection hole 31.

ヘッドバンドヒンジ32を備えていることで、ディスプレイ本体20は、図1に示したA方向(ヘッドバンドヒンジ32を中心とするX軸回り)に回動させることができる。本実施形態において、ディスプレイ本体20の回転可能範囲は270°程度とされる。このX軸回りの回転動作により、図5(A)に示す右眼で画像を観察する形態と、図5(B)に示す左眼で画像を観察する形態との切替機能が実現される。   By providing the headband hinge 32, the display main body 20 can be rotated in the A direction (around the X axis centering on the headband hinge 32) shown in FIG. In the present embodiment, the rotatable range of the display body 20 is about 270 °. By the rotation operation around the X axis, a switching function between a form in which an image is observed with the right eye shown in FIG. 5A and a form in which an image is observed with the left eye shown in FIG. 5B is realized.

またヘッドバンドヒンジ32はボールジョイントであるため、ディスプレイ本体20は図1に示すB方向(ヘッドバンドヒンジ32を中心とするZ軸回り)に揺動させることもできる。この揺動操作により、ディスプレイ本体20のユーザーの眼や耳に対する位置を調整することができる。   Further, since the headband hinge 32 is a ball joint, the display main body 20 can also be swung in the B direction (around the Z axis centering on the headband hinge 32) shown in FIG. By this swinging operation, the position of the display main body 20 relative to the user's eyes and ears can be adjusted.

ヘッドバンドヒンジ32近傍の心拍数センサー137は、装置本体部21の内面から突出するように設けられ、HMD1の装着時にユーザーの顔の表面に当接可能とされている。バッテリー33は一次電池、二次電池のいずれであってもよい。   The heart rate sensor 137 in the vicinity of the headband hinge 32 is provided so as to protrude from the inner surface of the apparatus main body 21, and can be brought into contact with the surface of the user's face when the HMD 1 is worn. The battery 33 may be either a primary battery or a secondary battery.

表示部60は、図1及び図2に示すように、装置本体部21の先端部に連結されている。本実施形態において、表示部60のヘッドバンド40側を内側、ヘッドバンド40と反対側を外側とする。表示部60は、上面視(Z軸視)において湾曲した形状を有するアーム部材であり、装置本体部21との連結部から先端側へ向かうに従って内側へ湾曲する形状を有する。表示部60の内面に、ファインダー開口部67が設けられている。表示部60の外面には、カメラ64が設けられている。また、図2に示すように、ファインダー開口部67の形状は、長方形である。
表示部60の筐体面には、眼球照明ライト166a〜166dが、ファインダー開口部67の近傍に備えられている。図2では、眼球照明ライト166a及び166bは、ファインダー開口部67の長辺の一方に沿った位置であって、ファインダー開口部67の隅の近傍に備えられている。また、眼球照明ライト166c及び166dは、ファインダー開口部67の長辺の他方に沿った位置であって、ファインダー開口部67の隅の近傍に備えられている。
As shown in FIGS. 1 and 2, the display unit 60 is connected to the distal end portion of the apparatus main body unit 21. In the present embodiment, the headband 40 side of the display unit 60 is the inside, and the side opposite to the headband 40 is the outside. The display unit 60 is an arm member that has a curved shape in a top view (Z-axis view), and has a shape that curves inward from the connecting portion with the apparatus main body 21 toward the distal end side. A finder opening 67 is provided on the inner surface of the display unit 60. A camera 64 is provided on the outer surface of the display unit 60. Moreover, as shown in FIG. 2, the shape of the finder opening 67 is a rectangle.
On the housing surface of the display unit 60, eyeball illumination lights 166 a to 166 d are provided in the vicinity of the finder opening 67. In FIG. 2, the eyeball illumination lights 166 a and 166 b are provided at positions along one of the long sides of the finder opening 67 and in the vicinity of the corner of the finder opening 67. The eyeball illumination lights 166 c and 166 d are provided along the other of the long sides of the finder opening 67 and near the corner of the finder opening 67.

眼球照明ライト166a〜166dは、例えば赤外線の波長領域の光を放射するLED(発光ダイオード)である。眼球照明ライト166a〜166dは、ユーザーと表示部60との位置関係に応じて、点灯または消灯される。以下では、眼球照明ライト166a〜166dを、眼球照明ライト166と総称する。   The eyeball illumination lights 166a to 166d are, for example, LEDs (light emitting diodes) that emit light in the infrared wavelength region. The eyeball illumination lights 166a to 166d are turned on or off according to the positional relationship between the user and the display unit 60. Hereinafter, the eyeball illumination lights 166a to 166d are collectively referred to as an eyeball illumination light 166.

図3に示すように、表示部60は、ディスプレイヒンジ61を介して装置本体部21と連結されている。ディスプレイヒンジ61は、表示部60の筐体60Aに形成された凹曲面状の収容部61aと、装置本体部21に形成され収容部61aに嵌合された球状部61bとからなるボールジョイントである。   As shown in FIG. 3, the display unit 60 is connected to the apparatus main body unit 21 via a display hinge 61. The display hinge 61 is a ball joint composed of a concave curved housing 61a formed in the housing 60A of the display 60 and a spherical portion 61b formed in the apparatus main body 21 and fitted in the housing 61a. .

装置本体部21の球状部61bは、装置本体部21の外面先端部に形成された筐体21Aの長手方向に対して斜めに延びる傾斜面21aに、傾斜面21aの法線方向(図3のY’軸方向)に突出するようにして設けられている。   The spherical portion 61b of the apparatus main body 21 has a normal direction of the inclined surface 21a (in FIG. 3) to an inclined surface 21a extending obliquely with respect to the longitudinal direction of the casing 21A formed at the outer surface tip of the apparatus main body 21. It is provided so as to protrude in the Y′-axis direction).

表示部60は、ディスプレイヒンジ61の球状部61bに対してY’軸回りに自由に回転させることができる。本実施形態では、ディスプレイヒンジ61が装置本体部21の傾斜面21aに設けられており、表示部60が内側に湾曲した形状を有している。   The display unit 60 can be freely rotated around the Y ′ axis with respect to the spherical portion 61 b of the display hinge 61. In the present embodiment, the display hinge 61 is provided on the inclined surface 21a of the apparatus main body 21, and the display unit 60 has a shape curved inward.

また、ディスプレイヒンジ61がボールジョイントであることから、表示部60は、Y’軸回りの回転面に対して直交する方向の揺動も可能である。この揺動動作により、ユーザーによるファインダー開口部67の位置調整が容易になる。表示部60と装置本体部21との間隔を大きくすれば、表示部60の揺動幅を大きくすることができる。   Further, since the display hinge 61 is a ball joint, the display unit 60 can swing in a direction orthogonal to the rotation plane around the Y ′ axis. This swinging operation facilitates position adjustment of the finder opening 67 by the user. If the interval between the display unit 60 and the apparatus main body unit 21 is increased, the swinging width of the display unit 60 can be increased.

ディスプレイヒンジ61の球状部61bには、球状部61bを高さ方向(Y’軸方向)に貫通する貫通孔61cが形成されている。貫通孔61cを介して、表示部60の内部と装置本体部21の内部とが連通されている。貫通孔61cには不図示のケーブルが挿通される。挿通されたケーブルを介して回路基板29と表示部60の各部とが電気的に接続される。   The spherical portion 61b of the display hinge 61 is formed with a through hole 61c that penetrates the spherical portion 61b in the height direction (Y′-axis direction). The inside of the display unit 60 and the inside of the apparatus main body unit 21 are communicated with each other through the through hole 61c. A cable (not shown) is inserted through the through hole 61c. The circuit board 29 and each part of the display unit 60 are electrically connected via the inserted cable.

表示部60の内部には、バックライト62と、表示パネル63と、カメラ64と、プリズム65と、反射ミラー66と、前方ライト68と、前方スピーカー70と、結像レンズ71と、撮像素子72(撮像部)とが設けられている。なお、表示部60の光学系の構成については、後述する。   Inside the display unit 60, there are a backlight 62, a display panel 63, a camera 64, a prism 65, a reflecting mirror 66, a front light 68, a front speaker 70, an imaging lens 71, and an image sensor 72. (Imaging part) is provided. The configuration of the optical system of the display unit 60 will be described later.

カメラ64は、例えば500万画素〜1000万画素の撮像素子を有し、オートフォーカス動作が可能に構成される。カメラ64は、その撮像素子の受光面に結像した画像(光学像)を撮像する。カメラ64は、例えば、ユーザーにとっての正面方向を撮像することができる。なお、撮像された画像は、動画形式または静止画形式のいずれで信号処理されてもよい。   The camera 64 includes, for example, an image sensor with 5 to 10 million pixels, and is configured to be able to perform an autofocus operation. The camera 64 captures an image (optical image) formed on the light receiving surface of the image sensor. For example, the camera 64 can capture the front direction for the user. Note that the captured image may be signal-processed in either a moving image format or a still image format.

前方ライト68は、例えばLEDライトである。前方ライト68は、赤、緑、青の各色の発光素子を有し、任意の色を任意のタイミングで発光させることが可能に構成してもよい。前方ライト68は、発光色や発光タイミングにより外部に対して情報を表示する装置として用いてもよく、カメラ64で撮影する際の照明装置として用いてもよい。
撮像素子72は、その受光面に結像した画像(光学像)を撮像する。撮像素子72は、例えば、ユーザーの顔を撮像することができる。なお、撮像された画像は、動画形式または静止画形式のいずれで信号処理されてもよい。
The front light 68 is, for example, an LED light. The front light 68 may include red, green, and blue light emitting elements, and may be configured to emit any color at any timing. The front light 68 may be used as a device that displays information to the outside depending on the light emission color and the light emission timing, or may be used as an illumination device when photographing with the camera 64.
The image sensor 72 captures an image (optical image) formed on the light receiving surface. The image sensor 72 can image a user's face, for example. Note that the captured image may be signal-processed in either a moving image format or a still image format.

また、図3では図示を省略したが、本実施形態に係る表示部60にはレーザー発信器が設けられている。レーザー発信器は、例えば前方ライト68の近傍に設けることができる。レーザー発信器から射出される例えば赤色レーザー光を前方に照射することで、レーザー光によるポインティング(指標の表示)が可能である。   Although not shown in FIG. 3, the display unit 60 according to the present embodiment is provided with a laser transmitter. The laser transmitter can be provided in the vicinity of the front light 68, for example. By irradiating, for example, red laser light emitted from a laser transmitter forward, pointing (display of an index) with the laser light is possible.

次に、ヘッドバンド40について、図2及び図4を参照しつつ説明する。
ヘッドバンド40は、図2に示すように、ユーザーの頭部を挟持する一対のヘッドパット(装着部材)46、47と、第1ヘッドバンド43と、第2ヘッドバンド44と、回動機構56、57とを備えている。
Next, the headband 40 will be described with reference to FIGS.
As shown in FIG. 2, the headband 40 includes a pair of head pads (mounting members) 46 and 47 that sandwich the user's head, a first headband 43, a second headband 44, and a rotation mechanism 56. , 57.

第1ヘッドバンド43は、全体として円弧状を成す弾性部材である。第1ヘッドバンド43の頂部に、第1ヘッドバンド43を折り曲げるためのジョイント部43aが設けられている。第1ヘッドバンド43の両端には、回動機構56、57を構成する軸受部43b、43cがそれぞれ設けられている。軸受部43b、43cよりもさらにバンド先端側に、ヘッドパット46、47が接続される軸受部43d、43eが設けられている。   The first headband 43 is an elastic member having an arc shape as a whole. A joint portion 43 a for bending the first headband 43 is provided on the top of the first headband 43. At both ends of the first headband 43, bearing portions 43b and 43c constituting the rotation mechanisms 56 and 57 are provided, respectively. Bearing portions 43d and 43e to which the head pads 46 and 47 are connected are provided further on the front end side of the band than the bearing portions 43b and 43c.

第2ヘッドバンド44は、全体として円弧状を成す弾性部材である。第2ヘッドバンド44の頂部には、第2ヘッドバンド44を折り曲げるためのジョイント部44aが設けられている。第2ヘッドバンド44の両端には、それぞれ回動機構56、57を構成する軸部材44b、44cが設けられている。   The second headband 44 is an elastic member having an arc shape as a whole. A joint portion 44 a for bending the second headband 44 is provided on the top of the second headband 44. At both ends of the second headband 44, shaft members 44b and 44c constituting rotation mechanisms 56 and 57 are provided.

また本実施形態において、第2ヘッドバンド44は、ステンレス等の金属からなるバネ部材48の表面を樹脂等の柔軟な材料で被覆した構成を有する。この第2ヘッドバンド44のバネ部材48においてユーザーの頭部を挟持するバネ力を発生させる。また第2ヘッドバンド44は第1ヘッドバンド43と比較して広い幅に形成されている。ジョイント部44aの形成部分は他のバンド部分よりもさらに広く形成された標章表示部49とされている。標章表示部49には、シールや印刷により製品タグ等が付される。なお、第2ヘッドバンド44の全体を金属で形成してもよい。   In the present embodiment, the second headband 44 has a configuration in which the surface of the spring member 48 made of a metal such as stainless steel is covered with a flexible material such as a resin. The spring member 48 of the second headband 44 generates a spring force that holds the user's head. The second headband 44 is formed wider than the first headband 43. The formation part of the joint part 44a is a mark display part 49 formed wider than the other band parts. A product tag or the like is attached to the mark display section 49 by sticker or printing. The entire second headband 44 may be made of metal.

ヘッドパット46は、板状の支持板46aと、支持板46aの一面側に設けられた断面アーチ状の弾性部材46bとを有する。支持板46aの弾性部材46bと反対側の面に、当該面に垂直な姿勢で概略六角柱状の連結ピン41が立設されている。連結ピン41は、第1ヘッドバンド43の一方の先端に設けられた軸受部43dに軸支されている。これにより、ヘッドパット46は連結ピン41回りに回転可能である。   The head pad 46 includes a plate-like support plate 46a and an elastic member 46b having an arched cross section provided on one surface side of the support plate 46a. On the surface of the support plate 46a opposite to the elastic member 46b, a substantially hexagonal column-shaped connecting pin 41 is erected in a posture perpendicular to the surface. The connecting pin 41 is pivotally supported by a bearing portion 43 d provided at one end of the first headband 43. As a result, the head pad 46 can rotate around the connecting pin 41.

ヘッドパット47は、板状の支持板47aと、支持板47aの一方の面に設けられた断面アーチ状の弾性部材47bとを有する。支持板47aの弾性部材47bと反対側の面には、軸部材47cが設けられている。軸部材47cは、第1ヘッドバンド43の先端に設けられた軸受部43eに軸支されている。これにより、ヘッドパット47は、軸部材47c回りに回転可能である。   The head pad 47 includes a plate-like support plate 47a and an elastic member 47b having an arcuate cross section provided on one surface of the support plate 47a. A shaft member 47c is provided on the surface of the support plate 47a opposite to the elastic member 47b. The shaft member 47 c is pivotally supported by a bearing portion 43 e provided at the tip of the first headband 43. Thereby, the head pad 47 can rotate around the shaft member 47c.

この構成により、第2ヘッドバンド44は、回動機構56によって第1ヘッドバンド43から離れる方向に回動付勢される一方、回動機構57によって第1ヘッドバンド43に対して所定角度以内の範囲に回動規制される。これにより、第2ヘッドバンド44は第1ヘッドバンド43に対して所定の角度となるように保持される。したがって、回動機構56、57は、ヘッドバンド40における角度保持機構として機能する。   With this configuration, the second headband 44 is urged to rotate in a direction away from the first headband 43 by the rotation mechanism 56, while being within a predetermined angle with respect to the first headband 43 by the rotation mechanism 57. The rotation is restricted to the range. As a result, the second headband 44 is held at a predetermined angle with respect to the first headband 43. Therefore, the rotation mechanisms 56 and 57 function as an angle holding mechanism in the headband 40.

次に、以上の構成を備えたHMD1におけるヘッドバンドの動作等について、図4、図5を参照しつつ説明する。以下、ユーザーにとっての右側を「ユーザーの右側」と称する。また、ユーザーにとっての左側を「ユーザーの左側」と称する。また、ユーザーにとっての上側を「ユーザーの上側」と称する。また、ユーザーにとっての下側を「ユーザーの下側」と称する。また、ユーザーにとっての時計回り方向を「時計回り方向」と称する。また、ユーザーにとっての反時計回り方向を「反時計回り方向」と称する。   Next, the operation of the headband in the HMD 1 having the above configuration will be described with reference to FIGS. Hereinafter, the right side for the user is referred to as “the right side of the user”. Further, the left side for the user is referred to as “the left side of the user”. The upper side for the user is referred to as “the upper side of the user”. Further, the lower side for the user is referred to as “the lower side of the user”. The clockwise direction for the user is referred to as “clockwise direction”. Further, the counterclockwise direction for the user is referred to as “counterclockwise direction”.

図5に示したように、本実施形態のHMD1は、図5(A)に示す右眼観察形態と、図5(B)に示す左眼観察形態を切り替えて使用することができる。ここで、右眼観察形態とは、ユーザーが右眼で表示部60を観察する形態である。また、左眼観察形態とは、ユーザーが左眼で表示部60を観察する形態である。以下、図5(A)及び図5(B)示した形態、すなわち、ユーザーから見てファインダー開口部67が横長に配置される形態を、第1表示モードと称する。   As shown in FIG. 5, the HMD 1 of the present embodiment can be used by switching between the right-eye observation form shown in FIG. 5A and the left-eye observation form shown in FIG. Here, the right-eye observation form is a form in which the user observes the display unit 60 with the right eye. The left-eye observation form is a form in which the user observes the display unit 60 with the left eye. Hereinafter, the form shown in FIGS. 5A and 5B, that is, the form in which the finder opening 67 is arranged horizontally when viewed from the user is referred to as a first display mode.

例えば、右眼観察形態から左眼観察形態へ切り替えるには、まず、ヘッドバンド40に連結されたディスプレイ本体20を、ヘッドバンドヒンジ32(図2を参照)の回転軸回り(図5では、A方向)に180°程度回転させる。さらに、ヘッドバンド40において、回動機構56及び57(図4を参照)の軸回りに第2ヘッドバンド44を揺動させることで、第2ヘッドバンド44の位置と第1ヘッドバンド43の位置との前後関係を入れ替える。この操作により、図5(B)に示すように、ユーザーの左眼側にディスプレイ本体20が配置され、且つ、第2ヘッドバンド44がユーザーの後頭部側に配置された左眼観察形態に、HMD1は切り替えられる。   For example, to switch from the right-eye observation mode to the left-eye observation mode, first, the display body 20 connected to the headband 40 is moved around the rotation axis of the headband hinge 32 (see FIG. 2) (A in FIG. 5). Direction). Further, in the headband 40, the position of the second headband 44 and the position of the first headband 43 are obtained by swinging the second headband 44 around the axes of the rotation mechanisms 56 and 57 (see FIG. 4). Swap the context. By this operation, as shown in FIG. 5B, the left-eye observation form in which the display main body 20 is arranged on the left eye side of the user and the second headband 44 is arranged on the occipital side of the user is performed. Can be switched.

右眼観察形態では、右眼の近傍にある眼球照明ライト166a及び166bが点灯し、眼球照明ライト166c及び166dが消灯する。一方、左眼観察形態では、左眼の近傍にある眼球照明ライト166c及び166dが点灯し、眼球照明ライト166a及び166bが消灯する。   In the right-eye observation mode, the eyeball illumination lights 166a and 166b in the vicinity of the right eye are turned on, and the eyeball illumination lights 166c and 166d are turned off. On the other hand, in the left-eye observation mode, the eyeball illumination lights 166c and 166d in the vicinity of the left eye are turned on, and the eyeball illumination lights 166a and 166b are turned off.

本実施形態では、図4に示すように、第1ヘッドバンド43の円弧高さr1を、第2ヘッドバンド44の円弧高さr2よりも小さくしている。これにより、第2ヘッドバンド44を第1ヘッドバンド43と交差させるように移動させても、互いに干渉することなく円滑に前後を入れ替えることができる。
図4に示す円弧高さr1は、同軸に配置された回動機構56、57の回転軸Lの中央位置Cから第1ヘッドバンド43までの距離の最大値である。また円弧高さr2は、回転軸Lの中央位置Cから第2ヘッドバンド44までの距離の最大値である。
In the present embodiment, as shown in FIG. 4, the arc height r <b> 1 of the first headband 43 is smaller than the arc height r <b> 2 of the second headband 44. As a result, even if the second headband 44 is moved so as to intersect the first headband 43, the front and rear can be switched smoothly without interfering with each other.
The arc height r1 shown in FIG. 4 is the maximum value of the distance from the center position C of the rotation axis L of the rotation mechanisms 56 and 57 arranged coaxially to the first headband 43. The arc height r2 is the maximum value of the distance from the center position C of the rotation axis L to the second headband 44.

なお、第1ヘッドバンド43の円弧高さr1を第2ヘッドバンド44の円弧高さr2よりも大きくし、第2ヘッドバンド44を第1ヘッドバンド43の内側で揺動させる構成としてもよい。   The arc height r1 of the first headband 43 may be larger than the arc height r2 of the second headband 44, and the second headband 44 may be swung inside the first headband 43.

図6は、本実施形態に係るヘッドマウントディスプレイに付属のステレオイヤホンを示す斜視図である。
ステレオイヤホン100は、コネクター101と、ケーブル102と、第1スピーカー103と、第2スピーカー104と、集音マイク105と、複数のクリップ106とを有する。
FIG. 6 is a perspective view showing a stereo earphone attached to the head mounted display according to the present embodiment.
Stereo earphone 100 includes a connector 101, a cable 102, a first speaker 103, a second speaker 104, a sound collecting microphone 105, and a plurality of clips 106.

コネクター101はケーブル102の一方の端部に設けられている。コネクター101は、一般的な4極φ3.5mmのミニプラグである。4極の内訳は、集音マイク105、第1スピーカー103、第2スピーカー104、グランド(GND)である。ケーブル102は、コネクター101の近傍において二分岐され、分岐されたケーブルの先端に第1スピーカー103が設けられている。ケーブル102の他方の端部には、第2スピーカー104と集音マイク105とが設けられている。複数のクリップ106は、ケーブル102上に所定の間隔で配置されている。   The connector 101 is provided at one end of the cable 102. The connector 101 is a general 4-pole φ3.5 mm mini plug. The breakdown of the four poles is the sound collection microphone 105, the first speaker 103, the second speaker 104, and the ground (GND). The cable 102 is bifurcated in the vicinity of the connector 101, and a first speaker 103 is provided at the end of the branched cable. A second speaker 104 and a sound collecting microphone 105 are provided at the other end of the cable 102. The plurality of clips 106 are arranged on the cable 102 at a predetermined interval.

ステレオイヤホン100は、コネクター101をディスプレイ本体20のオーディオコネクター26に接続して使用される。ステレオイヤホン100が接続されると、ディスプレイ本体20の耳元スピーカー23と、表示部60の通話マイク37は無効化される。また表示部60の前方スピーカー70も必要に応じて無効化される。そして、ステレオイヤホン100の第1スピーカー103、第2スピーカー104、及び集音マイク105が有効化される。   The stereo earphone 100 is used by connecting the connector 101 to the audio connector 26 of the display body 20. When the stereo earphone 100 is connected, the ear speaker 23 of the display body 20 and the call microphone 37 of the display unit 60 are invalidated. Further, the front speaker 70 of the display unit 60 is also invalidated as necessary. Then, the first speaker 103, the second speaker 104, and the sound collecting microphone 105 of the stereo earphone 100 are activated.

ステレオイヤホン100の第1スピーカー103は、ディスプレイ本体20が配置された側のユーザーの耳に装着され、第2スピーカー104は第1スピーカー103と反対側の耳に装着される。このとき、ケーブル102は、クリップ106によって第2ヘッドバンド44に固定することができる。   The first speaker 103 of the stereo earphone 100 is attached to the ear of the user on the side where the display main body 20 is arranged, and the second speaker 104 is attached to the ear on the opposite side to the first speaker 103. At this time, the cable 102 can be fixed to the second headband 44 by the clip 106.

また、ステレオイヤホン100の集音マイク105と、ディスプレイ本体20において筐体21Aの外側面に設けられた集音マイク24とにより、ステレオ録音が可能である。例えば、図5(A)に示すようにディスプレイ本体20が右眼側に配置されているとすれば、ディスプレイ本体20の集音マイク24はユーザーの右側の音を収集し、左耳に装着された集音マイク105はユーザーの左側の音を収集する。
また、右眼観察形態では、ステレオイヤホン100の第1スピーカー103から右チャンネルの音声が出力され、第2スピーカー104からは左チャンネルの音声が出力される。
Further, stereo recording can be performed by the sound collecting microphone 105 of the stereo earphone 100 and the sound collecting microphone 24 provided on the outer surface of the housing 21 </ b> A in the display main body 20. For example, if the display main body 20 is arranged on the right eye side as shown in FIG. 5A, the sound collecting microphone 24 of the display main body 20 collects sounds on the right side of the user and is attached to the left ear. The sound collecting microphone 105 collects the sound on the left side of the user.
In the right-eye observation mode, the right channel sound is output from the first speaker 103 of the stereo earphone 100, and the left channel sound is output from the second speaker 104.

一方、図5(B)に示すようにユーザーの左眼側にディスプレイ本体20が配置されている場合には、ディスプレイ本体20の集音マイク24がユーザーの左側の音を収集し、右耳に装着された集音マイク105がユーザーの右側の音を収集する。左眼観察形態では、ステレオイヤホン100の第1スピーカー103から左チャンネルの音声が出力され、第2スピーカー104からは右チャンネルの音声が出力される。   On the other hand, when the display main body 20 is arranged on the left eye side of the user as shown in FIG. 5B, the sound collecting microphone 24 of the display main body 20 collects the sound of the user's left side and The attached sound collecting microphone 105 collects sound on the right side of the user. In the left-eye observation mode, left channel sound is output from the first speaker 103 of the stereo earphone 100, and right channel sound is output from the second speaker 104.

次に、眼球照明ライト166a〜166dの点灯と消灯について説明する。
図7は、本実施形態に係る眼球照明ライト166の点灯と消灯を説明する図である。図7(A)は、右眼観察形態における眼球照明ライト166の点灯と消灯を説明する図である。図7(B)は、左眼観察形態における眼球照明ライト166の点灯と消灯を説明する図である。図7(A)及び図7(B)において、ユーザーの顔の正面方向を、HZと表記する。
Next, lighting and extinguishing of the eyeball illumination lights 166a to 166d will be described.
FIG. 7 is a diagram for explaining turning on and off of the eyeball illumination light 166 according to the present embodiment. FIG. 7A is a diagram for explaining turning on and off of the eyeball illumination light 166 in the right-eye observation mode. FIG. 7B is a diagram for explaining turning on and off of the eyeball illumination light 166 in the left-eye observation mode. In FIG. 7A and FIG. 7B, the front direction of the user's face is denoted as HZ.

図7(A)に示した例では、表示部60は、右眼の斜め下に配置されている。また、正面方向HZと表示部60の画面の法線とは、角度αを成している。HMD1は、眼球照明ライト166a〜166dのうち、ユーザーの眼に近い側の眼球照明ライトを選択し、選択した眼球照明ライトを点灯させる。一方、HMD1は、選択した以外の眼球照明ライト、すなわち、ユーザーの眼から遠い側の眼球照明ライトを消灯させる。   In the example shown in FIG. 7A, the display unit 60 is disposed obliquely below the right eye. Further, the front direction HZ and the normal line of the screen of the display unit 60 form an angle α. The HMD 1 selects an eyeball illumination light on the side close to the user's eye among the eyeball illumination lights 166a to 166d, and turns on the selected eyeball illumination light. On the other hand, the HMD 1 turns off the eyeball illumination lights other than the selected one, that is, the eyeball illumination lights far from the user's eyes.

図7(A)では、眼球照明ライト166a及び166bは、正面方向HZから角度α1だけ下側に配置されている。一方、眼球照明ライト166c及び166dは、正面方向HZから角度α2だけ下側に配置されている。ここで、角度α1は、角度αより小さく、角度α2は、角度αより大きい。つまり、眼球照明ライト166a及び166bは、眼球照明ライト166c及び166dよりも、ユーザーの右眼の近くに配置されている。   In FIG. 7A, the eyeball illumination lights 166a and 166b are disposed below the front direction HZ by an angle α1. On the other hand, the eyeball illumination lights 166c and 166d are arranged at an angle α2 below the front direction HZ. Here, the angle α1 is smaller than the angle α, and the angle α2 is larger than the angle α. That is, the eyeball illumination lights 166a and 166b are disposed closer to the user's right eye than the eyeball illumination lights 166c and 166d.

この場合、HMD1は、眼球照明ライト166a及び166bを点灯させ、且つ、眼球照明ライト166c及び166dを消灯させる。この点灯状態で、撮像素子72は、ユーザーの右眼の周りを撮像する。以下、ユーザーの右眼の周りが撮像された画像を、「右眼の周辺画像」という。   In this case, the HMD 1 turns on the eyeball illumination lights 166a and 166b and turns off the eyeball illumination lights 166c and 166d. In this lighting state, the image sensor 72 images around the right eye of the user. Hereinafter, an image captured around the right eye of the user is referred to as a “right eye peripheral image”.

なお、右眼の周辺画像には、右眼の画像、右眉毛の画像、顔の一部(頭、髪の毛等)の画像が含まれてもよい。また、左眼の周辺画像には、左眼の画像、左眉毛の画像、顔の一部(頭、髪の毛等)が含まれてもよい。以下、右眼の周辺画像、及び左眼の周辺画像を、「眼の周辺画像」と総称する。   The peripheral image of the right eye may include an image of the right eye, an image of the right eyebrow, and an image of a part of the face (head, hair, etc.). The peripheral image of the left eye may include a left eye image, a left eyebrow image, and a part of the face (head, hair, etc.). Hereinafter, the peripheral image of the right eye and the peripheral image of the left eye are collectively referred to as “eye peripheral image”.

図7(A)に示した例では、ユーザーの右眼から遠い側の眼球照明ライト166c及び166dは、ユーザーの頬が邪魔になり、ユーザーの右眼を照明できないこともある。したがって、HMD1は、ユーザーの右眼から遠い側の眼球照明ライト166c及び166dを消灯させる。これにより、HMD1は、消費電力を低減させることができる。   In the example shown in FIG. 7A, the eyeball illumination lights 166c and 166d far from the user's right eye may not be able to illuminate the user's right eye due to the user's cheek getting in the way. Therefore, the HMD 1 turns off the eyeball illumination lights 166c and 166d far from the user's right eye. Thereby, HMD1 can reduce power consumption.

一方、図7(B)では、眼球照明ライト166c及び166dは、正面方向HZから角度α3だけ下側に配置されている。一方、眼球照明ライト166c及び166dは、正面方向HZから角度α4だけ下側に配置されている。ここで、角度α3は、角度αより小さく、角度α4は、角度αより大きい。つまり、眼球照明ライト166a及び166bは、眼球照明ライト166c及び166dよりも、ユーザーの左眼の近くに配置されている。   On the other hand, in FIG. 7B, the eyeball illumination lights 166c and 166d are arranged on the lower side by an angle α3 from the front direction HZ. On the other hand, the eyeball illumination lights 166c and 166d are disposed at an angle α4 below the front direction HZ. Here, the angle α3 is smaller than the angle α, and the angle α4 is larger than the angle α. That is, the eyeball illumination lights 166a and 166b are disposed closer to the user's left eye than the eyeball illumination lights 166c and 166d.

この場合、HMD1は、眼球照明ライト166c及び166dを点灯させ、且つ、眼球照明ライト166a及び166bを消灯させる。この点灯状態で、撮像素子72は、ユーザーの左眼の周りを撮像する。以下、ユーザーの左眼の周りが撮像された画像を、「左眼の周辺画像」という。   In this case, the HMD 1 turns on the eyeball illumination lights 166c and 166d and turns off the eyeball illumination lights 166a and 166b. In this lighting state, the image sensor 72 images around the left eye of the user. Hereinafter, an image in which the periphery of the user's left eye is captured is referred to as a “left eye peripheral image”.

図7(B)に示した例では、ユーザーの左眼から遠い側の眼球照明ライト166a及び166bは、ユーザーの頬が邪魔になり、ユーザーの左眼を照明できないこともある。したがって、HMD1は、ユーザーの左眼から遠い側の眼球照明ライト166a及び166bを消灯させる。これにより、HMD1は、消費電力を低減させることができる。   In the example shown in FIG. 7B, the eyeball illumination lights 166a and 166b far from the user's left eye may not be able to illuminate the user's left eye due to the user's cheek getting in the way. Accordingly, the HMD 1 turns off the eyeball illumination lights 166a and 166b on the side far from the user's left eye. Thereby, HMD1 can reduce power consumption.

つまり、HMD1は、ユーザーの眼と表示部60との位置関係に応じて、眼球照明ライト166a〜166dのうち、ユーザーの眼をより正面から照明することができる眼球照明ライトを点灯させ、それ以外の眼球照明ライトを消灯させる。   In other words, the HMD 1 turns on an eyeball illumination light that can illuminate the user's eyes from the front, among the eyeball illumination lights 166a to 166d, according to the positional relationship between the user's eyes and the display unit 60. Turn off the eyeball illumination light.

次に、表示部60の構成及び光学系を説明する。
図8は、本実施形態に係る表示部60の構成及び光学系を説明するための表示部60の断面図である。図8に示すように、本実施形態の表示部60は、バックライト62、表示パネル63、第1プリズム65a、第2プリズム65b、反射ミラー66、ファインダー開口部67、結像レンズ71、撮像素子72、1/4波長板75を含んで構成されている。図8において、符号H、I、J、K、L、M、Nは、各々、光線を表す。
Next, the configuration of the display unit 60 and the optical system will be described.
FIG. 8 is a cross-sectional view of the display unit 60 for explaining the configuration and optical system of the display unit 60 according to the present embodiment. As shown in FIG. 8, the display unit 60 of the present embodiment includes a backlight 62, a display panel 63, a first prism 65a, a second prism 65b, a reflection mirror 66, a viewfinder opening 67, an imaging lens 71, and an image sensor. 72 and a quarter wavelength plate 75. In FIG. 8, symbols H, I, J, K, L, M, and N each represent a light beam.

まず、表示部60の構成を説明する。
プリズム65は、上面視(Z軸視)で略三角形状の第1プリズム65aと第2プリズム65bとを互いの面で貼り合わせた構成を有する。この貼り合わせ面以外の第1プリズム65aの他の二面のうち、一方の面に対向する位置に、液晶パネルからなる表示パネル63が設けられている。表示パネル63の背面に表示パネル63を透過照明するバックライト62が配置されている。第1プリズム65aの他方の面に対向する位置に反射ミラー66が配置されている。反射ミラー66は、ファインダー開口部67のほぼ正面に位置する。
First, the configuration of the display unit 60 will be described.
The prism 65 has a configuration in which a substantially triangular first prism 65a and a second prism 65b are bonded to each other on a top view (Z-axis view). A display panel 63 made of a liquid crystal panel is provided at a position facing one of the other two surfaces of the first prism 65a other than the bonding surface. A backlight 62 that transmits and illuminates the display panel 63 is disposed on the back surface of the display panel 63. A reflection mirror 66 is disposed at a position facing the other surface of the first prism 65a. The reflection mirror 66 is located substantially in front of the finder opening 67.

第2プリズム65bの貼り合わせ面以外の他の二面のうち、一方の面はファインダー開口部67に配置されたファインダー接眼面である。第2プリズム65bの他方の面に対向する位置には結像レンズ71を介して撮像素子72が対向配置されている。   Of the two surfaces other than the bonding surface of the second prism 65 b, one surface is a viewfinder eyepiece disposed in the viewfinder opening 67. An imaging element 72 is disposed opposite to the other surface of the second prism 65b via the imaging lens 71.

次に、表示部60の光学系を説明する。
表示部60において、表示パネル63に表示された画像は、第1プリズム65a、反射ミラー66、第2プリズム65bを介してファインダー開口部67から射出され、ユーザーに観察される。また、ファインダー開口部67を見ている画像は、第2プリズム65b及び結像レンズ71を介して撮像素子72上に結像される。
なお、撮像素子72を介して取得された撮像画像は、ユーザーの視線の方向や瞬き、表情の解析、表示部60の姿勢の解析に用いる。撮像画像には、眼の周辺画像が含まれている。なお、バックライト62は、撮像素子72による眼の周辺画像を撮像する際の補助照明としても利用されてもよい。
Next, the optical system of the display unit 60 will be described.
In the display unit 60, the image displayed on the display panel 63 is emitted from the finder opening 67 through the first prism 65a, the reflection mirror 66, and the second prism 65b, and is observed by the user. Further, the image looking at the viewfinder opening 67 is imaged on the image sensor 72 via the second prism 65 b and the imaging lens 71.
The captured image acquired via the image sensor 72 is used for analysis of the direction of the user's line of sight, blinking, facial expression, and posture of the display unit 60. The captured image includes a peripheral image of the eye. Note that the backlight 62 may also be used as auxiliary illumination when an image around the eye is captured by the image sensor 72.

バックライト62が照射した光は、表示パネル63を透過して、第1プリズム65aに入射される。このとき、表示パネル63の液晶の特性上、バックライト62が照射した光が偏光され、偏光された光線HのS偏光が第1プリズム65aに入射される。   The light emitted from the backlight 62 passes through the display panel 63 and enters the first prism 65a. At this time, due to the characteristics of the liquid crystal of the display panel 63, the light irradiated by the backlight 62 is polarized, and the S-polarized light of the polarized light beam H is incident on the first prism 65a.

光線Hは、第1プリズム65aの裏面65dに設けられた空気層の影響により全反射し、光線Iとして第1プリズム65aと第2プリズム65bの接合面65cに入射する。ここで2つのプリズムの接合面65cには、S偏光が反射し、P偏光が透過する偏光反射膜が蒸着されている。ここで、光線Hは、S偏光であるため、接合面65cで反射して光線Jとなる。光線Jは、裏面65dに入射角0度で入射されるため、裏面65dを透過して1/4波長板75に入射される。   The light beam H is totally reflected by the influence of the air layer provided on the back surface 65d of the first prism 65a, and enters the joint surface 65c of the first prism 65a and the second prism 65b as the light beam I. Here, a polarizing reflection film that reflects S-polarized light and transmits P-polarized light is deposited on the joint surface 65c of the two prisms. Here, since the light ray H is S-polarized light, it is reflected by the joint surface 65c to become a light ray J. Since the light beam J is incident on the back surface 65d at an incident angle of 0 degree, it passes through the back surface 65d and enters the quarter-wave plate 75.

光線Jは、空気層を通った後に1/4波長板75を透過することで、進行方向に対して右回りの円偏光となる。そして反射ミラー66で反射した光線Kは、反射によって左回りの円偏光となる。そして、光線Kは、1/4波長板75を再び透過し、P偏光となる。
光線Kは、P偏光に変換されたため、接合面65cを透過できるので、ファインダー開口部67を通過できる。このような構成により、ユーザーは、表示パネル63上に表示された画像データを、ファインダー開口部67越に観察できる。
The light beam J passes through the quarter-wave plate 75 after passing through the air layer, and becomes circularly polarized light clockwise with respect to the traveling direction. The light beam K reflected by the reflecting mirror 66 becomes counterclockwise circularly polarized light by reflection. Then, the light K passes through the quarter-wave plate 75 again and becomes P-polarized light.
Since the light K has been converted to P-polarized light, it can pass through the joint surface 65c, and thus can pass through the finder opening 67. With such a configuration, the user can observe the image data displayed on the display panel 63 through the viewfinder opening 67.

一方、ファインダー開口部67から入射した光線Lは、接合面65cで反射してS偏光の光線Mに変換される。光線Mは、第2プリズム65bにおける前面65eの空気層で全反射して光線Nになる。光線Nは、結像レンズ71により集光され、集光した光線Nが撮像素子72に入射する。このような構成により、ユーザーの眼の前面に、ファインダー開口部67が配置された場合、撮像素子72には、ユーザーの眼の周辺画像(光学像)が結像する。   On the other hand, the light beam L incident from the finder opening 67 is reflected by the joint surface 65c and converted into an S-polarized light beam M. The light ray M is totally reflected by the air layer on the front surface 65e of the second prism 65b to become a light ray N. The light beam N is collected by the imaging lens 71, and the collected light beam N enters the image sensor 72. With such a configuration, when the finder opening 67 is disposed in front of the user's eye, a peripheral image (optical image) of the user's eye is formed on the image sensor 72.

次に、右眼観察形態で、ファインダー開口部67を介してユーザーが観察する画像と、撮像素子72により撮像される画像とについて説明する。
なお、図10、図13及び図15では、光学的に等価になるように、反射ミラー66(図8を参照)は、凸レンズに置き換えられている。また、図10、図13、及び図15において、一点鎖線CTは、結像レンズ71の光軸を表している。
Next, an image observed by the user through the finder opening 67 and an image captured by the image sensor 72 in the right-eye observation mode will be described.
In FIGS. 10, 13, and 15, the reflecting mirror 66 (see FIG. 8) is replaced with a convex lens so as to be optically equivalent. 10, 13, and 15, the alternate long and short dash line CT represents the optical axis of the imaging lens 71.

以下、表示部60が、ユーザーの眼から所定距離内に配置されている状態を、「第1観察状態」という。
図9は、第1〜第3観察状態のそれぞれにおける表示領域の違いを説明する図である。第1観察状態では、表示部60がユーザーの眼から所定距離内に配置されているので、表示パネル63の全表示領域は、ユーザーから観察可能である。したがって、表示パネル63は、この全表示領域に画像を表示させることができる。すなわち、表示パネル63の全表示領域が、表示領域Sとなる。
Hereinafter, a state in which the display unit 60 is disposed within a predetermined distance from the user's eyes is referred to as a “first observation state”.
FIG. 9 is a diagram for explaining a difference in display area in each of the first to third observation states. In the first observation state, since the display unit 60 is disposed within a predetermined distance from the user's eyes, the entire display area of the display panel 63 can be observed by the user. Therefore, the display panel 63 can display an image in the entire display area. That is, the entire display area of the display panel 63 becomes the display area S.

以下、表示領域Sの横の長さを、Swと表記する。また。表示領域Sの縦の長さを、Shと表記する。また、以下では、一例として、Swは800画素、Shは600画素として説明を続ける。また、表示領域Tの縦の長さを、Thと表記する。また、表示領域Tの横の長さを、Twと表記する。また、表示領域Uの縦の長さを、Uhと表記する。また、表示領域Uの横の長さを、Uwと表記する。   Hereinafter, the horizontal length of the display area S is expressed as Sw. Also. The vertical length of the display area S is expressed as Sh. In the following description, as an example, the description will be continued assuming that Sw is 800 pixels and Sh is 600 pixels. In addition, the vertical length of the display area T is expressed as Th. Further, the horizontal length of the display area T is denoted as Tw. Further, the vertical length of the display area U is denoted as Uh. Further, the horizontal length of the display area U is denoted as Uw.

図10は、第1観察状態における観察範囲と撮像範囲を説明する図である。観察範囲67aにユーザーの眼がある場合、ファインダー開口部67を介して、ユーザーは、表示パネル63の全表示領域に相当する表示領域Sを観察することができる。また、観察範囲67aは、反射ミラー66(図10では、凸レンズ)の光軸上では、ファインダー開口部67から距離Pまでの範囲にある。一方、撮像素子72が撮影することができる撮影範囲67cは、観察範囲67aを含んでいる。つまり、撮像素子72は、観察範囲67aにユーザーの眼がない場合でも、撮影範囲67cにユーザーの眼があれば、ユーザーの眼を眉毛なども含めて撮像することができる。   FIG. 10 is a diagram illustrating the observation range and the imaging range in the first observation state. When the user's eyes are in the observation range 67 a, the user can observe the display area S corresponding to the entire display area of the display panel 63 through the finder opening 67. The observation range 67a is in the range from the finder opening 67 to the distance P on the optical axis of the reflection mirror 66 (convex lens in FIG. 10). On the other hand, the imaging range 67c that can be imaged by the imaging device 72 includes an observation range 67a. That is, even when the user's eyes are not in the observation range 67a, the imaging element 72 can capture the user's eyes including eyebrows if the user has the eyes in the shooting range 67c.

図11は、第1観察状態における撮像画像の一例を説明する図である。図11の略中心には、撮像素子72によりユーザーの眼が撮像されている。この場合、図9(A)を用いて説明したように、眼球照明ライト166a及び166bが点灯している。右眼観察形態の場合、図11における+Z側が鉛直上方向、−Z側が鉛直下方向、+X側がユーザーの左側、−X側がユーザーの右側となる。なお、左眼観察形態の場合、表示部60が180度反転されているので、右眼観察形態と比較して、眼の周辺画像は左右上下が反転することになる。   FIG. 11 is a diagram illustrating an example of a captured image in the first observation state. In the approximate center of FIG. 11, the eye of the user is imaged by the imaging element 72. In this case, as described with reference to FIG. 9A, the eyeball illumination lights 166a and 166b are turned on. In the case of the right eye observation mode, the + Z side in FIG. 11 is the vertically upward direction, the −Z side is the vertically downward direction, the + X side is the left side of the user, and the −X side is the right side of the user. In the case of the left-eye observation form, the display unit 60 is inverted 180 degrees, so that the peripheral image of the eye is inverted horizontally and vertically as compared with the right-eye observation form.

図11において、符号601Rは、右眼の画像を示す符号であり、符号602Rは、右眉毛の画像を示す符号である。符号604Aは、眼球照明ライト166a(図2を参照)による輝点の画像を示す符号であり、符号604Bは、眼球照明ライト166b(図2を参照)による輝点の画像を示す符号である。また、符号L41は、X軸方向におけるユーザーの眼の幅を示す符号である。例えば、第1観察状態において、撮像素子72の解像度が、横方向(X軸方向)に640画素である場合、画像における眼の幅L41は、350画素程度である。   In FIG. 11, reference numeral 601 </ b> R indicates a right eye image, and reference numeral 602 </ b> R indicates a right eyebrow image. Reference numeral 604A represents a bright spot image by the eyeball illumination light 166a (see FIG. 2), and reference numeral 604B represents a bright spot image by the eyeball illumination light 166b (see FIG. 2). Reference sign L41 is a sign indicating the width of the user's eyes in the X-axis direction. For example, when the resolution of the image sensor 72 is 640 pixels in the horizontal direction (X-axis direction) in the first observation state, the eye width L41 in the image is about 350 pixels.

図11では、ユーザーの眼と眉毛の距離が幅L41以下なので、撮像画像には、適切な範囲が撮像されているといえる。このように、ユーザーの眼を下側から撮影することは、有効である。
このように、第1観察状態では、ユーザーが正面を見る際、ファインダー開口部67が邪魔にならない。また、後述するように、第1観察状態では、撮像素子72による撮像画像に撮像された眉毛、目元及び眼球の動きに基づいて、HMD1は、ユーザーの視線方向を検出することができる。
In FIG. 11, since the distance between the user's eyes and eyebrows is equal to or smaller than the width L41, it can be said that an appropriate range is captured in the captured image. Thus, it is effective to photograph the user's eyes from below.
Thus, in the first observation state, the finder opening 67 does not get in the way when the user looks at the front. As will be described later, in the first observation state, the HMD 1 can detect the user's line-of-sight direction based on the movements of the eyebrows, the eyes, and the eyeballs captured in the image captured by the image sensor 72.

以下、ユーザーの眼が、第1観測状態と比較して表示部60から離れている状態を、「第2観察状態」という。
次に、第2観察状態について、図9、図12、及び図13を用いて説明する。
Hereinafter, a state in which the user's eyes are separated from the display unit 60 as compared with the first observation state is referred to as a “second observation state”.
Next, a 2nd observation state is demonstrated using FIG.9, FIG12 and FIG.13.

図12は、第2観察状態における撮像画像の一例を説明する図である。符号601R1は、右眼の画像を示す符号であり、符号602R1は、右眉毛の画像を示す符号である。符号604Cは、眼球照明ライト166aによる輝点の画像を示す符号であり、符号604Dは、眼球照明ライト166bによる輝点の画像を示す符号である。また、符号L71は、X軸方向におけるユーザーの眼の幅を示す符号である。
第2観察状態では、ユーザーの眼が表示部60から離れているので、第1観察状態よりも、ユーザーの眼の画像が小さく撮像される。撮像画像におけるユーザーの眼の幅L71が、第1観察状態におけるユーザーの眼の幅L41以下(例えば、300画素以下)である場合、HMD1は、ユーザーが表示部60から眼を離していると判定する。
FIG. 12 is a diagram illustrating an example of a captured image in the second observation state. Reference numeral 601R1 represents a right eye image, and reference numeral 602R1 represents a right eyebrow image. Reference numeral 604C represents a bright spot image by the eyeball illumination light 166a, and reference numeral 604D represents a bright spot image by the eyeball illumination light 166b. Reference sign L71 is a sign indicating the width of the user's eyes in the X-axis direction.
In the second observation state, since the user's eyes are separated from the display unit 60, an image of the user's eyes is captured smaller than in the first observation state. When the width L71 of the user's eye in the captured image is equal to or smaller than the width L41 of the user's eye in the first observation state (for example, 300 pixels or less), the HMD 1 determines that the user is taking his eyes off the display unit 60. To do.

図13は、第2観察状態における観察範囲と撮像範囲を説明する図である。図13では、ユーザーの眼eyeは、反射ミラー66(図13では、凸レンズ)の光軸上で、ファインダー開口部67から距離P以上距離P2以内の位置に在り、第1観察状態における観察範囲67b(光軸上で、ファインダー開口部67から距離P以内)には無い。このため、ユーザーは、表示領域S(図9を参照)の一部しか観察することができない。   FIG. 13 is a diagram illustrating an observation range and an imaging range in the second observation state. In FIG. 13, the user's eye is located on the optical axis of the reflection mirror 66 (convex lens in FIG. 13) at a position within the distance P2 from the finder opening 67 and within the distance P2, and the observation range 67b in the first observation state. There is no distance (within the distance P from the finder opening 67 on the optical axis). For this reason, the user can observe only a part of the display area S (see FIG. 9).

そこで、第2観察状態では、HMD1は、縮小率ηで縮小した画像を、表示領域T(図9を参照)に表示させる。第2観察状態において、表示領域Tに表示される画像の縮小率η(第1観察状態との比率)は、次式(1)により示される。   Therefore, in the second observation state, the HMD 1 displays an image reduced at the reduction rate η in the display area T (see FIG. 9). In the second observation state, the reduction rate η (ratio with the first observation state) of the image displayed in the display region T is expressed by the following equation (1).

η = L71/L41 ・・・(1)   η = L71 / L41 (1)

例えば、ユーザーの眼の幅L41(図11を参照)が350画素であるのに対して、L71(図12を参照)が220画素である場合、HMD1は、約0.63倍(=(L71/L41)=(Th/Sh)=(Tw/Sw))に縦横をそれぞれ縮小した画像を、表示パネル63の表示領域Tに表示させる。表示領域Tに表示された画像(光学像)の全体は、ファインダー開口部67の縁に遮られることなく、ユーザーの眼に届く。なお、第2観察状態において、HMD1は、眼球照明ライト166の輝度を、第1観察状態におけるその輝度と比較して高くしてもよい。   For example, when the user's eye width L41 (see FIG. 11) is 350 pixels and L71 (see FIG. 12) is 220 pixels, HMD1 is about 0.63 times (= (L71 / L41) = (Th / Sh) = (Tw / Sw)), an image reduced in length and width is displayed in the display area T of the display panel 63. The entire image (optical image) displayed in the display area T reaches the user's eyes without being blocked by the edge of the finder opening 67. In the second observation state, the HMD 1 may increase the luminance of the eyeball illumination light 166 compared to the luminance in the first observation state.

以下、表示部60とユーザーの眼との相対位置が、第2観測状態と比較して左右いずれかの方向にずれている状態を、「第3観察状態」という。
次に、第3観察状態について、図9、図14、及び図15を用いて説明する。
図14は、第3観察状態における撮像画像の一例を説明する図である。第3観察状態では、第2観察状態と比較して、ユーザーの眼の画像が、一例として、画像の中心付近から右下方向にベクトルV1だけずれて撮像されているとする。
Hereinafter, a state in which the relative position between the display unit 60 and the user's eye is shifted in either the left or right direction compared to the second observation state is referred to as a “third observation state”.
Next, a 3rd observation state is demonstrated using FIG.9, FIG14 and FIG.15.
FIG. 14 is a diagram illustrating an example of a captured image in the third observation state. In the third observation state, it is assumed that, as an example, an image of the user's eye is captured with a vector V1 shifted from the vicinity of the center of the image in the lower right direction as compared with the second observation state.

符号601R2は、右眼の画像を示す符号であり、符号602R2は、右眉毛の画像を示す符号である。符号604Eは、眼球照明ライト166aによる輝点の画像を示す符号であり、符号604Fは、眼球照明ライト166bによる輝点の画像を示す符号である。また、一点鎖線で示した605Aは、ユーザーの眼の位置がずれていない場合に撮像される眼球の外形画像を表す。また、符号605Bは、ユーザーの眼が光軸中心にある場合の眼球の画像を表す。   Reference numeral 601R2 represents a right eye image, and reference numeral 602R2 represents a right eyebrow image. Reference numeral 604E represents a bright spot image by the eyeball illumination light 166a, and reference numeral 604F represents a bright spot image by the eyeball illumination light 166b. Also, 605A indicated by a one-dot chain line represents an outline image of an eyeball that is captured when the position of the user's eye is not displaced. Reference numeral 605B represents an image of the eyeball when the user's eye is at the center of the optical axis.

図15は、第3観察状態における観察範囲と撮像範囲を説明する図である。図15では、ユーザーの眼eyeは、観察範囲67e内、すなわち、ファインダー開口部67から距離P以上離れ、且つ、光軸CTから内側にV1のX成分量(=V1x)だけずれている位置に在る。観察範囲67eに在るユーザーの眼は、第1観察状態における観察範囲67b(光軸上で、ファインダー開口部67から距離P以内)には無いので、表示領域S(図9を参照)の一部しか観察することができない。   FIG. 15 is a diagram illustrating an observation range and an imaging range in the third observation state. In FIG. 15, the user's eye eye is at a position within the observation range 67e, that is, at a distance P or more from the finder opening 67 and shifted inward from the optical axis CT by the X component amount (= V1x) of V1. exist. Since the user's eye in the observation range 67e is not in the observation range 67b (within the distance P from the finder opening 67 on the optical axis) in the first observation state, one of the display areas S (see FIG. 9). Only the part can be observed.

そこで、第3観察状態では、HMD1は、ユーザーから表示画像の全体が観察できるように、所定の縮小率(=(Uh/Sh)=(Uw/Sw))で画像を縮小する。また、HMD1は、この縮小した画像を、表示領域U(図9を参照)に表示させる。ここで、HMD1は、表示領域S(図9を参照)における表示領域Uの位置を、ユーザーの眼の位置ずれ量及び方向に応じて定める。第3観察状態では、表示領域Uは、表示領域Sの右上に定められている。   Therefore, in the third observation state, the HMD 1 reduces the image at a predetermined reduction rate (= (Uh / Sh) = (Uw / Sw)) so that the entire display image can be observed from the user. Further, the HMD 1 displays the reduced image in the display area U (see FIG. 9). Here, the HMD 1 determines the position of the display area U in the display area S (see FIG. 9) according to the positional deviation amount and direction of the user's eyes. In the third observation state, the display area U is defined at the upper right of the display area S.

ここで、結像レンズ71及び撮像素子72から成る撮像系の記録画素数は、例えば、横640画素、縦480画素であるとする。また、結像レンズ71及び撮像素子72から成る撮像系の画角は、横60度、縦45度であるとする。この場合、1画素当たりの画角は、約0.094度となる。   Here, it is assumed that the number of recording pixels of the imaging system including the imaging lens 71 and the imaging element 72 is, for example, 640 pixels wide and 480 pixels vertically. Further, it is assumed that the angle of view of the imaging system including the imaging lens 71 and the imaging element 72 is 60 degrees lateral and 45 degrees longitudinal. In this case, the angle of view per pixel is about 0.094 degrees.

したがって、ユーザーの眼の位置の水平方向のずれ量(ベクトルV1のX成分量)が、例えば、30画素であれば、ユーザーの眼の位置は、4.7度(=30画素×0.094度)ほどずれていることになる。表示領域S(図9を参照)の水平方向(Sw:800画素)の視野角が、例えば、35度であれば、HMD1は、表示パネル63の中心から、108画素分(=Sw×4.7度÷35度)だけ、水平方向右に表示領域Uの位置を定める。HMD1は、垂直方向についても同様に、所定画素数だけずらした位置に表示領域Uを定める。   Therefore, if the amount of horizontal displacement of the user's eye position (X component amount of the vector V1) is, for example, 30 pixels, the user's eye position is 4.7 degrees (= 30 pixels × 0.094). Degree). If the viewing angle in the horizontal direction (Sw: 800 pixels) of the display area S (see FIG. 9) is, for example, 35 degrees, the HMD 1 is 108 pixels (= Sw × 4. The position of the display area U is determined to the right in the horizontal direction by 7 degrees / 35 degrees. Similarly, in the vertical direction, the HMD 1 defines the display area U at a position shifted by a predetermined number of pixels.

図14及び図15では、HMD1は、表示領域Uの水平方向Uwが500画素、縦方向Uhが375画素となるまで画像を縮小し、表示領域Sの中心から水平方向右に108画素、且つ、ベクトルV1のz成分量(=V1z)に対応する前記所定画素数だけ垂直方向上にずらした位置に、表示領域Uを定める。表示領域Uには、表示領域Uと同じ縮小率で縮小された画像が表示される。これにより、ユーザーの眼eyeが光軸上からずれた場合でも、HMD1は、画像の全体が見えるよう、その画像を表示することができる。   14 and 15, the HMD 1 reduces the image until the horizontal direction Uw of the display area U is 500 pixels and the vertical direction Uh is 375 pixels, 108 pixels to the right in the horizontal direction from the center of the display area S, and A display area U is defined at a position shifted vertically by the predetermined number of pixels corresponding to the z component amount (= V1z) of the vector V1. In the display area U, an image reduced at the same reduction ratio as the display area U is displayed. Thereby, even when the user's eye eye is shifted from the optical axis, the HMD 1 can display the image so that the entire image can be seen.

HMD1は、撮像画像から、例えば、眼の輪郭の画像を抽出し、抽出した眼の輪郭の画像の位置に基づいて、眼の位置ずれ量及び方向(ベクトルV1)を検出する。ここで、眼の位置ずれ量及び方向の検出は、撮像画像から眼球の画像を抽出し、抽出した眼球の輪郭画像のずれ量に基づいて、その眼の位置ずれ量及び方向を検出してもよい。また、HMD1は、眼球照明ライトLED166a〜166d(図2を参照)を適宜点灯させ、それらの眼球照明ライトが投射した光によるスポットを、ユーザーの眼球上で測定することで、ベクトルV1を検出するようにしてもよい。   The HMD 1 extracts, for example, an eye contour image from the captured image, and detects an eye displacement amount and direction (vector V1) based on the extracted position of the eye contour image. Here, the detection of the eye position deviation amount and direction may be performed by extracting an eyeball image from the captured image and detecting the eye position deviation amount and direction based on the extracted deviation amount of the outline image of the eyeball. Good. Further, the HMD 1 detects the vector V1 by appropriately turning on the eyeball illumination lights LEDs 166a to 166d (see FIG. 2) and measuring spots on the eyeball of the user projected by the eyeball illumination lights. You may do it.

上述したように、ユーザーの眼が表示部60から離れている、又は、光軸からずれている場合でも、HMD1では、ユーザーと表示部60との位置関係に応じて、ユーザーが画像の全領域を観察可能となるように、表示部60に画像を表示することができる。なお、表示領域を定めるタイミングは、注視点検出のためのキャリブレーション処理(後述)の前後のいずれでもよい。   As described above, even when the user's eyes are separated from the display unit 60 or deviated from the optical axis, the HMD 1 allows the user to select the entire area of the image according to the positional relationship between the user and the display unit 60. An image can be displayed on the display unit 60 so that the image can be observed. Note that the timing for determining the display area may be before or after calibration processing (described later) for detecting a point of interest.

次に、表示部60の配置と、ユーザーの眼の撮像について説明する。
図16は、眼の正面に表示部60を配置して、眼を含む周辺の画像を撮像する例を説明する図である。図17は、本実施形態に係る眼の下側に表示部60を配置して、眼を下から撮像する例を説明する図である。
Next, arrangement of the display unit 60 and imaging of the user's eyes will be described.
FIG. 16 is a diagram illustrating an example in which the display unit 60 is arranged in front of the eyes and a peripheral image including the eyes is captured. FIG. 17 is a diagram illustrating an example in which the display unit 60 is arranged on the lower side of the eye according to the present embodiment and the eye is imaged from below.

図16及び図17において、符号L11は、ユーザーの下瞼から眉毛までの距離を表している。また、図16及び図17において、距離L11は、40[mm]である。また、図16及び図17において、ユーザーの顔を横から見た場合における、上下方向をZ軸方向と、前後方向をY軸方向と称する。   In FIG.16 and FIG.17, the code | symbol L11 represents the distance from a user's lower eyelid to eyebrows. Further, in FIGS. 16 and 17, the distance L11 is 40 [mm]. 16 and 17, when the user's face is viewed from the side, the vertical direction is referred to as the Z-axis direction, and the front-back direction is referred to as the Y-axis direction.

図16に示すように、眼の正面に表示部60を配置した場合、ユーザーの下瞼から眉毛までを撮像するためには、幅L11以上(例えば、幅L31)を撮像できるまで、表示部60の結像レンズ71を、ユーザーの顔から遠ざける必要がある。ここで、幅L31は、例えば、70[mm]である。幅L31の範囲が撮像される場合、ユーザーの眼から結像レンズ71の中心まで、距離L21だけ離される必要がある。ここで、距離L21は、例えば85[mm]である。   As shown in FIG. 16, when the display unit 60 is arranged in front of the eyes, in order to image from the user's lower eyelid to eyebrows, the display unit 60 is captured until a width L11 or more (for example, width L31) can be imaged. It is necessary to keep the imaging lens 71 away from the user's face. Here, the width L31 is, for example, 70 [mm]. When the range of the width L31 is imaged, the distance L21 needs to be separated from the user's eye to the center of the imaging lens 71. Here, the distance L21 is, for example, 85 [mm].

なお、距離L21は、図8に示した光学系において、第1プリズム65a、第2プリズム65b等の光路長も含んでいる。仮に、第1プリズム65a、第2プリズム65b等の光路長の合計が20[mm]であるとすると、ユーザーの顔からY軸方向に65(=85−20)[mm]だけ、表示部60を遠ざける必要がある。   The distance L21 also includes the optical path lengths of the first prism 65a, the second prism 65b, etc. in the optical system shown in FIG. Assuming that the total optical path length of the first prism 65a, the second prism 65b, etc. is 20 [mm], the display unit 60 is only 65 (= 85-20) [mm] in the Y-axis direction from the user's face. It is necessary to keep away.

従って、眼の正面に表示部60を配置した場合、ユーザーの下瞼から眉毛までを撮像するためには、表示部60は、ユーザーの顔から遠ざけられた位置に配置される必要がある。   Therefore, when the display unit 60 is disposed in front of the eyes, the display unit 60 needs to be disposed at a position away from the user's face in order to capture an image from the user's lower eyelid to the eyebrows.

一方、図17に示すように、眼の下側に表示部60が配置された場合、ユーザーの下瞼から眉毛までの距離L11の範囲を撮像するためには、幅L61の撮像範囲を撮像する必要がある。ここで、下から煽るように撮像しているため、幅L61は、図16に示した幅L31より短い。例えば、幅L61は、20[mm]である。この撮像範囲20[mm]を確保するために必要な撮影距離(距離L51)は、例えば、45[mm]である。   On the other hand, as shown in FIG. 17, when the display unit 60 is arranged on the lower side of the eye, in order to image the range of the distance L11 from the user's lower eyelid to the eyebrows, the imaging range of the width L61 is imaged. There is a need. Here, since the image is picked up from below, the width L61 is shorter than the width L31 shown in FIG. For example, the width L61 is 20 [mm]. An imaging distance (distance L51) necessary for securing the imaging range 20 [mm] is, for example, 45 [mm].

図16と同様に、第1プリズム65a、第2プリズム65b等の光路長の合計が20[mm]である場合、表示部60は、ユーザーの顔から25[mm]だけ遠ざけられる。また、Y軸方向に対して表示部60が角度β傾けてられている場合、顔から結像レンズ71までのY軸方向の距離は、45[mm]にcosβが乗算された値となる。   Similarly to FIG. 16, when the total optical path length of the first prism 65a, the second prism 65b, etc. is 20 [mm], the display unit 60 is moved away from the user's face by 25 [mm]. When the display unit 60 is inclined by an angle β with respect to the Y-axis direction, the distance in the Y-axis direction from the face to the imaging lens 71 is a value obtained by multiplying cos β by 45 [mm].

HMD1は、眼の下に配置された表示部60が、眼の周辺画像を撮像できるので(図17を参照)、表示部60が眼の正面に配置された場合と比較して(図16を参照)、顔から表示部60までの距離が短い。これにより、HMD1は、大型化してしまうことがない。また、HMD1は、表示部60がユーザーの正面に配置されないため、表示部60がユーザーの正面視野を遮ることもない。さらに、HMD1は、表示部60がユーザーの顔の近傍に配置されることも可能なので、例えば、狭い作業空間などにおいて、表示部60が邪魔になることもない。   In the HMD 1, the display unit 60 arranged under the eyes can capture a peripheral image of the eye (see FIG. 17), so that the HMD 1 is compared with the case where the display unit 60 is arranged in front of the eyes (see FIG. 16). See), and the distance from the face to the display unit 60 is short. Thereby, HMD1 does not enlarge. Moreover, since the display part 60 is not arrange | positioned in front of a user, HMD1 does not block the front view of a user. Furthermore, since the display part 60 can also be arrange | positioned in the vicinity of a user's face, the display part 60 does not become obstructive, for example in a narrow work space.

また、HMD1は、表示部60が眼の下に配置された場合、表示部60が眼の正面に配置された場合と比較して(図16を参照)、眼球照明ライト166の輝度を低くしてもよい。これにより、HMD1は、消費電力を低減させることができる。   In addition, the HMD 1 lowers the luminance of the eyeball illumination light 166 when the display unit 60 is disposed under the eyes as compared with the case where the display unit 60 is disposed in front of the eyes (see FIG. 16). May be. Thereby, HMD1 can reduce power consumption.

次に、右眼観察形態と左眼観察形態との切り替えに伴う、撮像素子72の設置角度の調整について説明する。
図18は、本実施形態に係る撮像素子72の画角と選択範囲を説明する図である。図18(A)は、右眼観察形態における撮像素子72の画角と選択範囲を説明する図である。図18(B)は、左眼観察形態における撮像素子72の画角と選択範囲を説明する図である。なお、図18(A)及び図18(B)では、第1ヘッドバンド43、第2ヘッドバンド44、装置本体部21等は、図示が省略されている。
Next, adjustment of the installation angle of the image sensor 72 that accompanies switching between the right eye observation mode and the left eye observation mode will be described.
FIG. 18 is a diagram illustrating the angle of view and the selection range of the image sensor 72 according to the present embodiment. FIG. 18A is a diagram for explaining the angle of view and the selection range of the image sensor 72 in the right-eye observation mode. FIG. 18B is a diagram for explaining the angle of view and the selection range of the image sensor 72 in the left-eye observation mode. In FIGS. 18A and 18B, the first headband 43, the second headband 44, the apparatus main body 21 and the like are not shown.

図19は、本実施形態に係る撮像領域と選択領域を説明する図である。図19(A)は、ヘッドバンドヒンジ32(図2を参照)が揺動された場合における、撮像素子72(図3を参照)による撮像領域を説明する図である。また、図19(B)は、撮像領域から選択された選択領域を説明する図である。ここで、符号Pは、撮像素子72が撮像可能な範囲を示す符号である。また、撮像素子72は、例えば、4対3のアスペクト比を有する。   FIG. 19 is a diagram illustrating an imaging area and a selection area according to the present embodiment. FIG. 19A is a diagram illustrating an imaging region by the imaging element 72 (see FIG. 3) when the headband hinge 32 (see FIG. 2) is swung. FIG. 19B is a diagram for explaining a selection area selected from the imaging area. Here, the symbol P is a symbol indicating a range in which the image sensor 72 can capture an image. The image sensor 72 has, for example, an aspect ratio of 4 to 3.

右眼観察形態の場合、第1表示モード(図5(A)を参照)では、撮像素子72は、撮像領域のアスペクトが縦長になるように、表示部60内に設けられている。この場合、撮像素子72は、図18(A)及び図19(B)に示すように、符号Pで示した領域(以下、「撮像領域P」という)のうち、符号Qで示された領域(以下、「選択領域Q」という)に撮像される範囲のみの画像データを取り込む。これにより、撮像素子72は、右眼観察形態において、眉毛まで含めて右眼の画像データを適切に取り込むことができる。   In the case of the right-eye observation mode, in the first display mode (see FIG. 5A), the image sensor 72 is provided in the display unit 60 so that the aspect of the imaging region is vertically long. In this case, as shown in FIGS. 18 (A) and 19 (B), the image sensor 72 is a region indicated by a symbol Q among regions indicated by a symbol P (hereinafter referred to as “imaging region P”). The image data of only the range to be imaged is taken in (hereinafter referred to as “selected area Q”). Thereby, the image sensor 72 can appropriately capture the image data of the right eye including the eyebrows in the right eye observation mode.

一方、左眼観察形態の場合、第1表示モード(図5(B)を参照)では、撮像素子72は、撮像領域のアスペクトが縦長になるように、表示部60内に設けられている。この場合、撮像素子72は、図18(B)及び図19(B)に示すように、撮像領域Pのうち、符号Rで示された領域(以下、「選択領域R」という)に撮像される範囲のみの画像データを取り込む。これにより、撮像素子72は、左眼観察形態において、眉毛まで含めて左眼の画像データを適切に取り込むことができる。   On the other hand, in the case of the left-eye observation mode, in the first display mode (see FIG. 5B), the image sensor 72 is provided in the display unit 60 so that the aspect of the imaging region is vertically long. In this case, as shown in FIGS. 18B and 19B, the imaging element 72 is imaged in an area indicated by a symbol R (hereinafter referred to as “selection area R”) in the imaging area P. Image data of only the range. Thereby, the image sensor 72 can appropriately capture the image data of the left eye including the eyebrows in the left-eye observation mode.

また、HMD1は、右眼観察形態又は左眼観察形態のいずれであるかを、加速度センサーが検出した加速度を示す検出値(後述)の代わりに、撮像素子72による撮像画像に基づいて適切に判定することができる。   Further, the HMD 1 appropriately determines whether it is the right-eye observation form or the left-eye observation form based on an image captured by the image sensor 72 instead of a detection value (described later) indicating the acceleration detected by the acceleration sensor. can do.

図20は、本実施形態に係る選択範囲の選択を機械的に行う機構を説明する図である。撮像素子72の本体72aには、回転軸72bが固定されている。この回転軸72bに対しては、ダイヤル72cが設けられている。ユーザーは、ダイヤル72cを回動可能範囲で回動(図20では、D方向)にさせることで、回転軸72bを軸として、撮像素子72をチルトさせることができる。   FIG. 20 is a diagram illustrating a mechanism for mechanically selecting a selection range according to the present embodiment. A rotation shaft 72 b is fixed to the main body 72 a of the image sensor 72. A dial 72c is provided for the rotating shaft 72b. The user can tilt the image sensor 72 about the rotation shaft 72b by turning the dial 72c within the rotatable range (in the D direction in FIG. 20).

結像レンズ71が上を向く方向にチルトされた場合、選択領域Q(図19(B)を参照)は、撮像領域Pにおける上側の領域に定められる。これにより、撮像素子72は、ユーザーの眼及び眉毛を、撮像領域Qで撮像することができる。一方、結像レンズ71の下を向く方向にチルトされた場合、選択領域R(図19(B)を参照)は、撮像領域Pの下側の領域に定められる。これにより、撮像素子72は、ユーザーの眼及び眉毛を、撮像領域Rで撮像することができる。   When the imaging lens 71 is tilted in the upward direction, the selection area Q (see FIG. 19B) is determined as an upper area in the imaging area P. Thereby, the image sensor 72 can image the user's eyes and eyebrows in the imaging region Q. On the other hand, when tilted in the direction toward the bottom of the imaging lens 71, the selection region R (see FIG. 19B) is defined as a lower region of the imaging region P. Thereby, the image sensor 72 can image the user's eyes and eyebrows in the imaging region R.

なお、HMD1は、ダイヤル72cにより、撮像領域Q又は選択領域Rの位置を微調節することも可能である。また、撮像素子72による撮像画像が表示部60に表示された場合、ユーザーは、表示部60に表示されている撮像画像を観察しながら、表示部60と眼の位置関係に応じて、撮像素子72の撮像領域を選択することができる。この結果、HMD1は、範囲が適切になるよう撮像された撮像画像を用いて、HMD1の位置合わせ(後述)、及び注視点検出のためのキャリブレーションの精度を高めることができる。   The HMD 1 can also finely adjust the position of the imaging area Q or the selection area R with the dial 72c. When a captured image by the image sensor 72 is displayed on the display unit 60, the user observes the captured image displayed on the display unit 60 and determines the image sensor according to the positional relationship between the display unit 60 and the eyes. 72 imaging areas can be selected. As a result, the HMD 1 can increase the accuracy of calibration for HMD 1 alignment (described later) and gaze point detection using a captured image that is captured so that the range is appropriate.

次に、HMD1の機能ブロックについて説明する。
図21は、本実施形態に係るヘッドマウントディスプレイ1の機能ブロック図である。
HMD1には、処理部123を中心として種々の電気回路が備えられている。処理部123は、CPU(中央演算装置:Central Processing Unit)であり、HMD1の各種回路と接続されるとともに、HMD1を総合的に制御する。
Next, functional blocks of the HMD 1 will be described.
FIG. 21 is a functional block diagram of the head mounted display 1 according to the present embodiment.
The HMD 1 includes various electric circuits centering on the processing unit 123. The processing unit 123 is a CPU (Central Processing Unit) and is connected to various circuits of the HMD 1 and comprehensively controls the HMD 1.

バッテリー33は、電力を電源回路120に供給する。
電源回路120は、バッテリー33から供給された電力を、処理部123の制御によりHMD1の各部に供給する。
The battery 33 supplies power to the power supply circuit 120.
The power supply circuit 120 supplies the power supplied from the battery 33 to each unit of the HMD 1 under the control of the processing unit 123.

本実施形態の場合、処理部123には、エンコーダー129及びデコーダー121、電源回路120、操作スイッチ30、フラッシュメモリー122、BLドライバ126、BT通信回路130、WiFi通信回路131、加速度センサー132、地磁気センサー133、前方ライト68、3G/LTE通信回路138、レーザー発信器73、角速度センサー134、GPSセンサー135、温湿度センサー136、心拍数センサー137、メモリー127、メインスイッチ28、タッチスイッチ34、眼球照明ライト166a〜166dが接続されている。   In the present embodiment, the processing unit 123 includes an encoder 129 and a decoder 121, a power supply circuit 120, an operation switch 30, a flash memory 122, a BL driver 126, a BT communication circuit 130, a WiFi communication circuit 131, an acceleration sensor 132, and a geomagnetic sensor. 133, front light 68, 3G / LTE communication circuit 138, laser transmitter 73, angular velocity sensor 134, GPS sensor 135, temperature / humidity sensor 136, heart rate sensor 137, memory 127, main switch 28, touch switch 34, eyeball illumination light 166a to 166d are connected.

エンコーダー129は音声信号及び画像信号を所定方式の音声データ及び画像データにエンコード(符号化)する。エンコーダー129には、カメラ64、撮像素子72、集音マイク24、通話マイク37、オーディオコネクター26、ビデオコネクター27が接続されている。   The encoder 129 encodes (encodes) the audio signal and the image signal into audio data and image data of a predetermined method. Connected to the encoder 129 are a camera 64, an image sensor 72, a sound collection microphone 24, a call microphone 37, an audio connector 26, and a video connector 27.

エンコーダー129には、集音マイク24及び通話マイク37から入力される音声信号、カメラ64から入力される画像信号、オーディオコネクター26から入力される音声信号、ビデオコネクター27から入力される画像信号、及び、眼の周辺画像を撮影する撮像素子72の画像信号が入力される。エンコーダー129に入力された音声信号及び画像信号は音声データ及び画像データにエンコードされた後、処理部123に入力される。入力された音声データ及び画像像データは、処理部123による再生動作に用いられたり、フラッシュメモリー122に記録される。   The encoder 129 includes an audio signal input from the sound collection microphone 24 and the call microphone 37, an image signal input from the camera 64, an audio signal input from the audio connector 26, an image signal input from the video connector 27, and Then, an image signal of the image sensor 72 that captures a peripheral image of the eye is input. The audio signal and image signal input to the encoder 129 are encoded into audio data and image data, and then input to the processing unit 123. The input audio data and image image data are used for a reproduction operation by the processing unit 123 or recorded in the flash memory 122.

デコーダー121は、音声データ及び画像データを音声信号及び画像信号にデコード(復号化)する。デコーダー121には、LCDドライバ125、スピーカーアンプ162、オーディオコネクター26、及びビデオコネクター27が接続されている。LCDドライバ125は液晶パネル用の駆動制御装置であり、表示パネル36及び表示パネル63に接続されている。スピーカーアンプ162は音声信号を増幅してスピーカーに出力する装置であり、耳元スピーカー23及び前方スピーカー70に接続されている。   The decoder 121 decodes (decodes) audio data and image data into audio signals and image signals. An LCD driver 125, a speaker amplifier 162, an audio connector 26, and a video connector 27 are connected to the decoder 121. The LCD driver 125 is a drive control device for a liquid crystal panel, and is connected to the display panel 36 and the display panel 63. The speaker amplifier 162 is a device that amplifies an audio signal and outputs it to the speaker, and is connected to the ear speaker 23 and the front speaker 70.

画像データを再生する場合、フラッシュメモリー122に記録された画像データ、あるいはエンコーダー129から入力される画像データは、処理部123を介してデコーダー121に入力される。デコーダー121に入力された画像データは、画像信号にデコードされた後、LCDドライバ125を介して表示パネル36、63に供給される。そして、画像信号が入力された表示パネル36又は表示パネル63に画像データに基づく画像が表示される。また、デコーダー121からビデオコネクター27に出力される画像信号は、ビデオコネクター27を介して外部機器に出力される。   When reproducing the image data, the image data recorded in the flash memory 122 or the image data input from the encoder 129 is input to the decoder 121 via the processing unit 123. The image data input to the decoder 121 is decoded into an image signal and then supplied to the display panels 36 and 63 via the LCD driver 125. Then, an image based on the image data is displayed on the display panel 36 or the display panel 63 to which the image signal is input. The image signal output from the decoder 121 to the video connector 27 is output to an external device via the video connector 27.

また画像の表示に際して、処理部123は、必要に応じて表示パネル36用のバックライト35、及び表示パネル63用のバックライト62を点灯させる。BLドライバ126は、バックライト用の駆動制御装置であり、バックライト35及びバックライト62に接続されている。処理部123は、BLドライバ126に駆動信号を送信し、BLドライバ126はバックライト35、62を個々に点灯させる。   When displaying an image, the processing unit 123 turns on the backlight 35 for the display panel 36 and the backlight 62 for the display panel 63 as necessary. The BL driver 126 is a drive control device for the backlight, and is connected to the backlight 35 and the backlight 62. The processing unit 123 transmits a drive signal to the BL driver 126, and the BL driver 126 lights the backlights 35 and 62 individually.

音声データを再生する場合、フラッシュメモリー122に記録された音声データ、あるいはエンコーダー129から入力される音声データは、処理部123を介してデコーダー121に入力される。デコーダー121に入力された音声データは、音声信号にデコードされた後、スピーカーアンプ162を介して耳元スピーカー23及び前方スピーカー70のいずれか一方、又は両方に出力される。そして、音声信号を入力された耳元スピーカー23又は前方スピーカー70から音声が出力される。また、デコーダー121からオーディオコネクター26に出力される音声信号は、オーディオコネクター26を介してステレオイヤホン100に出力される。   When reproducing the audio data, the audio data recorded in the flash memory 122 or the audio data input from the encoder 129 is input to the decoder 121 via the processing unit 123. The audio data input to the decoder 121 is decoded into an audio signal and then output to one or both of the ear speaker 23 and the front speaker 70 via the speaker amplifier 162. Then, sound is output from the ear speaker 23 or the front speaker 70 to which the sound signal is input. The audio signal output from the decoder 121 to the audio connector 26 is output to the stereo earphone 100 via the audio connector 26.

本実施形態の場合、耳元スピーカー23及び前方スピーカー70は、モノラル音声の使用を想定しており、耳元スピーカー23及び前方スピーカー70からは左右の音声信号が合成された音が発せられる。   In the case of this embodiment, the ear speaker 23 and the front speaker 70 are assumed to use monaural sound, and the ear speaker 23 and the front speaker 70 emit a sound in which left and right audio signals are synthesized.

一方、ステレオイヤホン100に音声信号が出力される場合、第1スピーカー103及び第2スピーカー104のそれぞれ左チャンネル又は右チャンネルの音が出力される。ここで、本実施形態のHMD1は左右両用であるため、装着位置に応じてステレオイヤホン100への音声信号のチャンネルが切り替わる。すなわち、ディスプレイ本体20が右眼に装着されている場合には、第1スピーカー103に右チャンネル、第2スピーカー104に左チャンネルの音が出力される。ディスプレイ本体20が左眼に装着されている場合には第1スピーカー103に左チャンネル、第2スピーカー104に右チャンネルの音が出力される。   On the other hand, when an audio signal is output to the stereo earphone 100, the sound of the left channel or the right channel of the first speaker 103 and the second speaker 104 is output. Here, since the HMD 1 of this embodiment is for both left and right, the channel of the audio signal to the stereo earphone 100 is switched according to the mounting position. That is, when the display body 20 is attached to the right eye, the right channel sound is output to the first speaker 103 and the left channel sound is output to the second speaker 104. When the display body 20 is attached to the left eye, the left channel sound is output to the first speaker 103 and the right channel sound is output to the second speaker 104.

メモリー127には、処理部123によって実行される制御プログラムが記憶されている。
全体の電源のオンオフを行うメインスイッチ28や、画面内でのポインティング操作を行うための操作スイッチ30、あるいはタッチ操作により各種操作を行うタッチスイッチ34がユーザーにされると、これらのスイッチから操作に基づく制御信号が処理部123へ出力される。処理部123は、制御信号により操作を検出し、上記の制御プログラムに規定された動作を実行する。
The memory 127 stores a control program executed by the processing unit 123.
When the main switch 28 for turning on / off the entire power source, the operation switch 30 for performing a pointing operation on the screen, or the touch switch 34 for performing various operations by a touch operation are operated by the user, the operation can be performed from these switches. A control signal is output to the processing unit 123. The processing unit 123 detects an operation based on the control signal, and executes an operation defined in the control program.

BT通信回路130は、他の機器とのBluetooth(登録商標)通信を行うための通信回路である。WiFi通信回路131は、他の機器との無線LAN通信(IEEE 802.11)を行うための通信回路である。3G/LTE通信回路138は、他の機器との移動通信を行うための通信回路である。   The BT communication circuit 130 is a communication circuit for performing Bluetooth (registered trademark) communication with other devices. The WiFi communication circuit 131 is a communication circuit for performing wireless LAN communication (IEEE 802.11) with other devices. The 3G / LTE communication circuit 138 is a communication circuit for performing mobile communication with other devices.

加速度センサー132は、HMD1の傾き検出に用いられる。加速度センサー132は、例えば3軸センサーであり、重力加速度を検出する。加速度センサー132は、例えば、装置本体部21内に取り付けられている。   The acceleration sensor 132 is used for detecting the inclination of the HMD 1. The acceleration sensor 132 is a triaxial sensor, for example, and detects gravitational acceleration. The acceleration sensor 132 is attached, for example, in the apparatus main body 21.

以下、加速度センサー132の座標は、地表に直立したユーザーがHMD1を頭に装着している場合における、ユーザーにとっての上下方向をZ軸方向、左右方向をX軸方向、前後方向をY軸方向とする。また、加速度センサー132は、右眼観察形態の場合にZ軸方向の検出値が負値となり、左眼観察形態の場合にZ軸方向の検出値が正値となるように、取り付けられている。   Hereinafter, the coordinates of the acceleration sensor 132 are as follows: when the user standing upright on the ground is wearing the HMD 1 on the head, the vertical direction for the user is the Z-axis direction, the horizontal direction is the X-axis direction, and the front-back direction is the Y-axis direction. To do. The acceleration sensor 132 is attached so that the detected value in the Z-axis direction becomes a negative value in the case of the right-eye observation form, and the detected value in the Z-axis direction becomes a positive value in the case of the left-eye observation form. .

地磁気センサー133は、HMD1の方角検出に用いられる。角速度センサー(ジャイロセンサー)134は、HMD1の回転検出に用いられる。GPSセンサー135はGPS(Global Positioning System)を利用した測位検出に用いられる。温湿度センサー136は、環境の温度、湿度の検出に用いられる。心拍数センサー137は、ユーザーの頬に接触し、ユーザーの心拍数を検出する。   The geomagnetic sensor 133 is used for detecting the direction of the HMD 1. An angular velocity sensor (gyro sensor) 134 is used to detect rotation of the HMD 1. The GPS sensor 135 is used for positioning detection using GPS (Global Positioning System). The temperature / humidity sensor 136 is used to detect the temperature and humidity of the environment. The heart rate sensor 137 contacts the user's cheek and detects the user's heart rate.

図22は、本実施形態に係る処理部123の機能ブロック図である。処理部123は、入力検出部301、制御部302、記憶部303、眼球照明部304、音声調整部305、画像切替部306、画像表示部307、及び送受信部308を備えている。図22では、WiFi通信回路131及び3G/LTE通信回路138(図21を参照)を、「通信インタフェース(131、138)」と総称する。   FIG. 22 is a functional block diagram of the processing unit 123 according to the present embodiment. The processing unit 123 includes an input detection unit 301, a control unit 302, a storage unit 303, an eyeball illumination unit 304, an audio adjustment unit 305, an image switching unit 306, an image display unit 307, and a transmission / reception unit 308. In FIG. 22, the WiFi communication circuit 131 and the 3G / LTE communication circuit 138 (see FIG. 21) are collectively referred to as “communication interfaces (131, 138)”.

入力検出部301は、タッチスイッチ34上で行われた操作の種類を判別し、判別した結果に基づく制御信号を、制御部302、画像切替部306、及び送受信部308に出力する。タッチスイッチ34上で行われた操作の種類とは、発信の指示、及び受信の指示等である。入力検出部301は、タッチスイッチ34上の所定の領域がタッチされた場合、タッチされた領域に基づいて、これらの操作の種類を判別する。   The input detection unit 301 determines the type of operation performed on the touch switch 34, and outputs a control signal based on the determined result to the control unit 302, the image switching unit 306, and the transmission / reception unit 308. The types of operations performed on the touch switch 34 are a transmission instruction, a reception instruction, and the like. When a predetermined area on the touch switch 34 is touched, the input detection unit 301 determines the type of these operations based on the touched area.

制御部302は、加速度センサー132が検出した検出値、及び撮像素子72による撮像画像の少なくとも一方に基づいて、右眼観察形態又は右眼観察形態を判別する。ここで、制御部302は、撮像素子72による撮像画像については、例えば、眉毛と眼との相対位置、瞬きでの瞼の挙動、眉毛の輪郭、眼の輪郭、眼の左右の目尻の下がり方等に基づいて、撮像画像に映っているユーザーの眼が、左右どちらの眼の画像であるか(右眼観察形態又は右眼観察形態)を判別する。   The control unit 302 determines the right-eye observation form or the right-eye observation form based on at least one of the detection value detected by the acceleration sensor 132 and the image captured by the image sensor 72. Here, with respect to the image captured by the image sensor 72, the control unit 302, for example, the relative position between the eyebrows and the eye, the behavior of eyelids in blinking, the eyebrow contour, the eye contour, and the lowering of the left and right corners of the eye Based on the above, it is determined whether the user's eye shown in the captured image is an image of the left or right eye (right eye observation form or right eye observation form).

制御部302は、判別した結果に基づいて、眼球照明ライト166の点灯及び消灯を制御する。また、制御部302は、判別した結果に基づいて、オーディオコネクター26に接続されているステレオイヤホン100に出力する音声を制御する。また、制御部302は、判別した結果に基づいて、表示部60から投影する画像を制御する。   The control unit 302 controls lighting and extinguishing of the eyeball illumination light 166 based on the determined result. Further, the control unit 302 controls the sound output to the stereo earphone 100 connected to the audio connector 26 based on the determined result. Further, the control unit 302 controls an image projected from the display unit 60 based on the determined result.

制御部302は、入力検出部301が出力する制御信号と、撮像画像とに基づいて、注視点検出のためのキャリブレーション(補正)を行う。制御部302は、注視点検出のためのキャリブレーションにより生成した関係式、及び情報を、記憶部303に記憶させる。以下、この生成した関係式、及び情報を、「視線に基づいて操作するためのパラメータ」という。なお、注視点検出のためのキャリブレーションについては、後述する。   The control unit 302 performs calibration (correction) for gazing point detection based on the control signal output from the input detection unit 301 and the captured image. The control unit 302 causes the storage unit 303 to store the relational expression and information generated by the calibration for detecting the gazing point. Hereinafter, the generated relational expression and information are referred to as “parameters for operating based on the line of sight”. Note that calibration for detecting a point of interest will be described later.

制御部302は、表示部60の配置が適切であるか否かを、撮像画像に基づいて判別する。制御部302は、ユーザーの顔に対する表示部60の相対位置が適切でない場合、表示部60を適切な方向にずらすようにアナウンスする音声を、音声調整部305を介して耳元スピーカー23から出力させる。なお、このような位置合わせの処理については、後述する。   The control unit 302 determines whether the arrangement of the display unit 60 is appropriate based on the captured image. When the relative position of the display unit 60 with respect to the user's face is not appropriate, the control unit 302 causes the ear speaker 23 to output a sound to be announced so as to shift the display unit 60 in an appropriate direction. Such alignment processing will be described later.

記憶部303には、制御部302が生成した、視線に基づいて操作するためのパラメータが記憶されている。   The storage unit 303 stores parameters for operation based on the line of sight generated by the control unit 302.

眼球照明部304は、制御部302の制御に基づいて、眼球照明ライト166a〜166dを、点灯または消灯させるように駆動する。   Based on the control of the control unit 302, the eyeball illumination unit 304 drives the eyeball illumination lights 166a to 166d to be turned on or off.

音声調整部305には、エンコーダー129が出力する音声データ(HMD1のユーザーの音声データ)、送受信部308が出力する受信信号が入力される。音声調整部305は、送受信部308が出力する受信信号から、他の端末のユーザーの音声データ(以下、他端末の音声データともいう)を抽出する。音声調整部305は、制御部302が出力する装着状態を示す情報に基づいて、エンコーダー129が出力する音声データ(HMD1のユーザーの音声データ)、又は、他の端末のユーザーの音声データに基づく音声を、ステレオイヤホン100の左右どちらのスピーカーに出力するのかを選択し、左右のスピーカーの各音量等を調整する。   The voice adjustment unit 305 receives voice data output from the encoder 129 (voice data of the user of the HMD 1) and a reception signal output from the transmission / reception unit 308. The voice adjustment unit 305 extracts the voice data of the user of the other terminal (hereinafter also referred to as voice data of the other terminal) from the reception signal output from the transmission / reception unit 308. The voice adjustment unit 305 is based on the voice data output from the encoder 129 (HMD1 user voice data) or the voice of the other terminal user voice data based on the information indicating the mounting state output from the control unit 302. Is output to the left or right speaker of the stereo earphone 100, and the volume of each of the left and right speakers is adjusted.

画像切替部306は、入力検出部301が出力した制御信号に基づき、フラッシュメモリー122から読み出した画像データ、またはエンコーダー129が出力した画像データを取得する。画像切替部306は、取得した画像データの表示モードを、制御部302が出力した装着状態を示す情報に基づいて切り替え、切り替えた表示モードで、画像データを画像表示部307に出力する。ここで、表示モードとは、例えば、第1表示モード又は第2表示モードである。   The image switching unit 306 acquires the image data read from the flash memory 122 or the image data output from the encoder 129 based on the control signal output from the input detection unit 301. The image switching unit 306 switches the display mode of the acquired image data based on the information indicating the mounting state output by the control unit 302, and outputs the image data to the image display unit 307 in the switched display mode. Here, the display mode is, for example, a first display mode or a second display mode.

画像切替部306は、送受信部308が出力した受信信号から、画像切替信号を抽出する。画像切替部306は、画像切替信号が抽出できた場合、抽出した画像切替信号に基づき、フラッシュメモリー122から読み出した画像データ、またはエンコーダー129が出力した画像データを、画像表示部307に出力する。また、画像切替部306は、入力検出部301が出力した制御信号に基づき、エンコーダー129から出力された画像データ、またはフラッシュメモリー122から読み出した画像データの解像度を変換し、変換した画像データを画像表示部307に出力する。
画像切替部306は、パスワード設定画面、及びメニュー画面等を、制御部302の指示に応じて表示パネル63に表示させる。
The image switching unit 306 extracts an image switching signal from the reception signal output from the transmission / reception unit 308. When the image switching signal can be extracted, the image switching unit 306 outputs the image data read from the flash memory 122 or the image data output by the encoder 129 to the image display unit 307 based on the extracted image switching signal. The image switching unit 306 converts the resolution of the image data output from the encoder 129 or the image data read from the flash memory 122 based on the control signal output from the input detection unit 301, and converts the converted image data into an image. The data is output to the display unit 307.
The image switching unit 306 displays a password setting screen, a menu screen, and the like on the display panel 63 according to instructions from the control unit 302.

画像表示部307には、画像切替部306が出力した画像データが入力される。画像表示部307は、入力されたこれらの画像データに基づき、表示パネル63に表示する画像データを生成する。画像表示部307は、生成した画像データを、送受信部308、ビデオコネクター27、及びLCDドライバ125に出力する。   The image data output from the image switching unit 306 is input to the image display unit 307. The image display unit 307 generates image data to be displayed on the display panel 63 based on these input image data. The image display unit 307 outputs the generated image data to the transmission / reception unit 308, the video connector 27, and the LCD driver 125.

送受信部308は、入力検出部301が出力した制御信号に基づき、画像表示部307が出力した画像データを、通信インタフェース(131、138)を介して送信する。送受信部308は、通信インタフェース(131、138)を介して受信した受信信号を、画像切替部306に出力する。   The transmission / reception unit 308 transmits the image data output from the image display unit 307 via the communication interface (131, 138) based on the control signal output from the input detection unit 301. The transmission / reception unit 308 outputs a reception signal received via the communication interfaces (131, 138) to the image switching unit 306.

このように、本実施形態の頭部装着型情報入出力装置(HMD1)は、画像を表示する表示部60(表示パネル63)と、ユーザーの眼の近傍に表示部を保持する保持部と、表示部60に設けられ、ユーザーの眼の近傍(予め定められた距離内)を照明する複数の照明部(眼球照明ライト166)と、ユーザーと表示部60との位置関係に応じて、複数の照明部の点灯状態を制御する制御部(制御部302)と、を備える。
このような構成により、ユーザーの視線に基づいて操作するためのパラメータ取得の場合、またはユーザーの視線による操作の場合に、表示部60がユーザーの右眼、左眼、左右の眼の外側に配置されていても、ユーザーの眼に光線を照射することができる。この結果、ユーザーの眼の左側、右側、下側又は上側に表示部を配置された場合でも、ユーザーが観察している位置を検出できる。
なお、ユーザーの眼の近傍に表示部60を保持する保持部には、ヘッドパット46、ヘッドバンド40、連結ピン41、ディスプレイ本体20、ディスプレイ本体20の連結孔31等が含まれる。
As described above, the head-mounted information input / output device (HMD1) of the present embodiment includes a display unit 60 (display panel 63) that displays an image, a holding unit that holds the display unit near the user's eyes, A plurality of illumination units (eyeball illumination lights 166) that are provided on the display unit 60 and illuminate the vicinity of the user's eyes (within a predetermined distance), and a plurality of illumination units (eyeball illumination lights 166) depending on the positional relationship between the user and the display unit 60 A control unit (control unit 302) that controls the lighting state of the illumination unit.
With such a configuration, the display unit 60 is arranged outside the user's right eye, left eye, and left and right eyes in the case of parameter acquisition for operation based on the user's line of sight, or in the case of operation based on the user's line of sight. Even if it is done, it can irradiate the user's eyes with light. As a result, even when the display unit is arranged on the left side, the right side, the lower side, or the upper side of the user's eyes, the position observed by the user can be detected.
The holding unit that holds the display unit 60 in the vicinity of the user's eyes includes a head pad 46, a headband 40, a connection pin 41, the display body 20, the connection hole 31 of the display body 20, and the like.

次に、HMD1の動作について説明する。図23は、本実施形態に係るHMD1の電源オン状態後に行う動作のフローチャートである。
(ステップS1)処理部123は、HMD1のシステムの起動の完了を待って、システムの起動が完了したらステップS2に進む。なお、起動とは、メインスイッチ28が操作されてHMD1がコールドスタートする場合、ならびにHMD1が所定時間使われなかった場合などにスリープ状態に至り、その後、タッチスイッチ34などを操作された場合、ウォームスタートした場合などである。
Next, the operation of the HMD 1 will be described. FIG. 23 is a flowchart of operations performed after the HMD 1 according to the present embodiment is powered on.
(Step S1) The processing unit 123 waits for completion of activation of the system of the HMD1, and proceeds to step S2 when the activation of the system is completed. The activation means that the main switch 28 is operated to cold start the HMD 1 and the HMD 1 is not used for a predetermined time to reach a sleep state, and then the touch switch 34 or the like is operated. For example, when it starts.

(ステップS2)処理部123は、ユーザーが左右、どちらの眼でHMD1の表示部60を観察しているか検出する処理(以下、左右の眼の検出処理という)を行う。なお、この「左右の眼の検出処理」の詳細な処理は、後述する。処理部123は、検出した結果に基づいて、表示部60に表示する画像の向きを切り替える。 (Step S <b> 2) The processing unit 123 performs a process of detecting whether the user is observing the display unit 60 of the HMD 1 with the left or right eye (hereinafter referred to as a left / right eye detection process). Detailed processing of the “left and right eye detection processing” will be described later. The processing unit 123 switches the orientation of the image displayed on the display unit 60 based on the detected result.

(ステップS3)処理部123は、HMD1の表示部60が正しい装着位置に装着されるようにガイドを行う処理(以下、装着ガイドの処理という)を行う。なお、「装着ガイドの処理」の詳細な処理は、後述する。 (Step S <b> 3) The processing unit 123 performs a process of performing a guide (hereinafter referred to as a mounting guide process) so that the display unit 60 of the HMD 1 is mounted at the correct mounting position. The detailed processing of “mounting guide processing” will be described later.

(ステップS4)処理部123は、点灯させる眼球照明ライト166と、消灯させる眼球照明ライトを選択する処理(以下、眼球照明ライトの選択処理という)を行う。なお、「眼球照明ライトの選択処理」の詳細な処理は後述する。 (Step S4) The processing unit 123 performs a process of selecting an eyeball illumination light 166 to be turned on and an eyeball illumination light to be turned off (hereinafter referred to as an eyeball illumination light selection process). Details of the “eyeball illumination light selection process” will be described later.

(ステップS5)処理部123は、注視点検出のためのキャリブレーションを行う。なお、注視点検出のためのキャリブレーションの詳細な処理については、後述する。 (Step S5) The processing unit 123 performs calibration for gazing point detection. Details of the calibration process for detecting the point of interest will be described later.

次に、「左右の眼の検出処理」手順について説明する。
図24は、本実施形態に係る左右の眼の検出処理手順のフローチャートである。
Next, a procedure for “left and right eye detection processing” will be described.
FIG. 24 is a flowchart of the left and right eye detection processing procedure according to this embodiment.

(ステップS101)処理部123の制御部302は、加速度センサー132が検出した検出値において、Z軸方向の検出値が、X軸方向、Y軸方向より強いか否かを判別する。Z軸方向の検出値が、X軸方向、Y軸方向より強いと判別された場合(ステップS101;Yes)、ステップS102に進む。Z軸方向の検出値が、X軸方向、Y軸方向より強くないと判別された場合(ステップS101;No)、ステップS103に進む。 (Step S101) The control unit 302 of the processing unit 123 determines whether or not the detection value detected by the acceleration sensor 132 is stronger in the Z-axis direction than in the X-axis direction and the Y-axis direction. When it is determined that the detected value in the Z-axis direction is stronger than the X-axis direction and the Y-axis direction (step S101; Yes), the process proceeds to step S102. When it is determined that the detected value in the Z-axis direction is not stronger than the X-axis direction and the Y-axis direction (step S101; No), the process proceeds to step S103.

(ステップS102)Z軸方向の検出値が、X軸方向、Y軸方向より強いと判別された場合、表示部60は、図5(A)または図5(B)に示したような第1表示モードの装着形態である。このため、制御部302は、加速度センサー132の検出値に基づいて、右眼観察形態であるか左眼観察形態であるのかを判別する。次に、制御部302は、判別した結果を示す情報を、画像切替部306に出力する。 (Step S102) When it is determined that the detected value in the Z-axis direction is stronger than the X-axis direction and the Y-axis direction, the display unit 60 displays the first value as shown in FIG. 5 (A) or FIG. 5 (B). This is a display mode wearing form. Therefore, the control unit 302 determines whether the observation mode is the right eye observation mode or the left eye observation mode based on the detection value of the acceleration sensor 132. Next, the control unit 302 outputs information indicating the determined result to the image switching unit 306.

(ステップS103)Z軸方向の検出値が、X軸方向、Y軸方向より強くないと判別された場合、ユーザーが寝ているか仰向けの状態であるため、制御部302は、撮像素子72を駆動する。
図25は、右眼観察形態の場合の撮像範囲Pの撮像画像の一例を説明する図である。図26は、左眼観察形態の場合の撮像範囲Pの撮像画像の一例を説明する図である。
制御部302は、観察形態を判別するために、図19で説明した撮像領域Pを使って、眼の周辺画像を撮像素子72により撮像する。例えば、撮像画像は、図5(A)に示した第1表示モードかつ右眼観察形態で使用されるときの撮像画像(以下、第1右眼画像という)を基準としている。このため、図25に示すように、第1右眼画像610Rは、正立画像である。図25に示すように、第1右眼画像610Rでは、右眼の画像601R3に対して、右眉毛の画像602R3が+Z方向にある。
一方、図26に示すように、第1表示モードかつ左眼観察形態で使用されるときの眼の周辺画像(以下、第1左眼画像という)610Lは、倒立画像である。図26に示すように、第1左眼画像610Lでは、左眼の画像601Lに対して、右眉毛の画像602Lが−Z方向にある。
(Step S103) When it is determined that the detected value in the Z-axis direction is not stronger than the X-axis direction and the Y-axis direction, the control unit 302 drives the image sensor 72 because the user is sleeping or lying on the back. To do.
FIG. 25 is a diagram illustrating an example of a captured image in the imaging range P in the case of the right eye observation form. FIG. 26 is a diagram illustrating an example of a captured image in the imaging range P in the case of the left-eye observation form.
In order to discriminate the observation form, the control unit 302 captures a peripheral image of the eye with the image sensor 72 using the imaging region P described in FIG. For example, the captured image is based on the captured image (hereinafter referred to as the first right-eye image) when used in the first display mode and the right-eye observation mode illustrated in FIG. Therefore, as shown in FIG. 25, the first right eye image 610R is an erect image. As shown in FIG. 25, in the first right eye image 610R, the right eyebrow image 602R3 is in the + Z direction with respect to the right eye image 601R3.
On the other hand, as shown in FIG. 26, an eye peripheral image (hereinafter referred to as a first left eye image) 610L when used in the first display mode and the left eye observation form is an inverted image. As shown in FIG. 26, in the first left eye image 610L, the right eyebrow image 602L is in the −Z direction with respect to the left eye image 601L.

(ステップS104)図24に戻って、制御部302は、撮像画像から眉毛の画像が抽出可能であるか否かを判別する。眉毛の画像が抽出可能であると判別された場合(ステップS104;Yes)、ステップS105に進む。例えば、表示部60が眼に近い場合、または化粧等によって眉毛の判別が難しい場合など、眉毛の画像を抽出ができないと判別された場合(ステップS104;No)、ステップS106に進む。なお、制御部302は、例えばパターンマッチングの技術を用いて、眉毛の画像を抽出する。
例えば、ユーザーが右眼観察形態で使用している場合、選択領域Q(図19(A)を参照)に撮像された画像は、図11に示すような画像になる。一方、ユーザーが左眼観察形態で使用している場合、選択領域R(図20(B)を参照)に撮像された画像は、図27に示すような画像になる。図27は、左眼観察形態における撮像画像の一例を説明する図である。なお、図27では、選択領域Rの画像を180度回転させて示してある。このため、図27の−Z側がユーザーの上側、+Z側がユーザーの下側、−X側がユーザーの左側、+X側がユーザーの右側となる。また、図27において、符号601L1は、左眼の画像であり、符号602L1は、左眉毛の画像である。
なお、ステップS101〜S108の処理中、制御部302は、眼球照明ライト166を点灯させておいても、消灯させておいてもよい。ステップS101〜S108の処理中、制御部302は、バックライト62を点灯させておいてもよい。
(Step S104) Returning to FIG. 24, the control unit 302 determines whether or not an eyebrow image can be extracted from the captured image. If it is determined that the image of the eyebrows can be extracted (step S104; Yes), the process proceeds to step S105. For example, when it is determined that the eyebrow image cannot be extracted, such as when the display unit 60 is close to the eyes or when it is difficult to determine the eyebrows by makeup or the like (step S104; No), the process proceeds to step S106. Note that the control unit 302 extracts an image of eyebrows using, for example, a pattern matching technique.
For example, when the user is using the right-eye observation mode, the image captured in the selection area Q (see FIG. 19A) is an image as shown in FIG. On the other hand, when the user is using the left-eye observation mode, the image captured in the selection region R (see FIG. 20B) is an image as shown in FIG. FIG. 27 is a diagram illustrating an example of a captured image in the left-eye observation mode. In FIG. 27, the image of the selection region R is shown rotated by 180 degrees. Therefore, in FIG. 27, the −Z side is the upper side of the user, the + Z side is the lower side of the user, the −X side is the left side of the user, and the + X side is the right side of the user. In FIG. 27, reference numeral 601L1 is a left eye image, and reference numeral 602L1 is a left eyebrow image.
Note that during the processing in steps S101 to S108, the control unit 302 may turn on or turn off the eyeball illumination light 166. During the processes in steps S101 to S108, the control unit 302 may turn on the backlight 62.

(ステップS105)眉毛の画像が撮像画像から抽出可能である場合、制御部302は、眉毛の画像と眼の画像との位置や、眉毛の形状から、例えばパターンマッチングの技術や画像の特徴量による画像比較の技術を用いて、撮像画像が、ユーザーの右眼の画像であるか左眼の画像であるかを判別する。次に、制御部302は、判別した結果を示す情報を、画像切替部306に出力する。
例えば、図25に示したように、眼球の画像に対して眉毛の画像が、+Z方向にあると判別した場合、制御部302は、ユーザーが右眼で表示部60を観察している右眼観察形態であると判別する。一方、図26に示したように、眼球の画像に対して眉毛の画像が、−Z方向にあると判別した場合、制御部302は、ユーザーが左眼で表示部60を観察している左眼観察形態であると判別する。
(Step S105) When the image of the eyebrows can be extracted from the captured image, the control unit 302 uses, for example, a pattern matching technique or an image feature amount from the position of the eyebrow image and the eye image or the shape of the eyebrows. Using the image comparison technique, it is determined whether the captured image is a right-eye image or a left-eye image of the user. Next, the control unit 302 outputs information indicating the determined result to the image switching unit 306.
For example, as illustrated in FIG. 25, when it is determined that the image of the eyebrows is in the + Z direction with respect to the image of the eyeball, the control unit 302 causes the right eye that the user observes the display unit 60 with the right eye. It is determined that it is an observation form. On the other hand, as illustrated in FIG. 26, when it is determined that the image of the eyebrows is in the −Z direction with respect to the image of the eyeball, the control unit 302 displays the left where the user observes the display unit 60 with the left eye. It is determined that it is an eye observation form.

(ステップS106)眉毛の画像が撮像画像から抽出可能ではない場合、制御部302は、瞬きでの瞼の挙動から、例えばパターンマッチングの技術や画像の特徴量による画像比較の技術を用いて、ユーザーの右眼であるか左眼であるかを判別する。次に、制御部302は、判別した結果を示す情報を、画像切替部306に出力する。
例えば、瞬きは上瞼が動くことから、瞼が図11において+Z方向から−Z方向へ移動し、すぐに−Z方向から+Z方向へ戻った場合、制御部302は、ユーザーが右眼で表示部60を観察している右眼観察形態であると判別する。また、瞼の移動開始方向ならびに戻り方向がこの逆となった場合、制御部302は、ユーザーが左眼で表示部60を観察している左眼観察形態であると判別する。
以上のように、本実施形態によれば、ユーザーが横方向に寝ている様な場合にも、加速度センサー132が検出した重力の方向にたよらずに、眉毛や瞼の動きを検出することでユーザーが観察している眼の方向を判別できる。
(Step S106) When the eyebrow image cannot be extracted from the captured image, the control unit 302 uses the pattern matching technique or the image comparison technique based on the image feature amount, for example, based on the behavior of eyelids in blinking. It is discriminated whether it is the right eye or the left eye. Next, the control unit 302 outputs information indicating the determined result to the image switching unit 306.
For example, since the upper eyelid moves during blinking, when the eyelid moves from the + Z direction to the −Z direction in FIG. 11 and immediately returns from the −Z direction to the + Z direction, the control unit 302 displays the right eye. It is determined that this is the right-eye observation mode in which the unit 60 is observed. Further, when the movement start direction and the return direction of the eyelid are reversed, the control unit 302 determines that the left-eye observation mode is that the user observes the display unit 60 with the left eye.
As described above, according to the present embodiment, even when the user is lying in the horizontal direction, it is possible to detect the movement of the eyebrows and the eyelashes without depending on the direction of gravity detected by the acceleration sensor 132. The direction of the eye that the user is observing can be determined.

(ステップS107)ステップS106までの判別結果に基づいて、ユーザーが右眼観察形態で使用していると判別された場合、制御部302は、撮像素子72が撮像した撮像領域Pから選択領域Qを選択し、ステップS108へ進む。一方、ユーザーが左眼観察形態で使用していると判別された場合、制御部302は、撮像領域Pから選択領域Rを選択し、ステップS108へ進む。 (Step S107) When it is determined that the user is using the right-eye observation mode based on the determination results up to Step S106, the control unit 302 selects the selection region Q from the imaging region P captured by the imaging element 72. Select and proceed to step S108. On the other hand, when it is determined that the user is using the left-eye observation form, the control unit 302 selects the selection region R from the imaging region P, and proceeds to step S108.

(ステップS108)ステップS106までの判別結果に基づいて、右眼観察形態であると判別された場合、画像切替部306は、表示部60の表示方向を右眼用に設定する。また、ステレオイヤホン100が接続されている場合、音声調整部305は、第1スピーカー103を右耳用に、第2スピーカー104を左耳用になるようステレオ音声出力の左右を設定する。
一方、左眼観察形態であると判別された場合、画像切替部306は、表示部60の表示方向を左眼用に設定する。なお、左眼用の表示方向とは、右眼用の表示顔面を180度回転させて上下反転させる方向である。また、ステレオイヤホン100が接続されている場合、音声調整部305は、第1スピーカー103を左耳用に、第2スピーカー104を右耳用になるようステレオ音声出力の左右を設定する。
(Step S <b> 108) If it is determined that the right-eye observation mode is set based on the determination results up to step S <b> 106, the image switching unit 306 sets the display direction of the display unit 60 for the right eye. When the stereo earphone 100 is connected, the audio adjustment unit 305 sets the left and right stereo audio output so that the first speaker 103 is for the right ear and the second speaker 104 is for the left ear.
On the other hand, when the left-eye observation mode is determined, the image switching unit 306 sets the display direction of the display unit 60 for the left eye. The display direction for the left eye is a direction in which the display face for the right eye is rotated 180 degrees and turned upside down. When the stereo earphone 100 is connected, the audio adjustment unit 305 sets the left and right stereo audio output so that the first speaker 103 is for the left ear and the second speaker 104 is for the right ear.

なお、ステップS101〜S106において、右眼観察形態であるか否かを、加速度センサー132の検出値、撮像画像に基づいて判別する例を説明したが、右眼観察形態であるか否かの判定方法は、これに限られない。
例えば、HMD1は、ディスプレイ本体20に取り付けられている不図示のスイッチ等により検出するようにしてもよい。むろんユーザーが、手動で右眼観察形態または左眼観察形態に設定してもよい。
In addition, although the example which discriminate | determines whether it is a right-eye observation form in step S101-S106 based on the detected value of the acceleration sensor 132 and a captured image was demonstrated, determination of whether it is a right-eye observation form The method is not limited to this.
For example, the HMD 1 may be detected by a switch or the like (not shown) attached to the display main body 20. Of course, the user may manually set the right-eye observation form or the left-eye observation form.

次に、「装着ガイドの処理」手順について説明を行う。
図28は、本実施形態に係るHMD1の装着ガイドの処理手順のフローチャートである。なお、以下の説明では、表示パネル63を、LCD63と称する。この処理は、ユーザーがHMD1を使用、LCD63の表示が行われているときに、適宜この処理を行って、ユーザーにLCD63のずれを補正するように注意を促しても良い。あるいは、タッチスイッチ34等の操作により、位置合わせを行うようユーザーが指示したときに行うようにしてもよい。
Next, the “mounting guide processing” procedure will be described.
FIG. 28 is a flowchart of the processing procedure of the mounting guide for the HMD 1 according to the present embodiment. In the following description, the display panel 63 is referred to as an LCD 63. In this process, when the user uses the HMD 1 and the LCD 63 is being displayed, this process may be appropriately performed to prompt the user to correct the deviation of the LCD 63. Alternatively, it may be performed when the user instructs to perform alignment by operating the touch switch 34 or the like.

本実施形態では、図18(A)及び図18(B)で説明したように、ユーザーの眼の斜め下に撮像素子72を備えている表示部60が配置される。このため、撮像素子72は、図17に示したように、ユーザーの眼の周りの画像を斜め下から撮像する。しかしながら、表示部60と眼との間隔が適切でない場合、及び表示部60の画面中心と眼の中心とがずれている場合、ユーザーはLCD63に表示されている画像を適切に観測できない。このため、本実施形態では、制御部302が、撮像素子72が撮像した画像に基づいて、ユーザーの眼の位置に対して表示部60の位置がずれていることを検出して、ユーザーにアナウンスする。   In the present embodiment, as described with reference to FIGS. 18A and 18B, the display unit 60 including the image sensor 72 is disposed obliquely below the user's eye. For this reason, as shown in FIG. 17, the image sensor 72 captures an image around the user's eye obliquely from below. However, when the distance between the display unit 60 and the eyes is not appropriate, and when the screen center of the display unit 60 and the center of the eyes are shifted, the user cannot properly observe the image displayed on the LCD 63. For this reason, in the present embodiment, the control unit 302 detects that the position of the display unit 60 is deviated from the position of the user's eye based on the image captured by the image sensor 72 and announces to the user. To do.

(ステップS201)制御部302は、例えば、パターンマッチングの技術を用いて、眼の画像を抽出する。制御部302は、「左右の眼の検出処理」の判別結果に基づいて、ユーザーが右眼観察形態で使用していると判別された場合(ステップS201;Yes)、ステップS202へ進み、ユーザーが左眼観察形態で使用していると判別された場合(ステップS201;No)、ステップS214へ進む。 (Step S201) The control unit 302 extracts an eye image using, for example, a pattern matching technique. When it is determined that the user is using the right-eye observation form based on the determination result of “left and right eye detection process” (step S201; Yes), the control unit 302 proceeds to step S202, and the user When it is determined that the left-eye observation mode is used (step S201; No), the process proceeds to step S214.

(ステップS202)制御部302は、撮像画像(例えば、図11を参照)に基づいて、ユーザーの眼の位置が+X方向にずれているか否かの判別を行う。ユーザーの眼の位置が+X方向にずれていると判別された場合(ステップS202;Yes)、ステップS203に進む。ユーザーの眼の位置が+X方向にずれていないと判別した場合(ステップS202;No)、ステップS204に進む。 (Step S202) The control unit 302 determines whether or not the position of the user's eyes is shifted in the + X direction based on the captured image (see, for example, FIG. 11). When it is determined that the position of the user's eye is shifted in the + X direction (step S202; Yes), the process proceeds to step S203. When it is determined that the position of the user's eye is not shifted in the + X direction (step S202; No), the process proceeds to step S204.

(ステップS203)ユーザーの眼の位置が+X方向にずれていると判別された場合、ユーザーの眼に対して表示部60が、ユーザーの右側にずれていることになる。このため、このような場合、処理部123は、ユーザーへ表示部60をユーザーの左側にずらすように、例えば耳元スピーカー23からアナウンスを行う。 (Step S203) When it is determined that the position of the user's eye is shifted in the + X direction, the display unit 60 is shifted to the right side of the user with respect to the user's eye. For this reason, in such a case, the processing unit 123 makes an announcement from the ear speaker 23, for example, so as to shift the display unit 60 to the left side of the user.

(ステップS204)制御部302は、撮像画像に基づいて、ユーザーの眼の位置が−X方向にずれているか否かを判別する。ユーザーの眼の位置が−X方向にずれていると判別された場合(ステップS204;Yes)、ステップS205に進む。ユーザーの眼の位置が−X方向にずれていないと判別された場合(ステップS204;No)、ステップS206に進む。 (Step S <b> 204) The control unit 302 determines whether or not the position of the user's eye is shifted in the −X direction based on the captured image. When it is determined that the position of the user's eye is shifted in the −X direction (step S204; Yes), the process proceeds to step S205. When it is determined that the position of the user's eye is not shifted in the −X direction (step S204; No), the process proceeds to step S206.

(ステップS205)ユーザーの眼の位置が−X方向にずれていると判別された場合、処理部123は、ユーザーへ表示部60をユーザーの右側にずらすように、例えば耳元スピーカー23からアナウンスを行う。 (Step S205) When it is determined that the position of the user's eyes is shifted in the -X direction, the processing unit 123 makes an announcement from the ear speaker 23, for example, so as to shift the display unit 60 to the user's right side. .

(ステップS206)制御部302は、撮像画像に基づいて、ユーザーの眼の位置が+Z方向にずれているか否かを判別する。ユーザーの眼が+Z方向にずれていると判別された場合(ステップS206;Yes)、ステップS207に進む。ユーザーの眼の位置が+Z方向にずれていないと判別された場合(ステップS206;No)、ステップS208に進む。 (Step S206) The control unit 302 determines whether or not the position of the user's eye is shifted in the + Z direction based on the captured image. When it is determined that the user's eyes are displaced in the + Z direction (step S206; Yes), the process proceeds to step S207. When it is determined that the position of the user's eye is not shifted in the + Z direction (step S206; No), the process proceeds to step S208.

(ステップS207)ユーザーの眼の位置が+Z方向にずれていると判別された場合、処理部123は、ユーザーへ表示部60をユーザーの上側にずらすように、例えば耳元スピーカー23からアナウンスを行う。 (Step S207) When it is determined that the position of the user's eye is shifted in the + Z direction, the processing unit 123 makes an announcement from the ear speaker 23, for example, so as to shift the display unit 60 to the user.

(ステップS208)制御部302は、撮像画像に基づいて、ユーザーの眼の位置が−Z方向にずれている否かを判別する。ユーザーの眼の位置が−Z方向にずれていると判別された場合(ステップS208;Yes)、ステップS209に進む。ユーザーの眼の位置が+Z方向にずれていないと判別された場合(ステップS208;No)、ステップS210に進む。 (Step S208) The control unit 302 determines whether or not the position of the user's eye is shifted in the −Z direction based on the captured image. When it is determined that the position of the user's eye is shifted in the −Z direction (step S208; Yes), the process proceeds to step S209. When it is determined that the position of the user's eye is not shifted in the + Z direction (step S208; No), the process proceeds to step S210.

(ステップS209)ユーザーの眼の位置が−Z方向にずれていると判別された場合、処理部123は、ユーザーへ表示部60をユーザーの下側にずらすように、例えば耳元スピーカー23からアナウンスを行う。 (Step S209) When it is determined that the position of the user's eyes is shifted in the -Z direction, the processing unit 123 makes an announcement from the ear speaker 23, for example, so as to shift the display unit 60 to the user's lower side. Do.

(ステップS210)制御部302は、撮像画像に基づいて、ユーザーの眼の画像が所定の大きさより大きいか否かを判別する。ユーザーの眼の画像が所定の大きさより大きいと判別された場合(ステップS210;Yes)、ステップS211に進む。ユーザーの眼の画像が所定の大きさより大きくないと判別された場合(ステップS210;No)、ステップS212に進む。例えば、制御部302は、眼の画像を抽出し、抽出した画像に基づいて、眼の幅を抽出する。制御部302は、抽出した眼の幅が所定の大きさより大きいか否かを判別する。 (Step S210) The control unit 302 determines whether the image of the user's eye is larger than a predetermined size based on the captured image. When it is determined that the image of the user's eye is larger than the predetermined size (step S210; Yes), the process proceeds to step S211. When it is determined that the image of the user's eye is not larger than the predetermined size (step S210; No), the process proceeds to step S212. For example, the control unit 302 extracts an eye image, and extracts the eye width based on the extracted image. The control unit 302 determines whether or not the extracted eye width is larger than a predetermined size.

(ステップS211)ユーザーの眼の画像が所定の大きさより大きいと判別された場合、ユーザーの眼が表示部60に近すぎると推定されるので、処理部123は、表示部60を眼から離すように耳元スピーカー23からアナウンスを行う。 (Step S211) If it is determined that the image of the user's eyes is larger than the predetermined size, it is estimated that the user's eyes are too close to the display unit 60, so that the processing unit 123 moves the display unit 60 away from the eyes. Announcement is made from the ear speaker 23.

(ステップS212)制御部302は、撮像画像に基づいて、ユーザーの眼の画像が所定の大きさより小さいか否かを判別する。ユーザーの眼の画像が所定の大きさより小さいと判別された場合(ステップS212;Yes)、ステップS213に進む。ユーザーの眼の画像が所定の大きさより小さくないと判別された場合(ステップS212;No)、装着状態の判定処理を終了する。 (Step S212) The control unit 302 determines whether the image of the user's eye is smaller than a predetermined size based on the captured image. When it is determined that the image of the user's eye is smaller than the predetermined size (step S212; Yes), the process proceeds to step S213. When it is determined that the image of the user's eye is not smaller than the predetermined size (step S212; No), the wearing state determination process is terminated.

(ステップS213)ユーザーの眼の画像が所定の大きさより小さいと判別された場合、ユーザーの眼が表示部60から遠すぎると推定されるので、処理部123は、表示部60を眼に近づけるように耳元スピーカー23からアナウンスを行う。 (Step S213) If it is determined that the image of the user's eyes is smaller than the predetermined size, it is estimated that the user's eyes are too far from the display unit 60, so that the processing unit 123 brings the display unit 60 closer to the eyes. Announcement is made from the ear speaker 23.

(ステップS214)ユーザーが左眼観察形態で使用していると判別された場合、制御部302は、撮像画像(例えば、図27を参照)に基づいて、ユーザーの眼の位置が+X方向にずれているか否かの判別を行う。ユーザーの眼の位置が+X方向にずれていると判別された場合(ステップS214;Yes)、ステップS215に進む。ユーザーの眼の位置が+X方向にずれていないと判別された場合(ステップS214;No)、ステップS216に進む。 (Step S214) When it is determined that the user is using the left-eye observation form, the control unit 302 shifts the position of the user's eyes in the + X direction based on the captured image (for example, see FIG. 27). It is determined whether or not. When it is determined that the position of the user's eye is shifted in the + X direction (step S214; Yes), the process proceeds to step S215. When it is determined that the position of the user's eye is not shifted in the + X direction (step S214; No), the process proceeds to step S216.

(ステップS215)ユーザーの眼の位置が+X方向にずれていると判別された場合、ユーザーの眼に対して表示部60が、ユーザーの左側にずれていることになる。このため、このような場合、処理部123は、ユーザーへ表示部60をユーザーの右側にずらすように、例えば耳元スピーカー23からアナウンスを行う。 (Step S215) When it is determined that the position of the user's eye is shifted in the + X direction, the display unit 60 is shifted to the left side of the user with respect to the user's eye. For this reason, in such a case, the processing unit 123 makes an announcement from the ear speaker 23, for example, so as to shift the display unit 60 to the right side of the user.

(ステップS216)制御部302は、撮像画像に基づいて、ユーザーの眼の位置が−X方向にずれているか否かを判別する。ユーザーの眼の位置が−X方向にずれていると判別された場合(ステップS216;Yes)、ステップS217に進む。ユーザーの眼の位置が−X方向にずれていないと判別された場合(ステップS216;No)、ステップS218に進む。 (Step S216) The control unit 302 determines whether the position of the user's eye is shifted in the −X direction based on the captured image. When it is determined that the position of the user's eye is shifted in the −X direction (step S216; Yes), the process proceeds to step S217. When it is determined that the position of the user's eye is not shifted in the −X direction (step S216; No), the process proceeds to step S218.

(ステップS217)ユーザーの眼の位置が−X方向にずれていると判別された場合、処理部123は、ユーザーへ表示部60をユーザーの左側にずらすように、例えば耳元スピーカー23からアナウンスを行う。 (Step S217) When it is determined that the position of the user's eyes is shifted in the −X direction, the processing unit 123 makes an announcement from the ear speaker 23, for example, so as to shift the display unit 60 to the left side of the user. .

(ステップS218)制御部302は、撮像画像に基づいて、ユーザーの眼の位置が+Z方向にずれているか否かを判別する。ユーザーの眼の位置が+Z方向にずれていると判別された場合(ステップS218;Yes)、ステップS219に進む。ユーザーの眼の位置が+Z方向にずれていないと判別された場合(ステップS218;No)、ステップS220に進む。 (Step S218) The control unit 302 determines whether or not the position of the user's eye is shifted in the + Z direction based on the captured image. When it is determined that the position of the user's eye is shifted in the + Z direction (step S218; Yes), the process proceeds to step S219. When it is determined that the position of the user's eye is not shifted in the + Z direction (step S218; No), the process proceeds to step S220.

(ステップS219)ユーザーの眼の位置が+Z方向にずれていると判別された場合、処理部123は、ユーザーへ表示部60をユーザーの下側にずらすように、例えば耳元スピーカー23からアナウンスを行う。 (Step S219) When it is determined that the position of the user's eyes is shifted in the + Z direction, the processing unit 123 makes an announcement from the ear speaker 23, for example, so as to shift the display unit 60 to the user's lower side. .

(ステップS220)制御部302は、撮像画像に基づいて、ユーザーの眼の位置が−Z方向にずれている否かを判別する。ユーザーの眼の位置が−Z方向にずれていると判別された場合(ステップS220;Yes)、ステップS221に進む。ユーザーの眼の位置が+Z方向にずれていないと判別された場合(ステップS220;No)、ステップS210に進む。 (Step S <b> 220) The control unit 302 determines whether the position of the user's eye is shifted in the −Z direction based on the captured image. When it is determined that the position of the user's eye is shifted in the −Z direction (step S220; Yes), the process proceeds to step S221. When it is determined that the position of the user's eye is not shifted in the + Z direction (step S220; No), the process proceeds to step S210.

(ステップS221)ユーザーの眼の位置が−Z方向にずれていると判別された場合、処理部123は、ユーザーへ表示部60をユーザーの上側にずらすように、例えば耳元スピーカー23からアナウンスを行う。
ステップS221処理後、処理部123は、ステップS211からS213を行い、HMD1の装着ガイドの処理を終了する。
(Step S221) When it is determined that the position of the user's eye is shifted in the -Z direction, the processing unit 123 makes an announcement from the ear speaker 23, for example, so as to shift the display unit 60 to the user. .
After the processing in step S221, the processing unit 123 performs steps S211 to S213, and ends the processing for mounting the HMD1.

次に、眼球照明ライトの選択処理について説明する。図29は、本実施形態に係るHMD1の眼球照明ライトの選択処理手順のフローチャートである。   Next, the eyeball illumination light selection process will be described. FIG. 29 is a flowchart of the selection processing procedure of the eyeball illumination light of the HMD 1 according to the present embodiment.

(ステップS401)制御部302は、「左右の眼の検出処理」の判別結果に基づいて、ユーザーが右眼観察形態で使用していると判別された場合(ステップS401;Yes)、ステップS402へ進み、ユーザーが左眼観察形態で使用していると判別された場合(ステップS401;No)、ステップS403へ進む。 (Step S401) When the control unit 302 determines that the user is using the right-eye observation mode based on the determination result of the “left and right eye detection process” (step S401; Yes), the process proceeds to step S402. If it is determined that the user is using the left-eye observation form (step S401; No), the process proceeds to step S403.

(ステップS402)ユーザーが右眼観察形態で使用していると判別された場合、制御部302は、眼球照明ライト166a及び166bを選択し、選択した結果を眼球照明ライト選択設定として記憶部303に記憶させる。制御部302は、眼球照明ライト166c及び166dを消灯させて、眼球照明ライトの選択処理を終了する。 (Step S402) When it is determined that the user is using the right-eye observation mode, the control unit 302 selects the eyeball illumination lights 166a and 166b and stores the selected result in the storage unit 303 as the eyeball illumination light selection setting. Remember. The control unit 302 turns off the eyeball illumination lights 166c and 166d and ends the eyeball illumination light selection process.

(ステップS403)ユーザーが左眼観察形態で使用していると判別された場合、制御部302は、眼球照明ライト166c及び166dを選択し、選択した結果を眼球照明ライト選択設定として記憶部303に記憶させる。制御部302は、眼球照明ライト166c及び166dを消灯させて、眼球照明ライトの選択処理を終了する。 (Step S403) When it is determined that the user is using the left-eye observation mode, the control unit 302 selects the eyeball illumination lights 166c and 166d and stores the selected result in the storage unit 303 as the eyeball illumination light selection setting. Remember. The control unit 302 turns off the eyeball illumination lights 166c and 166d and ends the eyeball illumination light selection process.

以上のように、本実施形態のHMD1は、表示部60とユーザーとの位置関係に応じて、眼球照明ライト166a〜166dを選択して点灯させるようにした。この結果、本実施形態のHMD1は、眼球を照明するライトを適宜選択可能としたことにより、使用者の眼を的確に照明できるとともに、消費電力を抑えることが可能となった。   As described above, the HMD 1 of the present embodiment selects and turns on the eyeball illumination lights 166a to 166d according to the positional relationship between the display unit 60 and the user. As a result, the HMD 1 of the present embodiment can appropriately illuminate the user's eyes by appropriately selecting a light for illuminating the eyeball, and can reduce power consumption.

ここで、第1実施形態との比較例について説明する。
図30は、第1実施形態に係る「注視点検出のためのキャリブレーション」との比較例としてのキャリブレーションの実例(以下、「キャリブレーション比較例」という)について説明する図である。以下に、ユーザーがHMD1を用いて、仮に、キャリブレーション比較例を行う場合について説明する。
図30において、画像400Aは、表示パネル63上に表示される画像である。ユーザーの視線入力により表示部60上の操作を行う場合、HMD1は、装着される毎に、視線の座標と表示パネル63上の座標とを検出し、視線の座標と表示パネル63上の座標とのキャリブレーションを行う必要がある。なお、視線入力による操作とは、例えば、表示パネル63上にソフトウェア・キーボードを表示し、そのキーを視線に基づいて入力する操作等である。
このような視線操作では、ユーザーの視線と、表示パネル上の位置が一致している必要がある。このため、図30に示したように、HMD1は、画像400Aの四隅及び中央に、順次、白丸410aから白丸410eを表示する。ユーザーは、表示された白丸の位置に視線を合わせる。HMD1は、表示位置と、視線とのずれを無くすように、視線を撮像する撮像素子72によるカメラ座標系と、表示パネル63上の座標系とをキャリブレーションする。この処理により、ユーザーの視線と、表示パネル63上に表示される情報との位置がキャリブレーションされる。
キャリブレーション比較例においては、このようなキャリブレーションを、ユーザーが、キャリブレーション設定を選択して、例えば頭部に装着する都度行う必要がある。このようなキャリブレーションは、ユーザーにとって、手続きが面倒であり、利便性が悪かった。
一方、本実施形態に係るHMD1では、キャリブレーション比較例のようにユーザーがキャリブレーション設定を行うのではなく、後述するように表示パネル63に表示される情報を操作しているときに、視線(注視点)に基づいて操作するためのパラメータを取得し、注視点検出のためのキャリブレーションを行う。
Here, a comparative example with the first embodiment will be described.
FIG. 30 is a diagram for explaining an actual example of calibration (hereinafter referred to as “calibration comparison example”) as a comparison example with “calibration for gazing point detection” according to the first embodiment. Hereinafter, a case where the user performs a calibration comparative example using the HMD 1 will be described.
In FIG. 30, an image 400 </ b> A is an image displayed on the display panel 63. When performing an operation on the display unit 60 by a user's line-of-sight input, the HMD 1 detects the line-of-sight coordinate and the coordinate on the display panel 63 each time it is attached, and the line-of-sight coordinate and the coordinate on the display panel 63 are detected. It is necessary to perform calibration. The operation by line of sight input is, for example, an operation of displaying a software keyboard on the display panel 63 and inputting the key based on the line of sight.
In such a line-of-sight operation, the user's line of sight and the position on the display panel must match. For this reason, as shown in FIG. 30, the HMD 1 displays white circles 410a to 410e sequentially at the four corners and the center of the image 400A. The user aligns his / her line of sight with the position of the displayed white circle. The HMD 1 calibrates the camera coordinate system by the image sensor 72 that captures the line of sight and the coordinate system on the display panel 63 so as to eliminate the deviation between the display position and the line of sight. With this process, the position of the user's line of sight and the information displayed on the display panel 63 is calibrated.
In the calibration comparison example, it is necessary to perform such calibration every time the user selects the calibration setting and wears it on the head, for example. Such calibration is troublesome for the user and is not convenient.
On the other hand, in the HMD 1 according to the present embodiment, the user does not set the calibration as in the calibration comparative example, but operates the information displayed on the display panel 63 as will be described later. The parameter for operating based on (gaze point) is acquired, and calibration for gaze point detection is performed.

次に、注視点検出のキャリブレーションの詳細について説明を行う。
図31及び図32は、本実施形態に係る注視点検出のためのキャリブレーションの手順のフローチャートである。図33は、本実施形態に係る右眼観察形態における眼球照明ライト166の点灯、消灯を説明する図である。図34は、本実施形態に係る表示部60の位置と眼球照明ライト166の関係を説明する図であり、ユーザーの顔を水平正面から見た図である。
なお、以下では、図7(A)、図7(B)、及び図34に示すように、右眼観察形態かつ眼の下に表示部60が配置されている状態、または左眼観察形態かつ眼の下に表示部60が配置されている状態を検出して、注視点検出のためのキャリブレーションを行う例について説明する。
Next, the details of the calibration for gazing point detection will be described.
FIG. 31 and FIG. 32 are flowcharts of a calibration procedure for gazing point detection according to the present embodiment. FIG. 33 is a diagram for explaining turning on and off of the eyeball illumination light 166 in the right-eye observation mode according to this embodiment. FIG. 34 is a diagram for explaining the relationship between the position of the display unit 60 and the eyeball illumination light 166 according to the present embodiment, and is a diagram of the user's face viewed from the horizontal front.
In the following, as shown in FIG. 7A, FIG. 7B, and FIG. 34, a state in which the display unit 60 is arranged in the right-eye observation form and under the eye, or the left-eye observation form and An example will be described in which a state in which the display unit 60 is placed under the eyes is detected and calibration for detecting a point of interest is performed.

図34において、一点鎖線で示した位置600a〜600bは、表示部60が配置される位置の例である。以下の処理で説明するように、HMD1は、位置600aに表示部60がある場合、眼の近傍にある眼球照明ライト166a及び166bを点灯させ、他を消灯させる。一方、HMD1は、位置600bに表示部60がある場合、眼の近傍にある眼球照明ライト166c及び166dを点灯させ、他を消灯させる。   In FIG. 34, positions 600a to 600b indicated by alternate long and short dash lines are examples of positions where the display unit 60 is disposed. As will be described in the following processing, when the display unit 60 is at the position 600a, the HMD 1 turns on the eyeball illumination lights 166a and 166b in the vicinity of the eye and turns off the others. On the other hand, when the display unit 60 is at the position 600b, the HMD 1 turns on the eyeball illumination lights 166c and 166d in the vicinity of the eyes and turns off the others.

(ステップS501)制御部302は、「左右の眼の検出処理」の判別結果に基づいて、ユーザーが右眼観察形態で使用しているか否かを判別する。制御部302は、ユーザーが右眼観察形態で使用していると判別された場合(ステップS501;Yes)、ステップS502に進み、ユーザーが右眼観察形態で使用していないと判別された場合(ステップS501;No)、ステップS503に進む。 (Step S <b> 501) The control unit 302 determines whether or not the user is using the right-eye observation mode based on the determination result of “left and right eye detection processing”. When it is determined that the user is using the right-eye observation form (step S501; Yes), the control unit 302 proceeds to step S502, and when it is determined that the user is not using the right-eye observation form (step S501). Step S501; No), the process proceeds to Step S503.

(ステップS502)右眼観察形態であると判別された場合、制御部302は、記憶部303に記憶されている眼球照明ライトの選択設定を読み出す。次に、制御部302は、読み出したる眼球照明ライトの選択設定に基づいて、眼球照明部304を介して眼球照明ライト166aと166bを点灯する。
図33に示すように、ユーザー右眼の下に表示部60を配置して観察する場合、眼球照明ライト166cと166dは、極めて頬の近傍に配置されることになるために眼球を照明できない。このため、本実施形態では、図34の位置600aに示すように、眼球照明部304は、眼球照明ライト166c、及び166dは消費電力を下げるために消灯する。
(Step S <b> 502) When the right eye observation mode is determined, the control unit 302 reads the selection setting of the eyeball illumination light stored in the storage unit 303. Next, the control unit 302 turns on the eyeball illumination lights 166a and 166b via the eyeball illumination unit 304 based on the selection setting of the eyeball illumination light to be read.
As shown in FIG. 33, when the display unit 60 is placed under the user's right eye for observation, the eyeball illumination lights 166c and 166d cannot be illuminated because they are arranged very close to the cheek. Therefore, in this embodiment, as shown at a position 600a in FIG. 34, the eyeball illumination unit 304 turns off the eyeball illumination lights 166c and 166d in order to reduce power consumption.

(ステップS503)左眼観察形態であると判別された場合、制御部302は、記憶部303に記憶されている眼球照明ライトの選択設定を読み出す。次に、制御部302は、読み出したる眼球照明ライトの選択設定に基づいて、眼球照明部304を介して、図34の位置600bに示すように、眼球照明ライト166cと166dを点灯する。眼球照明部304は、消費電力を下げるために、眼球照明ライト166a及び166bを消灯させる。
以上の処理により、本実施形態のHMD1は、ユーザーの眼と表示部60との位置関係に応じて眼球を照明するライトの選択が適宜行うことが可能となる。さらに、本実施形態のHMD1は、使用しない眼球照明ライト166を消灯することで効率的な省電力対策が可能となっている。
(Step S <b> 503) When it is determined that the left-eye observation mode is selected, the control unit 302 reads the selection setting of the eyeball illumination light stored in the storage unit 303. Next, the control unit 302 turns on the eyeball illumination lights 166c and 166d via the eyeball illumination unit 304 based on the read setting of the eyeball illumination light to be read, as indicated by a position 600b in FIG. The eyeball illumination unit 304 turns off the eyeball illumination lights 166a and 166b in order to reduce power consumption.
With the above processing, the HMD 1 of the present embodiment can appropriately select a light that illuminates the eyeball according to the positional relationship between the user's eye and the display unit 60. Furthermore, the HMD 1 of the present embodiment can efficiently take measures for power saving by turning off the eyeball illumination light 166 that is not used.

(ステップS504)画像切替部306は、ステップS502またはS503終了後、図35に示すようなパスワード入力画面を、LCD63に表示する。これは一般に普及しているモバイル用途のPCや携帯電話で用いられている、ユーザーが設定したパスワードを入力するもので、他人が使用することを防ぐことを目的にしている。
図35は、本実施形態に係るパスワード入力画面400eの一例である。図35において、パスワード入力画面400eの長手方向をX軸方向、短手方向をZ軸方向とする。図35に示すように、LCD63上には、AからZまでのアルファベット・キー461、記号キー462、シフトキー463、10キー切り替えキー464、スペースキー465、決定(Done)キー466、入力された文字を表示する領域467、及びカーソル468が表示される。また、図35において、符号Dxは、X軸方向の座標、符号Dzは、Z軸方向の座標を表す。
(Step S504) After step S502 or S503 ends, the image switching unit 306 displays a password input screen as shown in FIG. This is a method for inputting a password set by a user, which is used in PCs and mobile phones that are widely used for mobile purposes, and is intended to prevent others from using the password.
FIG. 35 is an example of a password input screen 400e according to the present embodiment. In FIG. 35, the longitudinal direction of the password input screen 400e is defined as the X-axis direction, and the short direction is defined as the Z-axis direction. As shown in FIG. 35, on the LCD 63, alphabet keys 461 from A to Z, a symbol key 462, a shift key 463, a 10-key switching key 464, a space key 465, a decision (Done) key 466, and input characters A region 467 for displaying “” and a cursor 468 are displayed. In FIG. 35, the symbol Dx represents the coordinate in the X-axis direction, and the symbol Dz represents the coordinate in the Z-axis direction.

(ステップS505)図31に戻って、制御部302は、パラメータのサフィックス(文字列)となる「i」をゼロに初期化する。 (Step S <b> 505) Returning to FIG. 31, the control unit 302 initializes “i” as a parameter suffix (character string) to zero.

(ステップS506)制御部302は、サフィックス「i」に1を加算する。 (Step S506) The control unit 302 adds 1 to the suffix “i”.

(ステップS507)制御部302は、撮像素子72が撮像した画像(含む映像)を取得する。次に、制御部302は、取得した画像に基づいて、眼球に照射されている眼球照明ライト166a〜166dによる輝点の座標(Ex(i),Ez(i))を取得する。 (Step S507) The control unit 302 acquires an image (including video) captured by the image sensor 72. Next, the control unit 302 acquires the coordinates (Ex (i), Ez (i)) of the bright spot by the eyeball illumination lights 166a to 166d irradiated on the eyeball based on the acquired image.

制御部302が取得した画像は、例えば図11である。図11に示すように、眼球照明ライト166aによる輝点604A、及び眼球照明ライト166bによる輝点604Bが画像に映っており、この輝点が眼球の運動に連動して移動する。すなわち、眼球が左側に動く場合、輝点604A及び604Bは、+X側へ移動する。また、眼球が左側に動く場合、同輝点は、−X側へ移動する。また、眼球が上方に動く場合、輝点は、+Z側へ移動し、眼球が下方向に動く場合、輝点が−Z側に移動する。この眼球の動きは、LCD63内の表示で何処を注視するかによって、LCD63内の位置と輝点の位置が一義的に決定される。   An image acquired by the control unit 302 is, for example, FIG. As shown in FIG. 11, a bright spot 604A by the eyeball illumination light 166a and a bright spot 604B by the eyeball illumination light 166b are shown in the image, and the bright spot moves in conjunction with the movement of the eyeball. That is, when the eyeball moves to the left side, the bright spots 604A and 604B move to the + X side. Further, when the eyeball moves to the left side, the same bright spot moves to the −X side. When the eyeball moves upward, the bright spot moves to the + Z side, and when the eyeball moves downward, the bright spot moves to the −Z side. As for the movement of the eyeball, the position in the LCD 63 and the position of the bright spot are uniquely determined depending on where the user looks at the display in the LCD 63.

図35のパスワード入力画面400eにおいて、カーソル468が表示される。カーソル468は、ユーザーが操作スイッチ30を上下左右に倒して操作することで、カーソル468の位置を上下左右に動かすことが可能となっている。そして、図35に示すように、例えばパスワードの一文字として「P」が選択された場合、カーソル468が「P」の文字の所に移動され、さらに操作スイッチ30が押圧されて、「P」の文字が入力される。
この操作スイッチ30が押圧される直前において、ユーザーは、「P」の文字を注視している確率が非常に高いので、このときの眼の輝点の座標を取り込む。なお、制御部302は、図11における2つの輝点604Aの座標(Xa,Za)、輝点604Bの座標(Xb,Zb)の平均を取った値を用いて、パスワード1文字目を注視したときの眼の輝点のX軸及びY軸の測定値Ex(1)、Ez(1)を、次式(2)及び次式(3)のように算出する。
A cursor 468 is displayed on the password input screen 400e of FIG. The cursor 468 can be moved up, down, left, and right by the user operating the operation switch 30 by tilting it up, down, left, or right. As shown in FIG. 35, for example, when “P” is selected as one character of the password, the cursor 468 is moved to the character “P”, and the operation switch 30 is further pressed to change the character “P”. A character is entered.
Immediately before the operation switch 30 is pressed, the user has a very high probability of gazing at the letter “P”, so the coordinates of the bright spot of the eye at this time are captured. Note that the control unit 302 gazes at the first character of the password by using an average value of the coordinates (Xa, Za) of the two bright spots 604A and the coordinates (Xb, Zb) of the bright spots 604B in FIG. The measured values Ex (1) and Ez (1) of the X-axis and Y-axis of the bright spot of the eye are calculated as in the following expressions (2) and (3).

Ex(1)= (Xa+Xb)/2 ・・・(2)   Ex (1) = (Xa + Xb) / 2 (2)

Ez(1)= (Za+Zb)/2 ・・・(3)   Ez (1) = (Za + Zb) / 2 (3)

制御部302は、算出した測定値の座標(Ex(i),Ez(i))を、記憶部303に記憶させる。   The control unit 302 causes the storage unit 303 to store the calculated coordinates (Ex (i), Ez (i)) of the measurement value.

(ステップS508)図31に戻って、制御部302は、文字が表示されているLCD63上の座標である(Dx(i),Dz(i))を取得する。例えば図35において「P」の文字が選択された場合、制御部302は、文字「P」の座標が取得し、パスワード1文字目の座標として(Dx(1)、Dz(1))を取得する。 (Step S508) Returning to FIG. 31, the control unit 302 acquires coordinates (Dx (i), Dz (i)) on the LCD 63 on which characters are displayed. For example, when the character “P” is selected in FIG. 35, the control unit 302 acquires the coordinates of the character “P” and acquires (Dx (1), Dz (1)) as the coordinates of the first character of the password. To do.

(ステップS509)制御部302は、ユーザーにより設定されているパスワードの認証が完了したか否かを判別する。パスワードの認証が完了したと判別した場合(ステップS509;Yes)、ステップS510に進む。パスワードの認証が完了していないと判別した場合(S509;No)、ステップS506からS509を繰り返す。
なお、ステップS507からS509において、複数のパスワードの文字が選ばれることで眼の輝点の測定座標である(Ex(i),Ez(i))、そしてLCD63上の文字の位置座標である(Dx(i),Dz(i))の値が得られる。また、パスワードの入力が終わったとユーザーが判別した場合、ユーザーは、操作スイッチ30でDoneキー466を選択して押す。このとき、制御部302は、Doneキー466の座標も取得する。
(Step S509) The control unit 302 determines whether or not the authentication of the password set by the user has been completed. If it is determined that password authentication has been completed (step S509; Yes), the process proceeds to step S510. If it is determined that password authentication has not been completed (S509; No), steps S506 to S509 are repeated.
In steps S507 to S509, a plurality of password characters are selected, so that the measurement coordinates of the bright point of the eye (Ex (i), Ez (i)) and the position coordinates of the characters on the LCD 63 ( The value of Dx (i), Dz (i)) is obtained. When the user determines that the password has been input, the user selects and presses the Done key 466 with the operation switch 30. At this time, the control unit 302 also acquires the coordinates of the Done key 466.

(ステップS510)ステップS312までのパスワードの入力作業によって、眼の輝点の測定値と、これに対応する文字の位置情報が得られる。このため、この後は、取得した輝点の座標を測定すれば、ユーザーがLCD63上のどこを注視しているのかが分かるようになる。すなわち、これらの処理により、視線入力による操作が可能になる。そこで、制御部302は、この測定値(Ex,Ez)に基づいて、表示位置(Dx,Dz)を求める関数式を、次式(4)及び次式(5)のように生成する。 (Step S510) By the password input operation up to Step S312, the measured value of the bright point of the eye and the position information of the character corresponding to this are obtained. Therefore, after this, if the coordinates of the acquired bright spot are measured, it becomes possible to know where the user is gazing on the LCD 63. That is, by these processes, an operation by line-of-sight input becomes possible. Therefore, the control unit 302 generates function expressions for obtaining the display position (Dx, Dz) based on the measured values (Ex, Ez) as the following expressions (4) and (5).

Dx = F1(Ex、Ez) ・・・(4)   Dx = F1 (Ex, Ez) (4)

Dz = F2(Ex、Ez) ・・・(5)   Dz = F2 (Ex, Ez) (5)

式(4)及び(5)において、F1は、Dxと(Ex、Ez)の関数、F2は、Dzと(Ex、Ez)の関数である。次に、制御部302は、生成した式(4)及び(5)を、記憶部303に記憶させる。   In the equations (4) and (5), F1 is a function of Dx and (Ex, Ez), and F2 is a function of Dz and (Ex, Ez). Next, the control unit 302 stores the generated expressions (4) and (5) in the storage unit 303.

(ステップS511)パスワードの入力が完了したことを受け、画像切替部306は、図36に示すようなメニューのアイコンを表示する。
図36は、本実施形態に係るメニュー画面400fの一例を示す図である。図36に示した例では、メニュー画面400fに9つのアイコン471から479、及びカーソル480が表示されている。例えば、アイコン471は、動画撮像の指示を示すアイコンである。なお、アイコン471から479、各々をアプリケーションと称する。また、これらの中でアイコン471は、視線によって入力する機能を有するアプリケーションであることから、特に視線入力アプリケーションと称する。
なお、このアイコン471が表す動画撮影を行うアプリケーションでは、カメラ64で動画撮影ならびに記録を行うとともに、後述するように画面に表示されるマーカーの移動や、ボタンの操作を視線入力で行うことが可能となっている。
初期状態では、図36に示したように、アイコン471の位置に、カーソル480が表示される。
(Step S511) Upon completion of the password input, the image switching unit 306 displays a menu icon as shown in FIG.
FIG. 36 is a diagram showing an example of the menu screen 400f according to the present embodiment. In the example shown in FIG. 36, nine icons 471 to 479 and a cursor 480 are displayed on the menu screen 400f. For example, the icon 471 is an icon that indicates an instruction to capture a moving image. Icons 471 to 479 are referred to as applications. Of these, the icon 471 is an application having a function of inputting with a line of sight, and is particularly referred to as a line-of-sight input application.
In addition, in the application for taking a moving image represented by the icon 471, it is possible to perform moving image shooting and recording with the camera 64, and to move a marker displayed on the screen and to operate a button by a line-of-sight input as described later. It has become.
In the initial state, a cursor 480 is displayed at the position of the icon 471 as shown in FIG.

なお、図36のメニュー画面は、例えば、処理部123の制御を司るOS(オペレーションシステム)において、各種設定を行うメニュー画面であってもよい。各種設定を行うメニュー画面とは、例えば、表示パネル63の輝度調整、表示パネル63のコントラスト調整、日時設定、スタンバイ状態にするか否かの設定等の各種設定ボタン(またはアイコン、キー等)が表示されている画面である。
また、メニュー画面400fにアイコンが表示されるアプリケーションは、HMD1内部で実行されるアプリケーションに限られない。例えば、アイコンが表示されるアプリケーションは、通信を行っている通話相手が使用しているHMD、PCで実行されるアプリケーションであってもよい。また、アイコンが表示されるアプリケーションは、インターネット等のネットワーク上で実行される、例えばWeb(ウェブ)アプリケーション等であってもよい。
Note that the menu screen in FIG. 36 may be a menu screen for performing various settings in, for example, an OS (operation system) that controls the processing unit 123. The menu screen for performing various settings includes, for example, various setting buttons (or icons, keys, etc.) for adjusting the brightness of the display panel 63, adjusting the contrast of the display panel 63, setting the date and time, and setting whether or not to enter the standby state. This is the displayed screen.
Further, an application whose icon is displayed on the menu screen 400f is not limited to an application executed inside the HMD 1. For example, the application in which the icon is displayed may be an application executed on the HMD or PC used by the communication partner that is performing communication. In addition, the application in which the icon is displayed may be, for example, a Web application that is executed on a network such as the Internet.

(ステップS512)図31に戻って、制御部302は、メニュー画面において、操作スイッチ30により手動操作でアイコン471が選択されたか否かを判別する。操作スイッチ30により手動操作でアイコン471が選択されていないと判別した場合(ステップS512;No)、ステップS513に進む。操作スイッチ30により手動操作でアイコンが選択されたと判別した場合(ステップS512;Yes)、丸C(図32、ステップS519)に進む。 (Step S512) Returning to FIG. 31, the control unit 302 determines whether or not the icon 471 is manually selected by the operation switch 30 on the menu screen. When it is determined that the icon 471 has not been selected manually by the operation switch 30 (step S512; No), the process proceeds to step S513. When it is determined that the icon has been manually selected by the operation switch 30 (step S512; Yes), the process proceeds to the circle C (FIG. 32, step S519).

(ステップS513)制御部302は、アイコン471以外のアプリケーションが選択されたか否かを判別する。アイコン471以外のアプリケーションが選択されたと判別された場合(ステップS513;Yes)、ステップS514に進み、制御部302は、ユーザーの行うメニュー操作の中で、さらに視線入力の精度を高めるべくキャリブレーションを行う。アイコン471以外のアプリケーションが選択されていないと判別された場合(ステップS513;No)、ステップS512に戻る。 (Step S513) The control unit 302 determines whether an application other than the icon 471 has been selected. When it is determined that an application other than the icon 471 has been selected (step S513; Yes), the process proceeds to step S514, and the control unit 302 performs calibration to further improve the accuracy of the line-of-sight input in the menu operation performed by the user. Do. When it is determined that an application other than the icon 471 has not been selected (step S513; No), the process returns to step S512.

(ステップS514)アイコン471以外のアプリケーションが選択されたと判別された場合、制御部302は、サフィックス「i」に1を加算する。 (Step S514) When it is determined that an application other than the icon 471 has been selected, the control unit 302 adds 1 to the suffix “i”.

(ステップS515)制御部302は、撮像画像を取得する。次に、制御部302は、取得した撮像画像に基づいて、眼球に照射されている眼球照明ライト166a〜166dによる輝点の座標(Ex(i),Ez(i))を取得する。 (Step S515) The control unit 302 acquires a captured image. Next, the control unit 302 acquires the coordinates (Ex (i), Ez (i)) of the bright spot by the eyeball illumination lights 166a to 166d that are irradiated to the eyeball based on the acquired captured image.

(ステップS516)制御部302は、選択されたアイコンが表示されているLCD63上の座標である(Dx(i),Dz(i))を取得する。 (Step S516) The control unit 302 acquires coordinates (Dx (i), Dz (i)) on the LCD 63 on which the selected icon is displayed.

(ステップS517)制御部302は、自部に記憶されている関係式(4)及び(5)を再計算して、再計算して生成した関係式を、記憶部303に記憶させる。 (Step S517) The control unit 302 recalculates the relational expressions (4) and (5) stored in the self unit, and stores the relational expression generated by the recalculation in the storage unit 303.

(ステップS518)制御部302は、選択されたアプリケーション(またはメニュー)を実行する。アプリケーション実行後、ステップS511に戻る。
すなわち、制御部302は、操作スイッチ30などによってアイコン、チェックボックス等が選択される毎に、輝度の座標を取得し、かつ関係式(4)及び(5)を再計算することで、注視点検出のためのキャリブレーションを行う。なお、メニュー画面400fを含め、各種アプリケーションが実行される中で、アイコンやチェックボックスなどの選択がなされる度に、そのアイコンやチェックボックスを注視点として、注視点検出のためのキャリブレーションを逐次行ってもよい。
(Step S518) The control unit 302 executes the selected application (or menu). After executing the application, the process returns to step S511.
That is, the control unit 302 obtains the luminance coordinates and recalculates the relational expressions (4) and (5) every time an icon, a check box, or the like is selected by the operation switch 30 or the like, so that the gaze point is obtained. Perform calibration for detection. Note that each time an icon or check box is selected during execution of various applications including the menu screen 400f, calibration for detecting a point of interest is sequentially performed using the icon or check box as the point of interest. You may go.

(ステップS519)図32に移って、操作スイッチ30により手動操作でアイコン471が選択されたと判別した場合、制御部302は、サフィックス「i」に1を加算する。 (Step S519) Moving to FIG. 32, when it is determined that the icon 471 has been manually selected by the operation switch 30, the control unit 302 adds 1 to the suffix “i”.

(ステップS520)制御部302は、選択されたアイコンが表示されているLCD63上の座標である(Dx(i),Dz(i))を取得する。 (Step S520) The control unit 302 acquires (Dx (i), Dz (i)), which are coordinates on the LCD 63 on which the selected icon is displayed.

(ステップS521)制御部302は、自部に記憶されている関係式(4)及び(5)を再計算して、再計算して生成した関係式を、記憶部303に記憶させる。 (Step S <b> 521) The control unit 302 recalculates the relational expressions (4) and (5) stored in the self unit, and stores the relational expression generated by the recalculation in the storage unit 303.

(ステップS522)制御部302は、視線入力のアプリを実行する前に、注視点検出のためのキャリブレーションが十分に行われたか否かの判別をする。具体的には、例えばパスワードの登録が一文字であれば、キャリブレーションが十分に行われたとは言えない可能性がある。例えば、少なくとも、パスワード入力画面400e、またはメニュー画面400fにおいて、異なる2つの位置の注視点検出が行われた場合、制御部302は、キャリブレーションが十分に行われたと判別する。なお、異なる2つの位置は、パスワード入力画面400e、またはメニュー画面400f内の対角位置に配置されている位置である。
キャリブレーションが十分に行われたと判別された場合(ステップS522;Yes)、ステップS527に進む。キャリブレーションが十分に行われていないと判別された場合(ステップS522;No)、ステップS523に進む。
(Step S <b> 522) The control unit 302 determines whether or not calibration for detecting a gazing point has been sufficiently performed before executing the gaze input application. Specifically, for example, if the password registration is one character, there is a possibility that the calibration is not sufficiently performed. For example, if at least two different gazing points are detected on the password input screen 400e or the menu screen 400f, the control unit 302 determines that the calibration has been sufficiently performed. Note that the two different positions are positions arranged at diagonal positions in the password input screen 400e or the menu screen 400f.
When it is determined that the calibration has been sufficiently performed (step S522; Yes), the process proceeds to step S527. When it is determined that the calibration is not sufficiently performed (step S522; No), the process proceeds to step S523.

(ステップS523〜S526)制御部302は、画像切替部306を介して、図37に示すような再度、ユーザーの入力を促す文章を提示する。制御部302は、図37に示す画面を追加で提示し、この画面をユーザーが操作するとき、LCD63上の座標である(Dx(i),Dz(i))、及び眼球照明ライト166a〜166dによる輝点の座標(Ex(i),Ez(i))を取得して、注視点検出のためのキャリブレーションを行う。
図37は、本実施形態に係るユーザーに入力を促す画面の一例である。図37に示すように、画面400gには、文字列「視線入力モードを使いますか?」481、「はい」ボタン482、及び「いいえ」ボタン483が表示されている。
例えば、図37において、「はい」ボタン482が操作スイッチ30により手動操作で選択された場合、図35において、Doneキー466、図36において動画撮像の指示のアイコン471がすでに選択されているため、画面の互いにはなれた3箇所のボタン(またはキー、アイコン)が押されたことになり、ある程度信頼のおけるキャリブレーションが完了したことになる。そして、制御部302は、ステップS519からS521と同様の処理を、ステップS523からS526の処理で行い、(Dx,Dz)を求める関数式が導き出す。
(Steps S <b> 523 to S <b> 526) The control unit 302 presents text prompting the user to input again as illustrated in FIG. 37 via the image switching unit 306. The control unit 302 additionally presents the screen shown in FIG. 37, and when the user operates this screen, the coordinates on the LCD 63 (Dx (i), Dz (i)) and the eyeball illumination lights 166a to 166d. The coordinates (Ex (i), Ez (i)) of the bright spot are obtained and calibration for gazing point detection is performed.
FIG. 37 is an example of a screen that prompts the user to input according to the present embodiment. As shown in FIG. 37, a character string “Do you use the line-of-sight input mode?” 481, a “Yes” button 482, and a “No” button 483 are displayed on the screen 400g.
For example, in FIG. 37, when the “Yes” button 482 is manually selected by the operation switch 30, the Done key 466 in FIG. 35 and the moving image capturing instruction icon 471 in FIG. 36 are already selected. Three buttons (or keys, icons) that are separated from each other on the screen have been pressed, and calibration with some degree of reliability has been completed. Then, the control unit 302 performs the same processing as steps S519 to S521 by the processing of steps S523 to S526, and derives a function expression for obtaining (Dx, Dz).

なお、入力用の表示とは、図35における各キー(461〜466)、図36における各アイコン471〜479、図37における各ボタン(482、483)等である。ここで、キャリブレーションが不足している位置が画面内にある場合、Doneキー466は、表示位置を適宜変更し、キャリブレーションが必要とされる位置に表示されてもよい。   The display for input includes each key (461-466) in FIG. 35, each icon 471-479 in FIG. 36, each button (482, 483) in FIG. Here, when the position where the calibration is insufficient is in the screen, the Done key 466 may be displayed at a position where calibration is necessary by appropriately changing the display position.

(ステップS527)図32に戻って、制御部302は、画像切替部306を介して、カメラ64が撮像した画像を、図38に示すように、LCD63に表示する。
図38は、本実施形態に係る視線入力のアプリケーションの画面400hの説明を行う図である。図38に示した例では、画面400hには、撮像された画像491、マーカー492、「終了ボタン」493、「記録ボタン」494、及び「メニューボタン」495が表示されている。マーカー492は、ユーザーが画像491において、必要な位置を指し示すマーカーである。「終了ボタン」493は、アプリケーションを終了させ、図36に示したメニュー画面400fに戻るボタンである。また、「記録ボタン」494は、カメラ64が撮像した画像信号を、フラッシュメモリー122に記録開始するボタンである。「メニューボタン」495は、このアプリケーション固有の設定を行うための不図示のメニューを表示させるためのボタンである。
なお、HMD1が、他の端末と通信中の場合、撮像された画像491は、送受信部308を介して、他の端末に送信される。
本実施形態のHMD1は、画面400hに示すように、ユーザーが観察しつつカメラ64で撮影している画像において、商品496をカーソルで指し示す画像を他の端末に送信することで、商品496について具体的に相手に伝えることが可能となっている。
(Step S527) Returning to FIG. 32, the control unit 302 displays the image captured by the camera 64 on the LCD 63 via the image switching unit 306 as shown in FIG.
FIG. 38 is a diagram for explaining the screen 400h of the line-of-sight input application according to the present embodiment. In the example shown in FIG. 38, a captured image 491, a marker 492, an “end button” 493, a “record button” 494, and a “menu button” 495 are displayed on the screen 400h. The marker 492 is a marker that indicates a required position in the image 491 by the user. The “end button” 493 is a button for ending the application and returning to the menu screen 400f shown in FIG. The “record button” 494 is a button for starting to record the image signal captured by the camera 64 in the flash memory 122. The “menu button” 495 is a button for displaying a menu (not shown) for performing settings specific to the application.
When the HMD 1 is communicating with another terminal, the captured image 491 is transmitted to the other terminal via the transmission / reception unit 308.
As shown in the screen 400h, the HMD 1 of the present embodiment is specific to the product 496 by transmitting an image indicating the product 496 with a cursor to another terminal in the image that the user is observing and capturing with the camera 64. Can be communicated to the other party.

(ステップS528)図32に戻って、制御部302は、ユーザーがボタン493から495を操作スイッチ30で選択したか否かを判別する。ユーザーがボタン493から495を操作スイッチ30で選択したと判別した場合(ステップS528;Yes)、ステップS535に進む。ユーザーがボタン493から495を操作スイッチ30で選択していないと判別した場合(ステップS528;No)、ステップS529に進む。 (Step S528) Returning to FIG. 32, the controller 302 determines whether or not the user has selected the buttons 493 to 495 with the operation switch 30. When it is determined that the user has selected the buttons 493 to 495 with the operation switch 30 (step S528; Yes), the process proceeds to step S535. When it is determined that the user has not selected the buttons 493 to 495 with the operation switch 30 (step S528; No), the process proceeds to step S529.

(ステップS529)ユーザーがボタン493から495を操作スイッチ30で選択していないと判別した場合、制御部302は、ユーザーの眼における輝点の座標(Ex,Ez)を取得する。次に、制御部302は、取得した座標と、式(4)及び(5)の関数を用いて、ユーザーがどこを注視しているのかを算出する。 (Step S529) When it is determined that the user has not selected the buttons 493 to 495 with the operation switch 30, the control unit 302 acquires the coordinates (Ex, Ez) of the bright spot in the user's eye. Next, the control unit 302 calculates where the user is gazing using the acquired coordinates and the functions of Expressions (4) and (5).

(ステップS530)制御部302は、算出した座標の位置に、マーカー492を表示する。
なお、HMD1は、マーカー492の画像が重畳された画像として、他の端末に対して送信する。そして、ユーザーが注視点を動かせばマーカー492も動くことから、ハンズフリーで他の端末のユーザーへ、注視点を伝えることが可能となっている。
(Step S530) The control unit 302 displays a marker 492 at the calculated coordinate position.
Note that the HMD 1 transmits the image on which the image of the marker 492 is superimposed to another terminal. Since the marker 492 moves when the user moves the gazing point, the gazing point can be transmitted to users of other terminals in a hands-free manner.

(ステップS531)制御部302は、マーカー492が、ボタン493、494、及び495の上にあるか否かを判別する。マーカー492が、ボタン493、494、及び495の上にあると判別された場合(ステップS531;Yes)、ステップS532に進む。マーカー492が、ボタン493、494、及び495の上にないと判別された場合(ステップS531;No)、ステップS528に戻る。 (Step S531) The control unit 302 determines whether or not the marker 492 is on the buttons 493, 494, and 495. When it is determined that the marker 492 is on the buttons 493, 494, and 495 (step S531; Yes), the process proceeds to step S532. When it is determined that the marker 492 is not on the buttons 493, 494, and 495 (step S531; No), the process returns to step S528.

(ステップS532)マーカー492が、ボタン493、494、及び495の上にあると判別された場合、制御部302は、撮像画像に基づいて、ユーザーの瞼が短時間に2回連続して瞑られたか否かを判別する。なお、制御部302は、パターンマッチングの技術や画像の特徴量による画像比較の技術を用いて判別を行う。ユーザーの瞼が短時間に2回連続して瞑られたと判別された場合(ステップS532;Yes)、ステップS533に進む。ユーザーの瞼が短時間に2回連続して瞑られていないと判別された場合(ステップS532;No)、ステップS528に戻る。 (Step S532) When it is determined that the marker 492 is on the buttons 493, 494, and 495, the control unit 302 meditates the user's eyelid twice in a short time based on the captured image. It is determined whether or not. Note that the control unit 302 performs determination using a pattern matching technique or an image comparison technique based on image feature amounts. When it is determined that the user's eyelid has been meditated twice in a short time (step S532; Yes), the process proceeds to step S533. When it is determined that the user's eyelid has not been meditated twice in a short time (step S532; No), the process returns to step S528.

(ステップS533)ユーザーの瞼が短時間に2回連続して瞑られたと判別された場合、制御部302は、瞬き2回によって「終了ボタン」493が選択されたか否かを判別する。瞬き2回によって「終了ボタン」493が選択されたと判別された場合(ステップS533;Yes)、丸D(図31、S511)に進む。瞬き2回によって「終了ボタン」493が選択されず、すなわち、その他のボタンが選択されたと判別された場合(ステップS533;No)、ステップS534に進む。 (Step S533) When it is determined that the user's eyelid has been meditated twice in a short time, the control unit 302 determines whether or not the “end button” 493 has been selected by blinking twice. When it is determined that the “end button” 493 has been selected by blinking twice (step S533; Yes), the process proceeds to a circle D (FIG. 31, S511). When it is determined that the “end button” 493 is not selected by two blinks, that is, it is determined that another button is selected (step S533; No), the process proceeds to step S534.

(ステップS534)瞬き2回によって「終了ボタン」493が選択されていないと判別された場合、制御部302は、選択されたボタンに対応した操作を行い、ステップS528に戻る。 (Step S534) If it is determined that the “end button” 493 is not selected by two blinks, the control unit 302 performs an operation corresponding to the selected button, and returns to step S528.

(ステップS535〜S538)ユーザーがボタン493から495を操作スイッチ30で選択したと判別された場合、制御部302は、ボタン493から495の座標と、ユーザーの眼の輝点を元に、ステップS535からS538の処理を行って、注視点検出のキャリブレーションを行う。 (Steps S535 to S538) When it is determined that the user has selected the buttons 493 to 495 with the operation switch 30, the control unit 302 performs step S535 based on the coordinates of the buttons 493 to 495 and the bright spot of the user's eyes. To S538 to perform gazing point detection calibration.

(ステップS539)制御部302は、操作スイッチ30により「終了ボタン」493が選択されたか否かを判別する。操作スイッチ30により「終了ボタン」493が選択されたと判別された場合(ステップS539;Yes)、丸D(図31、S511)に進む。操作スイッチ30により「終了ボタン」493が選択されていないと判別された場合(ステップS539;No)、ステップS540に進む。 (Step S <b> 539) The control unit 302 determines whether or not the “end button” 493 is selected by the operation switch 30. When it is determined by the operation switch 30 that the “end button” 493 has been selected (step S539; Yes), the process proceeds to a circle D (FIG. 31, S511). If it is determined by the operation switch 30 that the “end button” 493 has not been selected (step S539; No), the process proceeds to step S540.

(ステップS540)操作スイッチ30により「終了ボタン」493が選択されず、すなわち、その他のボタンが選択されたとていない判別された場合、制御部302は、選択されたボタンに対応した操作を行い、ステップS331に戻る。 (Step S540) When the “end button” 493 is not selected by the operation switch 30, that is, when it is determined that no other button is selected, the control unit 302 performs an operation corresponding to the selected button, The process returns to step S331.

以上のように、本実施形態のHMD1では、「眼球照明ランプの選択処理」で設定された眼球照明ライト166を点灯及び消灯することで、ユーザーの眼に適切な光線を照射することができる。このため、注視点検出のためのキャリブレーションを精度良く行うことができる。   As described above, in the HMD 1 of the present embodiment, the user's eyes can be irradiated with appropriate light by turning on and off the eyeball illumination light 166 set in the “eyeball illumination lamp selection process”. For this reason, it is possible to accurately perform calibration for detecting a gazing point.

なお、図9〜図15を用いて説明したように、注視点検出のためのキャリブレーションの前に、画像の大きさを縮小させ、位置を移動させた場合、例えば、選択した表示領域Tに、パスワード入力画面400e、メニュー画面400f等を縮小して表示するようにしてもよい。また、注視点検出のためのキャリブレーションを行った後に、画像の大きさを縮小させ、位置を移動させた表示して視線入力を行う場合、表示位置、及び画像の縮小率に基づいて、記憶部303に記憶されている関係式の値を補正することで座標を変換するようにしてもよい。   As described with reference to FIGS. 9 to 15, when the size of the image is reduced and the position is moved before the calibration for detecting the gazing point, for example, in the selected display region T. The password input screen 400e, the menu screen 400f, and the like may be reduced and displayed. In addition, after performing calibration for gazing point detection, when a gaze input is performed by reducing the size of the image and moving the position, the memory is stored based on the display position and the reduction ratio of the image. The coordinates may be converted by correcting the value of the relational expression stored in the unit 303.

なお、処理部123は、ユーザーの眼の位置を撮像画像に基づいて検出する場合、眼球照明ライト166を点灯させてもよい。また、処理部123は、ユーザーの眼が表示部60から離れた場合(図12及び図14を参照)、表示領域の縮小率を算出するために、輝点604A及び輝点604Bの間隔(図11を参照)と、輝点604C及び輝点604Dの間隔(図12を参照)との比を測定する。
この処理により、図9に示すところの表示領域Sを表示領域Tに縮小することで、処理部123は、ユーザーが表示全体を見渡せるようにすることが可能である。さらに、輝点604Aと輝点604Bとの中間の位置よりも、輝点604Eと輝点604F(図14を参照)との中間の位置がずれていると判別される場合、処理部123は、ユーザーの眼がベクトルV1だけずれていることがわかる。このようにして、処理部123の画像切替部306(図22を参照)は、図9における表示領域Tを、表示領域Uまでシフトさせることが可能となっている。
Note that the processing unit 123 may turn on the eyeball illumination light 166 when detecting the position of the user's eye based on the captured image. In addition, when the user's eyes are separated from the display unit 60 (see FIGS. 12 and 14), the processing unit 123 calculates the interval between the bright spots 604A and the bright spots 604B (see FIG. 12) in order to calculate the reduction ratio of the display area. 11) and the distance between the bright spot 604C and the bright spot 604D (see FIG. 12).
By reducing the display area S shown in FIG. 9 to the display area T by this process, the processing unit 123 can allow the user to look over the entire display. Further, when it is determined that the intermediate position between the bright spot 604E and the bright spot 604F (see FIG. 14) is shifted from the intermediate position between the bright spot 604A and the bright spot 604B, the processing unit 123 It can be seen that the user's eyes are shifted by the vector V1. In this way, the image switching unit 306 (see FIG. 22) of the processing unit 123 can shift the display area T in FIG. 9 to the display area U.

なお、本実施形態では、注視点検出のためのキャリブレーションに、図35に示したパスワード入力画面等を用いる例を説明したが、これに限られない。操作スイッチ30により選択可能なキー、ボタン、アイコン等を、表示パネル63に表示させるようにしてもよい。この場合においても、従来技術とは異なり、キャリブレーションのためだけの表示ではなく、ユーザーが操作を行う必然性がある操作に関するキー、ボタン、アイコン等を表示する。ユーザーは、操作時に、これらのキー、ボタン、アイコン等を注視している確率が非常に高いので、操作時の撮像画像に基づいて、注視点検出のためのキャリブレーションを行うことができる。   In this embodiment, the example in which the password input screen shown in FIG. 35 is used for calibration for detecting a point of interest has been described, but the present invention is not limited to this. Keys, buttons, icons, etc. that can be selected by the operation switch 30 may be displayed on the display panel 63. Also in this case, unlike the prior art, keys, buttons, icons, and the like relating to operations that the user is required to perform are displayed, not just for calibration. Since the user has a very high probability of gazing at these keys, buttons, icons, etc. during operation, the user can perform calibration for gazing point detection based on the captured image at the time of operation.

[第2実施形態]
第2実施形態では、表示部60の位置600a及び位置600b(第1実施形態の図34を参照)を含む、表示部60の多くの位置について、眼球照明ライト166の点灯及び消灯を切り替える例を説明する。
[Second Embodiment]
In the second embodiment, the eyeball illumination light 166 is switched on and off for many positions of the display unit 60 including the position 600a and the position 600b of the display unit 60 (see FIG. 34 of the first embodiment). explain.

図39は、本実施形態に係るヘッドマウントディスプレイ(第2表示モード、待避モード)の装着形態を示す図である。図39では、装置本体部21は、ユーザーの左右の眼を仮想的に結んだ線を含むXY平面に対して、角度αだけ下側に傾いた姿勢となっている。   FIG. 39 is a diagram showing a mounting form of the head mounted display (second display mode, save mode) according to the present embodiment. In FIG. 39, the apparatus main body 21 is in a posture inclined downward by an angle α with respect to an XY plane including a line virtually connecting the left and right eyes of the user.

図39(A)は、右眼観察形態の第1表示モードから、表示部60を時計回り方向に90度回転させた装着形態を示す図である。この装着形態を、第2表示モードと称する。第2表示モードでは、表示部60の先端部が上側に位置するよう、表示部60は、収容部61a及び球状部61bを回転軸として、Y’軸回り(図3を参照)で時計回り方向に90度だけ回転される。これにより、表示部60及びファインダー開口部67は、ユーザー側から見ると、Z軸方向に縦長に配置される。また、表示パネル63は、アスペクト比が縦長の画像を表示する。   FIG. 39A is a diagram illustrating a mounting form in which the display unit 60 is rotated 90 degrees in the clockwise direction from the first display mode of the right-eye observation form. This mounting form is referred to as a second display mode. In the second display mode, the display unit 60 rotates clockwise about the Y ′ axis (see FIG. 3), with the storage unit 61 a and the spherical unit 61 b as rotation axes, so that the tip of the display unit 60 is located on the upper side. Rotated by 90 degrees. Thereby, the display part 60 and the finder opening part 67 are vertically arranged in the Z-axis direction when viewed from the user side. Further, the display panel 63 displays an image having an aspect ratio that is vertically long.

つまり、第2表示モードでは、表示部60の表示パネル63に表示される画像は、ユーザーの右眼に対して、斜め右前方向の位置に表示されることになる。また、第2表示モードでは、右眼の近傍にある眼球照明ライト166c及び166dが点灯し、眼球照明ライト166a及び166bが消灯する。   That is, in the second display mode, the image displayed on the display panel 63 of the display unit 60 is displayed at a position in the diagonally forward right direction with respect to the user's right eye. In the second display mode, the eyeball illumination lights 166c and 166d in the vicinity of the right eye are turned on, and the eyeball illumination lights 166a and 166b are turned off.

図39(B)は、右眼観察形態の第1表示モードから、表示部60を反時計回り方向に90度回転させた装着形態を示す図である。この装着形態を、待避モードと称する。待避モードでは、表示部60の先端部が下側に位置するよう、収容部61a及び球状部61bを回転軸として、表示部60をY’軸回り(図3を参照)で90度だけ反時計回り方向に回転される。これにより、表示部60及びファインダー開口部67は、ユーザーの右眼の視野から待避することになる。また、待避モードでは、眼球照明ライト166a〜166dは、全て消灯してもよい。   FIG. 39B is a diagram illustrating a mounting configuration in which the display unit 60 is rotated 90 degrees counterclockwise from the first display mode of the right-eye observation mode. This wearing form is referred to as a save mode. In the evacuation mode, the display unit 60 is rotated counterclockwise by 90 degrees around the Y ′ axis (see FIG. 3), with the accommodating portion 61 a and the spherical portion 61 b as rotation axes so that the tip of the display portion 60 is positioned on the lower side. It is rotated in the turning direction. Thereby, the display unit 60 and the viewfinder opening 67 are retracted from the visual field of the user's right eye. In the retreat mode, the eyeball illumination lights 166a to 166d may all be turned off.

第1表示モード、第2表示モード、及び待避モードにおいて、表示部60の回転軸は共通である。このため、第2表示モード又は待避モードから、表示部60を90度回転させれば、第1表示モードに戻すことができる。すなわち、ユーザーは、HMD1を外したり、装置本体部21の角度を変えたりせずに、表示部60をユーザーの右眼の視野から待避させたり、観察位置に戻したりすることができる。   The rotation axis of the display unit 60 is common in the first display mode, the second display mode, and the save mode. For this reason, if the display part 60 is rotated 90 degree | times from 2nd display mode or save mode, it can return to 1st display mode. That is, the user can retract the display unit 60 from the visual field of the right eye of the user or return it to the observation position without removing the HMD 1 or changing the angle of the apparatus main body unit 21.

なお、図39(A)及び図39(B)に示した例では、右眼観察形態の第1表示モードから、表示部60を縦に配置させる例を説明したが、図5(B)に示した左眼観察形態の第1表示モードからも同様に、表示部60を縦に配置させることができる。すなわち、左眼観察形態の第1表示モードから、収容部61a及び球状部61bを中心軸として、XZ平面で反時計回り方向に90度だけ、表示部60を回転させることで、ユーザーは、左眼観察形態の第2表示モードに、HMD1を切り替え可能である。同様に、右眼観察形態の第1表示モードから、収容部61a及び球状部61bを中心軸として、Y’軸回り(図3を参照)で時計回り方向に90度だけ、表示部60を回転させることで、ユーザーは、左眼観察形態の待避モードに、HMD1を切り替え可能である。   In the example shown in FIGS. 39A and 39B, the example in which the display unit 60 is arranged vertically from the first display mode of the right-eye observation mode has been described, but FIG. Similarly, from the first display mode of the left-eye observation mode shown, the display unit 60 can be arranged vertically. That is, from the first display mode of the left-eye observation mode, the display unit 60 is rotated by 90 degrees in the counterclockwise direction on the XZ plane with the accommodating portion 61a and the spherical portion 61b as the central axes, so that the user can The HMD 1 can be switched to the second display mode of the eye observation form. Similarly, from the first display mode of the right-eye observation mode, the display unit 60 is rotated by 90 degrees in the clockwise direction around the Y ′ axis (see FIG. 3), with the accommodating portion 61a and the spherical portion 61b as the central axes. By doing so, the user can switch the HMD 1 to the save mode of the left-eye observation mode.

制御部302は、加速度センサー132が検出した検出値、及び撮像素子72による撮像画像に基づいて(図22を参照)、右眼観察形態又は右眼観察形態と、第1表示モード、第2表示モード又は待避モードとを判別する。ここで、制御部302は、撮像素子72による撮像画像については、例えば、眉毛と眼との相対位置、瞬きでの瞼の挙動、眉毛の輪郭、眼の輪郭、眼の左右の目尻の下がり方等に基づいて、右眼観察形態又は右眼観察形態と、第1表示モード、第2表示モード又は待避モードとを判別する。また、制御部302は、撮像素子72による撮像画像にユーザーの眼球が撮像されていない場合、待避モードであると判別する。   Based on the detection value detected by the acceleration sensor 132 and the image captured by the image sensor 72 (see FIG. 22), the control unit 302 performs the right-eye observation mode or the right-eye observation mode, the first display mode, and the second display. The mode or the save mode is determined. Here, with respect to the image captured by the image sensor 72, the control unit 302, for example, the relative position between the eyebrows and the eye, the behavior of eyelids in blinking, the eyebrow contour, the eye contour, and the lowering of the left and right corners of the eye Based on the above, the right-eye observation form or the right-eye observation form and the first display mode, the second display mode, or the save mode are determined. In addition, when the user's eyeball is not captured in the image captured by the image sensor 72, the control unit 302 determines that the mode is the save mode.

図40は、本実施形態に係る表示部60の位置と眼球照明ライト166の関係を説明する図であり、ユーザーの顔を正面から水平に見た場合の図である。図40において、一点鎖線の四角形で示された位置600a〜600hは、表示部60が配置される位置の例である。   FIG. 40 is a diagram for explaining the relationship between the position of the display unit 60 and the eyeball illumination light 166 according to the present embodiment, and is a diagram when the user's face is viewed horizontally from the front. In FIG. 40, positions 600 a to 600 h indicated by alternate long and short dashed lines are examples of positions where the display unit 60 is arranged.

<第1表示モード>
位置600aは、ユーザーの右眼の下側に、横向きに配置されている表示部60の位置である。また、位置600bは、ユーザーの左眼の下側に、横向きに配置されている表示部60の位置である。また、位置600cは、ユーザーの右眼の上側に、横向きに配置されている表示部60の位置である。また、位置600dは、ユーザーの左眼の上側に、横向きに配置されている表示部60の位置である。
<First display mode>
The position 600a is a position of the display unit 60 that is disposed sideways below the right eye of the user. In addition, the position 600b is a position of the display unit 60 that is disposed sideways below the left eye of the user. The position 600c is a position of the display unit 60 that is disposed sideways above the right eye of the user. The position 600d is a position of the display unit 60 that is disposed sideways above the left eye of the user.

<第2表示モード>
位置600eは、ユーザーの右眼の右側に、縦向きに配置されている表示部60の位置である。また、位置600fは、ユーザーの左眼の左側に、縦向きに配置されている表示部60の位置である。
<Second display mode>
The position 600e is the position of the display unit 60 that is arranged vertically on the right side of the user's right eye. The position 600f is the position of the display unit 60 that is arranged vertically on the left side of the user's left eye.

HMD1の制御部302(図22を参照)は、位置600a、600d又は600fのいずれかに表示部60がある場合、この位置でユーザーの眼のより近傍に位置する眼球照明ライト166a及び166bを点灯させ、眼球照明ライト166c及び166dを消灯させる。一方、位置600b、600c又は600eのいずれかに表示部60がある場合、この位置でユーザーの眼のより近傍に位置する眼球照明ライト166c及び166dを点灯させ、眼球照明ライト166a及び166bを消灯させる。   When the display unit 60 is located at any of the positions 600a, 600d, and 600f, the control unit 302 (see FIG. 22) of the HMD1 lights the eyeball illumination lights 166a and 166b located closer to the user's eyes at this position. The eyeball illumination lights 166c and 166d are turned off. On the other hand, when the display unit 60 is in any of the positions 600b, 600c, or 600e, the eyeball illumination lights 166c and 166d located closer to the user's eyes are turned on at this position, and the eyeball illumination lights 166a and 166b are turned off. .

このように、制御部302は、ファインダー開口部67の隅の近傍(予め定められた距離以内)に配置されている眼球照明ライト166a〜166dのうち、ユーザーの眼をより正面から照射する眼球照明ライトが点灯するように、ユーザーと表示部60との位置関係に応じて点灯状態を制御する。   As described above, the control unit 302 irradiates the user's eyes from the front among the eyeball illumination lights 166a to 166d arranged in the vicinity of the corner of the finder opening 67 (within a predetermined distance). The lighting state is controlled according to the positional relationship between the user and the display unit 60 so that the light is turned on.

<待避モード>
位置600gは、ユーザーの右眼の右下側に、縦向きに配置されている表示部60の位置である。また、位置600hは、ユーザーの左眼の左下側に、縦向きに配置されている表示部60の位置である。
位置600g及び600hの位置に表示部60がある場合、制御部302は、眼球照明ライト166a〜166dを、全て消灯させる。
<Evacuation mode>
The position 600g is the position of the display unit 60 that is arranged vertically on the lower right side of the user's right eye. The position 600h is the position of the display unit 60 that is arranged vertically on the lower left side of the user's left eye.
When the display unit 60 is located at the positions 600g and 600h, the control unit 302 turns off all of the eyeball illumination lights 166a to 166d.

次に、点灯させる眼球照明ライトを選択する選択処理について説明する。
図41は、本実施形態に係るHMD1の眼球照明ライトの選択処理手順のフローチャートである。
Next, a selection process for selecting an eyeball illumination light to be turned on will be described.
FIG. 41 is a flowchart of the selection processing procedure of the eyeball illumination light of the HMD 1 according to the present embodiment.

(ステップS601)制御部302は、眼球照明部304を介して、眼球照明ライト166a及び166bを点灯させる。次に、制御部302は、撮像素子72を駆動して撮像画像を取得し、取得した撮像画像を記憶部303に記憶させる。 (Step S601) The control unit 302 turns on the eyeball illumination lights 166a and 166b via the eyeball illumination unit 304. Next, the control unit 302 drives the image sensor 72 to acquire a captured image, and stores the acquired captured image in the storage unit 303.

(ステップS602)制御部302は、眼球照明部304を介して、眼球照明ライト166a及び166bを消灯させ、眼球照明ライト166c及び166dを点灯させる。次に、制御部302は、撮像素子72を駆動して撮像画像を取得し、取得した撮像画像を記憶部303に記憶させる。 (Step S602) The control unit 302 turns off the eyeball illumination lights 166a and 166b and turns on the eyeball illumination lights 166c and 166d via the eyeball illumination unit 304. Next, the control unit 302 drives the image sensor 72 to acquire a captured image, and stores the acquired captured image in the storage unit 303.

(ステップS603)制御部302は、ステップS601で記憶させた撮像画像を読み出し、読み出した撮像画像から、眼球照明ライト166a及び166bに対応する輝点の画像を抽出する。次に、制御部302は、抽出した輝点の画像の輝度を算出する。次に、制御部302は、ステップS602で記憶させた撮像画像を読み出し、読み出した撮像画像から、眼球照明ライト166c及び166dに対応する輝点の画像を抽出する。次に、制御部302は、抽出した輝点の画像の輝度を算出する。
次に、制御部302は、眼球照明ライト166a及び166bに対応する輝点の輝度の方が、眼球照明ライト166c及び166dに対応する輝点の輝度より高いか否かを判別する。眼球照明ライト166a及び166bに対応する輝点の輝度の方が、眼球照明ライト166c及び166dに対応する輝点の輝度より高いと判別された場合(ステップS603;Yes)、ステップS604に進む。眼球照明ライト166a及び166bに対応する輝点の輝度の方が、眼球照明ライト166c及び166dに対応する輝点の輝度より高くないと判別された場合(ステップS603;No)、ステップS605に進む。
(Step S603) The control unit 302 reads the captured image stored in step S601, and extracts bright spot images corresponding to the eyeball illumination lights 166a and 166b from the read captured image. Next, the control unit 302 calculates the luminance of the extracted bright spot image. Next, the control unit 302 reads the captured image stored in step S602, and extracts bright spot images corresponding to the eyeball illumination lights 166c and 166d from the read captured image. Next, the control unit 302 calculates the luminance of the extracted bright spot image.
Next, the control unit 302 determines whether the brightness of the bright spot corresponding to the eyeball illumination lights 166a and 166b is higher than the brightness of the bright spot corresponding to the eyeball illumination lights 166c and 166d. When it is determined that the brightness of the bright spot corresponding to the eyeball illumination lights 166a and 166b is higher than the brightness of the bright spot corresponding to the eyeball illumination lights 166c and 166d (step S603; Yes), the process proceeds to step S604. When it is determined that the brightness of the bright spot corresponding to the eyeball illumination lights 166a and 166b is not higher than the brightness of the bright spot corresponding to the eyeball illumination lights 166c and 166d (step S603; No), the process proceeds to step S605.

(ステップS604)眼球照明ライト166a及び166bに対応する輝点の輝度の方が、眼球照明ライト166c及び166dに対応する輝点の輝度より高いと判別された場合、制御部302は、眼球照明ライト166a及び166bを選択し、選択した結果を記憶部303に記憶させる。制御部302は、眼球照明ライト166c及び166dを消灯させて、眼球照明ライトの選択処理を終了する。 (Step S604) When it is determined that the brightness of the bright spot corresponding to the eyeball illumination lights 166a and 166b is higher than the brightness of the bright spot corresponding to the eyeball illumination lights 166c and 166d, the control unit 302 166a and 166b are selected, and the selected result is stored in the storage unit 303. The control unit 302 turns off the eyeball illumination lights 166c and 166d and ends the eyeball illumination light selection process.

(ステップS605)眼球照明ライト166a及び166bに対応する輝点の輝度の方が、眼球照明ライト166c及び166dに対応する輝点の輝度より高くないと判別された場合、制御部302は、眼球照明ライト166c及び166dを選択し、選択した結果を記憶部303に記憶させる。制御部302は、眼球照明ライト166c及び166dを消灯させて、眼球照明ライトの選択処理を終了する。 (Step S605) When it is determined that the brightness of the bright spot corresponding to the eyeball illumination lights 166a and 166b is not higher than the brightness of the bright spot corresponding to the eyeball illumination lights 166c and 166d, the control unit 302 performs the eyeball illumination. The lights 166c and 166d are selected, and the selected result is stored in the storage unit 303. The control unit 302 turns off the eyeball illumination lights 166c and 166d and ends the eyeball illumination light selection process.

上述したように、眼球照明ライト166の輝度に基づいて、眼球照明ライト166を制御するようにしたので、本実施形態のHMD1は、ユーザーの眼と表示部60との位置関係に応じて眼球を照明するライトの選択が適宜行うことが可能となる。さらに、本実施形態のHMD1は、使用しない眼球照明ライト166を消灯することで、効率的な省電力対策が可能となっている。   As described above, since the eyeball illumination light 166 is controlled based on the luminance of the eyeball illumination light 166, the HMD 1 of the present embodiment changes the eyeball according to the positional relationship between the user's eye and the display unit 60. Selection of the light to illuminate can be performed appropriately. Further, the HMD 1 of the present embodiment can efficiently take measures for power saving by turning off the unused eyeball illumination light 166.

なお、本実施形態では、眼球照明ライト166の輝度と、ユーザーと表示部60との位置関係とに応じて、眼球照明ライト166の点灯及び消灯を制御する例を説明したが、眼球照明ライト166の点灯及び消灯を制御する例は、これに限られない。例えば、制御部302は、取得した撮像画像と記憶部303に記憶されている判別用画像とを、パターンマッチングにより比較し、比較した結果に基づいて、ユーザーと表示部60との位置関係に応じて、眼球照明ライト166の点灯と消灯を制御するようにしてもよい。   In the present embodiment, the example in which turning on and off of the eyeball illumination light 166 is controlled according to the luminance of the eyeball illumination light 166 and the positional relationship between the user and the display unit 60 has been described. An example of controlling the turning on and off of light is not limited to this. For example, the control unit 302 compares the acquired captured image with the discrimination image stored in the storage unit 303 by pattern matching, and according to the positional relationship between the user and the display unit 60 based on the comparison result. Thus, the turning on and off of the eyeball illumination light 166 may be controlled.

以上のように、本実施形態のHMD1は、ユーザーの眼に対してユーザーの下側もしくは上側や外側に表示部60が配置された場合であっても、ユーザーと表示部60との位置関係に応じて、眼球照明ライト166の点灯と消灯を制御する。この結果、本実施形態のHMD1は、ユーザーと表示部60との位置関係に応じて、ユーザーの眼に眼球照明ライト166の光を照射して、注視点検出を行うことができる。また、本実施形態のHMD1は、ユーザーと表示部60との位置関係に応じて、眼球照明ライト166を消灯できるので、消費電力を削減することができる。   As described above, the HMD 1 of the present embodiment is in a positional relationship between the user and the display unit 60 even when the display unit 60 is disposed below, above or outside the user with respect to the user's eyes. In response, the turning on and off of the eyeball illumination light 166 is controlled. As a result, the HMD 1 of the present embodiment can detect the point of sight by irradiating the user's eyes with the light of the eyeball illumination light 166 according to the positional relationship between the user and the display unit 60. Further, the HMD 1 of the present embodiment can reduce the power consumption because the eyeball illumination light 166 can be turned off according to the positional relationship between the user and the display unit 60.

なお、表示部60がユーザーの顔の正面にあり、眼球照明ライト166a〜166dの全てがユーザーの水平視線からほぼ等距離な位置にあると判別される場合、HMD1は、原理的にはどの眼球照明ライト166を点灯してもよい。しかしながら、通常は眼の上方向には、天井の照明や空や太陽などがあり、これらの光源による輝点が眼球上に存在する可能性がある。そして、これらの輝点と眼球照明ライト166の輝点とが識別がしづらくなることから、表示部60がユーザーの顔のほぼ正面にあると判別される場合、HMD1は、眼の鉛直下方向に配置された眼球照明ライト166を点灯するように制御を行うようにしてもよい。   Note that if the display unit 60 is in front of the user's face and all of the eyeball illumination lights 166a to 166d are determined to be at an approximately equidistant position from the user's horizontal line of sight, the HMD 1 is in principle which eyeball. The illumination light 166 may be turned on. However, normally, there are ceiling lighting, sky, sun, and the like above the eyes, and bright spots from these light sources may exist on the eyeball. Since these bright spots and the bright spot of the eyeball illumination light 166 are difficult to discriminate, when it is determined that the display unit 60 is substantially in front of the user's face, the HMD 1 Control may be performed to turn on the eyeball illumination light 166 arranged at.

[第3実施形態]
第1〜第2実施形態では、表示部60を含むファインダー開口部67の長辺の近傍に眼球照明ライト166a〜166dを備える例を説明したが(図2を参照)、眼球照明ライト166a〜166dを備える例は、これに限られない。すなわち、眼球照明ライト166は、ファインダー開口部67の短辺の近傍に配置されてもよい。
[Third Embodiment]
In the first and second embodiments, the example in which the eyeball illumination lights 166a to 166d are provided in the vicinity of the long side of the finder opening 67 including the display unit 60 (see FIG. 2), the eyeball illumination lights 166a to 166d are provided. The example provided with is not limited to this. That is, the eyeball illumination light 166 may be disposed in the vicinity of the short side of the finder opening 67.

図42は、本実施形態に係る眼球照明ライト166e〜166hの配置を説明する図である。図42に示すように、表示部60の表面には、4つの眼球照明ライト166e〜166hが、ファインダー開口部67の2つの短辺に沿って、各々2個ずつ設けられている。眼球照明ライト166e〜166hは、例えば、赤外線を放射するLEDである。   FIG. 42 is a diagram illustrating the arrangement of the eyeball illumination lights 166e to 166h according to the present embodiment. As shown in FIG. 42, two eyeball illumination lights 166 e to 166 h are provided on the surface of the display unit 60 along two short sides of the finder opening 67. The eyeball illumination lights 166e to 166h are, for example, LEDs that emit infrared rays.

図43は、本実施形態に係る表示部60の位置と眼球照明ライト166e〜166hの関係を説明する図であり、ユーザーの顔を水平正面から見た図である。図43において、一点鎖線で示した四角600a〜600hは、図40と同様に、表示部60が配置される位置の例である。   FIG. 43 is a diagram for explaining the relationship between the position of the display unit 60 and the eyeball illumination lights 166e to 166h according to the present embodiment, and is a diagram of the user's face viewed from the horizontal front. In FIG. 43, squares 600a to 600h indicated by alternate long and short dash lines are examples of positions where the display unit 60 is arranged, as in FIG.

図43に示すように、位置600a、600d又は600fのいずれかの位置に表示部60がある場合、HMD1の制御部302は、眼の近傍にある眼球照明ライト166e及び166fを点灯させ、眼の近傍にない他の眼球照明ライトを消灯させる。
一方、位置600b、600c又は600eのいずれかの位置に表示部60がある場合、制御部302は、眼の近傍にある眼球照明ライト166g及び166hを点灯させ、眼の近傍にない他の眼球照明ライトを消灯させる。
さらに、位置600g又は600hの位置に表示部60がある場合、制御部302は、全ての眼球照明ライト166が消灯される。
すなわち、本実施形態においても、制御部302は、ユーザーと表示部60との位置関係に応じて、ユーザーの眼をより正面から照射する眼球照明ライト166が点灯するように制御する。言い換えると、制御部302は、ユーザーと表示部60との位置関係に応じて、ファインダー開口部67の対向する2辺の近傍に配置されている照明部(眼球照明ライト166e〜166h)を点灯させる。
As shown in FIG. 43, when the display unit 60 is located at any one of the positions 600a, 600d, and 600f, the control unit 302 of the HMD1 lights the eyeball illumination lights 166e and 166f in the vicinity of the eyes, Turn off other eyeball illumination lights that are not nearby.
On the other hand, when the display unit 60 is located at any one of the positions 600b, 600c, or 600e, the control unit 302 turns on the eyeball illumination lights 166g and 166h in the vicinity of the eyes, and other eyeball illuminations that are not in the vicinity of the eyes. Turn off the light.
Furthermore, when the display unit 60 is at the position 600g or 600h, the control unit 302 turns off all the eyeball illumination lights 166.
That is, also in the present embodiment, the control unit 302 performs control so that the eyeball illumination light 166 that irradiates the user's eyes from the front is turned on according to the positional relationship between the user and the display unit 60. In other words, the control unit 302 turns on the illumination units (eyeball illumination lights 166e to 166h) arranged in the vicinity of the two opposing sides of the finder opening 67 according to the positional relationship between the user and the display unit 60. .

本実施形態の処理部123の構成は、第1実施形態の図23と同様である。また、本実施形態における眼球照明ライト166の選択処理は、図41に示したステップS601〜S604と同様に行う。あるいは、取得した撮像画像と記憶部303に記憶されている判別用画像とを、パターンマッチングにより比較し、比較した結果に基づいて、ユーザーと表示部60との位置関係に応じて、眼球照明ライト166の点灯と消灯を制御するようにしてもよい。   The configuration of the processing unit 123 of this embodiment is the same as that of FIG. 23 of the first embodiment. In addition, the selection process of the eyeball illumination light 166 in the present embodiment is performed in the same manner as steps S601 to S604 illustrated in FIG. Alternatively, the acquired captured image and the discrimination image stored in the storage unit 303 are compared by pattern matching, and based on the comparison result, the eyeball illumination light is selected according to the positional relationship between the user and the display unit 60. The lighting and extinguishing of 166 may be controlled.

以上のように、本実施形態では、眼球照明ライト166e〜166hを、表示部60のファインダー開口部67の短辺の近傍に、短辺毎に2個ずつ設けるようにした。この場合においても、第2実施形態と同様に、ユーザーと表示部60の位置関係に応じて、眼球照明ライト166e〜166hの点灯及び消灯を切り替えることで、ユーザーの眼を含む領域に適切に光線を照射することができる。この結果、視線入力のキャリブレーション及び視線入力を行うための、ユーザーの視線検出を精度良く行えるので、ユーザーの視線、つまり、注視点を精度良く検出することができる。   As described above, in this embodiment, two eyeball illumination lights 166e to 166h are provided in the vicinity of the short side of the finder opening 67 of the display unit 60 for each short side. Also in this case, similarly to the second embodiment, the light of the eyeball illumination lights 166e to 166h is switched on and off according to the positional relationship between the user and the display unit 60, so that the light rays are appropriately applied to the region including the user's eyes. Can be irradiated. As a result, it is possible to accurately detect the user's line of sight for calibration of the line of sight input and the line of sight input, and thus it is possible to accurately detect the user's line of sight, that is, the gaze point.

[第4実施形態]
次に、表示部がシースルー光学系の場合について説明する。
第1〜第3実施形態との差異は、表示部60の構成のみである。
図44は、本実施形態に係る本実施形態に係る光学系を説明するための表示部60aの断面図である。図8と同じ機能の部材には同じ番号を設けてあるので説明は省略する。
[Fourth Embodiment]
Next, the case where the display unit is a see-through optical system will be described.
The difference from the first to third embodiments is only the configuration of the display unit 60.
FIG. 44 is a cross-sectional view of the display unit 60a for explaining the optical system according to the present embodiment. The members having the same functions as those in FIG.

図44に示すように、本実施形態の表示部60aは、バックライト62、表示パネル63、第1プリズム65a、第2プリズム65b、反射ミラー66、ファインダー開口部67、結像レンズ71、撮像素子72、1/4波長板75、偏光板90、凹レンズ91、1/4波長板92、液晶93、偏光板94、開口部95を含んで構成されている。図44において、符号H、I、J、K、O、Tは、各々、光線を表し、符号Sは、ユーザーの眼から出た光束を表す。   As shown in FIG. 44, the display unit 60a of the present embodiment includes a backlight 62, a display panel 63, a first prism 65a, a second prism 65b, a reflection mirror 66, a viewfinder opening 67, an imaging lens 71, and an image sensor. 72, a quarter-wave plate 75, a polarizing plate 90, a concave lens 91, a quarter-wave plate 92, a liquid crystal 93, a polarizing plate 94, and an opening 95. In FIG. 44, symbols H, I, J, K, O, and T each represent a light beam, and symbol S represents a light beam emitted from the user's eye.

図44に示すように、ユーザーの前面の景色は、光線Oとなって開口部95に入射する。次に、光線Oは、開口部95を抜けて、偏光板94を透過する。次に、光線Oは、S偏光のみが透過する。
次に、光線Oは、液晶93に入射する。なお、光線Oは、液晶93の働きにより偏光方向が変わる。すなわち、液晶93に通電した場合(オン状態)、光線Oは、液晶93に入射したS偏光がP偏光となって、1/4波長板92に入射する。次に、光線Oは、1/4波長板92の働きにより左回りの偏光となる。
As shown in FIG. 44, the scene in front of the user becomes a light ray O and enters the opening 95. Next, the light beam O passes through the opening 95 and passes through the polarizing plate 94. Next, the light beam O transmits only S-polarized light.
Next, the light beam O enters the liquid crystal 93. Note that the polarization direction of the light beam O is changed by the action of the liquid crystal 93. That is, when the liquid crystal 93 is energized (ON state), the light O is incident on the quarter-wave plate 92 with the S-polarized light incident on the liquid crystal 93 becoming P-polarized light. Next, the light beam O becomes counterclockwise polarized light by the action of the quarter-wave plate 92.

本実施形態において反射ミラー66は、半透過タイプとなっており、例えば、50%の光線を透過し、50%の光を反射する。反射ミラー66が、50%の光線を透過するとして以下を説明する。この結果、光線Oの50%が、1/4波長板75に入射する。
なお、凹レンズ91は、反射ミラー66を構成する凸レンズとペアとなって、パワーゼロの平行平板となるようにするための部材である。
In the present embodiment, the reflection mirror 66 is a semi-transmissive type, and transmits, for example, 50% of light and reflects 50% of light. The following description will be made on the assumption that the reflection mirror 66 transmits 50% of light. As a result, 50% of the light beam O enters the quarter-wave plate 75.
The concave lens 91 is a member that is paired with a convex lens constituting the reflection mirror 66 to become a parallel plate with zero power.

次に、光線Oは、1/4波長板75の作用で、P偏光となり、第1プリズム65aに入射する。次に、光線Oは、接合面65cをそのまま透過して、第2プリズム65bを透過して偏光板90に入射する。偏光板90は、P偏光を透過するように構成されている。
以上の構成により、ユーザーによって外界の画像(開口部95を通して見る画像)が、表示パネル63から投影される画像とともに観察可能となっている。
Next, the light beam O becomes P-polarized light by the action of the quarter-wave plate 75 and enters the first prism 65a. Next, the light beam O passes through the bonding surface 65 c as it is, passes through the second prism 65 b, and enters the polarizing plate 90. The polarizing plate 90 is configured to transmit P-polarized light.
With the above configuration, an image of the outside world (an image viewed through the opening 95) can be observed together with an image projected from the display panel 63 by the user.

次に、外界の画像を消し、表示パネル63から投影される画像のみを観察する場合について説明する。
図44において、液晶93を無通電の状態(オフ状態)にすると、光線Oは、液晶93により光線Oの偏光方向が変化されない。このため、光線Oは、偏光板94でS偏光となる。次に、光線Oは、そのままが1/4波長板92に入射する。次に、光線Oは、1/4波長板の働きにより右回りの偏光となる。
Next, a case where the image of the outside world is erased and only the image projected from the display panel 63 is observed will be described.
In FIG. 44, when the liquid crystal 93 is turned off (off state), the polarization direction of the light beam O is not changed by the liquid crystal 93. For this reason, the light beam O becomes S-polarized light at the polarizing plate 94. Next, the light beam O is incident on the quarter-wave plate 92 as it is. Next, the light beam O becomes clockwise polarized light by the action of the quarter wave plate.

次に、反射ミラー66を透過した光線Oの50%が、1/4波長板75に入射する。次に、光線Oは、1/4波長板75の作用で、S偏光となる。次に、S偏光になった光線Oは、第1プリズム65aに入射する。接合面65cに設けられた偏光反射膜は、S偏光を反射する。この結果、ユーザーの眼に外界の光線が、入射しない。   Next, 50% of the light beam O transmitted through the reflection mirror 66 enters the quarter-wave plate 75. Next, the light beam O becomes S-polarized light by the action of the quarter-wave plate 75. Next, the light beam O that has become S-polarized light enters the first prism 65a. The polarization reflection film provided on the bonding surface 65c reflects S-polarized light. As a result, external light rays do not enter the user's eyes.

このように、液晶93のオン状態とオフ状態の切り替えによって、外界の画像をファインダー内に透過して使用者によって観察可能か否かを制御することが可能である。なお、液晶93のオン状態とオフ状態の切り替えは、例えば処理部123が行う。   In this way, by switching the liquid crystal 93 between the on state and the off state, it is possible to control whether or not the image of the outside world can be transmitted through the finder and observed by the user. Note that the processing unit 123 performs switching between the ON state and the OFF state of the liquid crystal 93, for example.

図44において、偏光板90の働きは、反射ミラー66によってユーザーが自分の眼を拡大して観察しないように配置している。ユーザーが自分の眼を拡大して観察しない理由について、説明する。
ユーザーの眼から出た光束Sは、偏光板90でP偏光のみが透過し、第2プリズム65b、接合面65c、第1プリズム65aを透過して、1/4波長板75に入射する。ここで、光線Sは、1/4波長板75の作用により左回りの円偏光となり、反射ミラー66で光線Tとして反射される。次に、光線Tは、反射によって右回りの円偏光となり、1/4波長板75を透過する際にS偏光となる。
次に、光線Tは、第1プリズム65aを透過して接合面65cに入射する。ここで、接合面65cはS偏光を反射して透過しない。従って、ユーザーの眼には、自分自身の眼からでた光束が入射することはなく、表示画面中に自分の眼が見えることは無い。
44, the action of the polarizing plate 90 is arranged so that the user does not enlarge and observe his / her eyes by the reflection mirror 66. In FIG. Explain why users do not observe their eyes enlarged.
The light beam S emitted from the user's eyes is transmitted through only the P-polarized light by the polarizing plate 90, passes through the second prism 65b, the joint surface 65c, and the first prism 65a, and enters the quarter-wave plate 75. Here, the light beam S becomes counterclockwise circularly polarized light by the action of the quarter-wave plate 75, and is reflected as the light beam T by the reflection mirror 66. Next, the light beam T becomes clockwise circularly polarized light by reflection, and becomes S-polarized light when passing through the quarter-wave plate 75.
Next, the light beam T passes through the first prism 65a and enters the joint surface 65c. Here, the joint surface 65c reflects and does not transmit S-polarized light. Therefore, the user's eyes do not receive the luminous flux from his / her own eyes, and his / her eyes cannot be seen on the display screen.

また、眼の周辺画像を撮影するための結像レンズ71ならびに撮像素子72は、ファインダー開口部67に隣接して設けられている。このため、結像レンズ71ならびに撮像素子72系の光線は、第2プリズム65bを透過せずに、直接ユーザーの眼の近傍を撮影可能となっている。   Further, the imaging lens 71 and the image sensor 72 for taking a peripheral image of the eye are provided adjacent to the finder opening 67. For this reason, the light rays of the imaging lens 71 and the imaging element 72 system can directly photograph the vicinity of the user's eyes without passing through the second prism 65b.

図45は、本実施形態に係る観察範囲と撮像範囲を説明する図である。図45において、符号67aは、表示パネル63から投影された画像の観察範囲を表している。符号67bは、撮像素子72の撮像範囲を表している。
また、図45は、図10等と同様に、反射ミラー66を凸レンズに置き換えて、等価的に表した図である。
FIG. 45 is a diagram for explaining an observation range and an imaging range according to the present embodiment. In FIG. 45, reference numeral 67a represents the observation range of the image projected from the display panel 63. Reference numeral 67 b represents an imaging range of the imaging element 72.
FIG. 45 is an equivalent view in which the reflecting mirror 66 is replaced with a convex lens, as in FIG.

図45において、結像レンズ71の焦点距離は、反射ミラー66の焦点距離より短く作られている。このため、図44を紙面とは垂直に断面を切り取った場合、図45で示すように、ユーザーの眼を含むその周囲の様子が撮影可能となっている。
なお、図45において、結像レンズ71ならびに撮像素子72は、反射ミラー66の光学中心とはオフセットしている。しかしながら、ユーザーは、表示部60aを眼の正面ではなく、口元の方向へ下げることでファインダー開口部67から眼を十分に離すことが可能となっており、図45に示すようにユーザーの眼は観察距離L81の位置にある。このため、ユーザーが表示パネル63を観察している場合、本実施形態によれば、撮像素子72は、問題なくユーザーの眼ならびにその周囲を撮影可能となっている。
In FIG. 45, the focal length of the imaging lens 71 is made shorter than the focal length of the reflection mirror 66. Therefore, when FIG. 44 is cut in a cross section perpendicular to the paper surface, as shown in FIG. 45, the surrounding area including the user's eyes can be photographed.
In FIG. 45, the imaging lens 71 and the image sensor 72 are offset from the optical center of the reflection mirror 66. However, the user can sufficiently separate his / her eyes from the viewfinder opening 67 by lowering the display unit 60a in the direction of the mouth, not in front of the eyes. As shown in FIG. It is at the position of the observation distance L81. For this reason, when the user is observing the display panel 63, according to this embodiment, the image sensor 72 can photograph the user's eyes and the surroundings without any problem.

上述した構成を備えることで、ユーザーの眼を含む撮像を行い、第1〜第3実施形態と同様に、撮像素子72が撮像した画像に基づいて、HMD1の装着状態、視線キャリブレーションを行うことができるシースルー光学系の表示部を備えるヘッドマウントディスプレイを提供することができる。
なお、第4実施形態においても、第1、第3実施形態で説明したように、眼球照明ライトを、ファインダー開口部67の4辺のうち、対向する2辺の近傍に各々配置するようにしてもよい。
By providing the above-described configuration, imaging including the user's eyes is performed, and the wearing state of the HMD 1 and the line-of-sight calibration are performed based on the image captured by the imaging device 72 as in the first to third embodiments. It is possible to provide a head mounted display including a display unit of a see-through optical system capable of
In the fourth embodiment, as described in the first and third embodiments, the eyeball illumination light is arranged in the vicinity of two opposite sides of the four sides of the finder opening 67. Also good.

なお、第1〜第4実施形態では、ヘッドマウントディスプレイの例として、右眼観察形態と左眼観察形態を切り替えて使用できるヘッドマウントディスプレイの例を説明したが、これに限られない。例えば、右眼観察形態専用、または左眼観察形態専用のヘッドマウントディスプレイであってもよい。この場合、本実施形態で説明した処理の内、右眼観察形態、または左眼観察形態に関する処理のみを行うようにしてもよい。   In the first to fourth embodiments, the example of the head mounted display that can be used by switching between the right eye observation mode and the left eye observation mode has been described as an example of the head mounted display, but is not limited thereto. For example, it may be a head-mounted display dedicated to the right-eye observation form or dedicated to the left-eye observation form. In this case, among the processes described in the present embodiment, only the process relating to the right eye observation form or the left eye observation form may be performed.

また、第1〜第4実施形態において、図2及び図42では、表示部60及びファインダー開口部67が長方形である例を示したが、表示部60及びファインダー開口部67は、正方形、楕円形、円形等であってもよい。表示部60及びファインダー開口部67が、このような形状であっても、複数の眼球照明ライトを、図2または図42に示したように、ファインダー開口部67の4辺のうち、対向する2辺の近傍に各々配置するようにしてもよい。   In the first to fourth embodiments, FIGS. 2 and 42 show an example in which the display unit 60 and the finder opening 67 are rectangular. However, the display unit 60 and the finder opening 67 are square and elliptical. It may be circular or the like. Even if the display unit 60 and the viewfinder opening 67 have such a shape, a plurality of eyeball illumination lights are opposed to two of the four sides of the viewfinder opening 67 as shown in FIG. You may make it arrange | position in the vicinity of an edge | side, respectively.

なお、第1〜第4実施形態では、眼球照明ライト166a〜166d、または166e〜166hを、例えば図2または図42に示したように、ファインダー開口部67の上下または左右に、各々2個ずつ設ける例を説明したが、これに限られない。例えば、ファインダー開口部67の上下または左右に、各々1個ずつ設けるようにしてもよい、ファインダー開口部67の上下または左右に、各々3個以上ずつ設けるようにしてもよい。
さらに、眼球照明ライト166a〜166dを設ける位置は、図2に示したようなファインダー開口部67の上下でなくてもよい。ユーザーの眼球に照射できる位置であればよく、例えば、眼球照明ライト166a〜166dは、ファインダー開口部67の内側の上下に設けるようにしてもよい。すなわち、ユーザーが、HMD1をユーザーの眼の近傍に表示部60が配置したとき、眼球照明ライト166a〜166dのいずれかがユーザーの眼の近傍に配置されればよい。このため、眼球照明ライト166a〜166dは、ファインダー開口部67が配置された表示部60の一面の範囲、または、ファインダー開口部67の内側の範囲に配置されるようにしてもよい。また、表示部60が配置されるユーザーの眼の近傍とは、例えば、図40または図43に示した位置600a〜600fのように、ユーザーの眼の下、上、外側等であり、撮像素子72によりユーザーの眼の周辺画像を撮像できる範囲であればよい。
In the first to fourth embodiments, two eyeball illumination lights 166a to 166d or 166e to 166h are provided on each of the upper and lower sides or the left and right sides of the viewfinder opening 67 as shown in FIG. 2 or FIG. Although the example which provides is demonstrated, it is not restricted to this. For example, one each may be provided above and below or right and left of the finder opening 67, or three or more may be provided above and below or right and left of the finder opening 67.
Further, the positions where the eyeball illumination lights 166a to 166d are provided may not be above and below the finder opening 67 as shown in FIG. Any position that irradiates the user's eyeball may be used. For example, the eyeball illumination lights 166 a to 166 d may be provided above and below the viewfinder opening 67. In other words, when the user places the HMD 1 in the vicinity of the user's eyes, the eyeball illumination lights 166a to 166d may be arranged in the vicinity of the user's eyes. For this reason, the eyeball illumination lights 166a to 166d may be arranged in a range of one surface of the display unit 60 where the finder opening 67 is arranged, or a range inside the finder opening 67. Further, the vicinity of the user's eye where the display unit 60 is arranged is, for example, below, above, outside, or the like of the user's eye, such as positions 600a to 600f shown in FIG. 72 may be a range in which a peripheral image of the user's eyes can be captured.

なお、第1〜第4実施形態では、右眼観察形態であるか左眼観察形態であるかを、加速度センサー132の検出値、または撮像素子72が撮像した画像を用いる例を説明したが、これに限られない。例えば、眼球照明ライト166a〜166dに受光部を備えるタイプを使用し、各眼球照明ライト166a〜166dによる反射光を検出するようにしてもよい。例えば、右眼観察形態の場合、図33に示したように、眼球照明ライト166a及び166bは、眼球照明ライト166c及び166dよりも、ユーザーの眼のより正面に配置される。このため、眼球照明ライト166c及び166dによる反射光の輝度は、眼球照明ライト166a及び166bによる反射光の輝度よりも低い。
このように、処理部123は、各眼球照明ライト166a〜166dによる反射光を検出し、検出した結果に基づいて観察形態を判別するようにしてもよい。
In the first to fourth embodiments, the example in which the detection value of the acceleration sensor 132 or the image captured by the image sensor 72 is used to determine whether the observation mode is the right eye observation mode or the left eye observation mode is described. It is not limited to this. For example, a type including a light receiving unit may be used for the eyeball illumination lights 166a to 166d, and the reflected light from each of the eyeball illumination lights 166a to 166d may be detected. For example, in the case of the right-eye observation mode, as shown in FIG. 33, the eyeball illumination lights 166a and 166b are arranged in front of the user's eye rather than the eyeball illumination lights 166c and 166d. For this reason, the brightness of the reflected light from the eyeball illumination lights 166c and 166d is lower than the brightness of the reflected light from the eyeball illumination lights 166a and 166b.
As described above, the processing unit 123 may detect the reflected light from each of the eyeball illumination lights 166a to 166d and determine the observation form based on the detected result.

また、撮像素子72は、所定の時間間隔で、撮像画像を撮像してもよい。この場合、処理部123は、メインスイッチ28をオフ状態にせずに、ユーザーがヘッドマウントディスプレイを頭部から外しているのか否かを、撮像素子72が撮像した画像に基づいて判別するようにしてもよい。メインスイッチ28をオフ状態にせずに、所定の時間以上、ユーザーがヘッドマウントディスプレイを頭部から外していると判別した場合、処理部123は、カメラ64及び撮像素子72による撮像を、停止させてもよい。また、処理部123は、眼球照明ライト166a〜166dを消灯させてもよい。さらに、処理部123は、省電力状態になるように、各通信回路等を制御するようにしてもよい。なお、これらの制御を行うか否かは、例えば、タッチスイッチ34を操作することにより、ユーザーが設定してもよい。
または、処理部123は、ヘッドマウントディスプレイが頭部から外されているか否かを、例えば、心拍数センサー137の検出値に基づいて判別するようにしてもよい。
さらに、処理部123は、装置本体部21がヘッドバンド40に装着されていないことを検出スイッチ(不図示)が検出した場合、装置本体部21が頭部から外されていると判別し、眼球照明ライト166a〜166dを全て消灯させてもよい。
これにより、処理部123は、ヘッドマウントディスプレイの消費電力を低減させることができる。
The image sensor 72 may capture a captured image at a predetermined time interval. In this case, the processing unit 123 determines whether the user has removed the head-mounted display from the head without turning the main switch 28 based on the image captured by the image sensor 72. Also good. If it is determined that the user has removed the head-mounted display from the head for a predetermined time or longer without turning off the main switch 28, the processing unit 123 stops imaging by the camera 64 and the imaging element 72. Also good. The processing unit 123 may turn off the eyeball illumination lights 166a to 166d. Further, the processing unit 123 may control each communication circuit or the like so as to enter a power saving state. Whether or not to perform these controls may be set by the user by operating the touch switch 34, for example.
Alternatively, the processing unit 123 may determine whether or not the head mounted display is removed from the head based on the detection value of the heart rate sensor 137, for example.
Further, when a detection switch (not shown) detects that the apparatus main body 21 is not attached to the headband 40, the processing unit 123 determines that the apparatus main body 21 is removed from the head, and the eyeball All of the illumination lights 166a to 166d may be turned off.
Thereby, the process part 123 can reduce the power consumption of a head mounted display.

なお、第1〜第4実施形態では、ヘッドマウントディスプレイの例として単眼タイプについて説明したが、ヘッドマウントディスプレイは、両眼タイプでもよい。この場合、処理部123は、撮像素子72が撮像した画像に基づいて、例えば、図36に示したように眼の上の位置600c及び600dに表示部が配置されている状態か、眼の下の位置600a及び600bに表示部が配置されている状態かを判別するようにしてもよい。処理部123は、判別した結果に基づいて、左右の眼に対応した表示部に各々設けられている眼球照明ライト166の点灯または消灯を制御するようにしてもよい。   In the first to fourth embodiments, the monocular type has been described as an example of the head mounted display. However, the head mounted display may be a binocular type. In this case, based on the image captured by the image sensor 72, the processing unit 123 may be in a state where the display unit is placed at the positions 600c and 600d on the eye as illustrated in FIG. It may be determined whether or not the display unit is located at the positions 600a and 600b. The processing unit 123 may control lighting or extinguishing of the eyeball illumination lights 166 provided in the display units corresponding to the left and right eyes, based on the determined result.

また、眼球照明ライト166及び撮像素子72は、ヘッドマウントディスプレイが両眼タイプの場合、左右それぞれの表示部のうち、片方の表示部60だけに設けられてもよいし、両方の表示部60に設けられてもよい。片方の表示部60だけに、眼球照明ライト166を設けてもよい理由は、人が物を見る場合、一般的に、両眼の眼球が同じ方向を向くからである。   Further, when the head mounted display is a binocular type, the eyeball illumination light 166 and the image sensor 72 may be provided only on one display unit 60 of the left and right display units, or on both display units 60. It may be provided. The reason why the eyeball illumination light 166 may be provided only on one display unit 60 is that, when a person looks at an object, the eyeballs of both eyes generally face the same direction.

なお、第1〜第4実施形態では、HMD1は、図21に示した機能を備える例を説明したが、全ての機能を備えていなくてもよい。用途に応じて、例えば、温湿度センサー136、心拍数センサー137等を備えなくてもよい。逆に、HMD1は、必要に応じて、図22に示した以外の他の機能部を備えるようにしてもよい。   In the first to fourth embodiments, the example in which the HMD 1 includes the functions illustrated in FIG. 21 has been described. However, all the functions may not be included. Depending on the application, for example, the temperature / humidity sensor 136 and the heart rate sensor 137 may not be provided. Conversely, the HMD 1 may include other functional units other than those shown in FIG. 22 as necessary.

なお、第1〜第4実施形態では、ディスプレイ本体20をヘッドバンド40に装着して使用する例を説明したが、これに限られない。ユーザーは、ディスプレイ本体20をヘッドバンド40に装着せずに、用途に応じて単体で使用してもよい。   In the first to fourth embodiments, the example in which the display main body 20 is mounted on the headband 40 has been described. However, the present invention is not limited to this. The user may use the display body 20 alone without depending on the headband 40 depending on the application.

なお、本発明の技術範囲は上記の実施形態に限定されるものではない。上記の実施形態で説明した要件のうち少なくとも1つの要件は、省略される場合がある。上記の実施形態で説明した各要件は、適宜、組み合わせることができる。   The technical scope of the present invention is not limited to the above embodiment. At least one of the requirements described in the above embodiments may be omitted. The requirements described in the above embodiments can be combined as appropriate.

なお、上述のHMD1は、内部にコンピュータシステム(例えば、処理部123)を有している。そして、各機能部の動作の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータシステムが読み出して実行することによって、上記処理が行われる。ここでいうコンピュータシステムとは、CPU及び各種メモリーやOS、周辺機器等のハードウェアを含むものである。   The HMD 1 described above has a computer system (for example, the processing unit 123) inside. The operation process of each functional unit is stored in a computer-readable recording medium in the form of a program, and the above processing is performed by the computer system reading and executing the program. Here, the computer system includes a CPU, various memories, an OS, and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバーやクライアントとなるコンピュータシステム内部の揮発性メモリーのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。   Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, it also includes those that hold a program for a certain period of time, such as volatile memory inside a computer system that serves as a server or client in that case. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

1…ヘッドマウントディスプレイ、20…ディスプレイ本体、26…オーディオコネクター、34…タッチスイッチ、60…表示部、63…表示パネル(表示部)、64…カメラ、72…撮像素子(撮像部)、100…イヤホン、103…第1スピーカー、104…第2スピーカー、121…デコーダー、123…処理部、131…WiFi通信回路、132…加速度センサー、133…地磁気センサー、137…心拍数センサー、138…3G/LTE通信回路、166a〜166h…眼球照明ライト、301…入力検出部、302…制御部、303…記憶部、304…眼球照明部、305…音声調整部、306…画像切替部、307…画像表示部、308…送受信部、600a〜600h…位置 DESCRIPTION OF SYMBOLS 1 ... Head mounted display, 20 ... Display main body, 26 ... Audio connector, 34 ... Touch switch, 60 ... Display part, 63 ... Display panel (display part), 64 ... Camera, 72 ... Imaging element (imaging part), 100 ... Earphone, 103 ... first speaker, 104 ... second speaker, 121 ... decoder, 123 ... processing unit, 131 ... WiFi communication circuit, 132 ... acceleration sensor, 133 ... geomagnetic sensor, 137 ... heart rate sensor, 138 ... 3G / LTE Communication circuit, 166a to 166h ... eyeball illumination light, 301 ... input detection unit, 302 ... control unit, 303 ... storage unit, 304 ... eyeball illumination unit, 305 ... sound adjustment unit, 306 ... image switching unit, 307 ... image display unit 308: Transmission / reception unit, 600a to 600h: Position

Claims (12)

画像を表示する表示部と、
ユーザーの眼の近傍に前記表示部を保持する保持部と、
前記表示部に設けられ、前記ユーザーの眼の近傍を照明する複数の照明部と、
前記ユーザーと前記表示部との位置関係に応じて、前記複数の照明部の点灯状態を制御する制御部と、
を備えることを特徴とする頭部装着型情報入出力装置。
A display for displaying an image;
A holding unit that holds the display unit in the vicinity of the user's eyes;
A plurality of illumination units that are provided in the display unit and illuminate the vicinity of the eyes of the user;
In accordance with the positional relationship between the user and the display unit, a control unit that controls the lighting state of the plurality of illumination units,
A head-mounted information input / output device comprising:
前記制御部は、
前記複数の照明部のうち、前記ユーザーの眼をより正面から照射する照明部を点灯させるように点灯状態を制御する
ことを特徴とする請求項1に記載の頭部装着型情報入出力装置。
The controller is
The head-mounted information input / output device according to claim 1, wherein a lighting state is controlled so that an illumination unit that illuminates the user's eyes from the front is turned on among the plurality of illumination units.
前記複数の照明部は、
前記表示部のファインダー開口部の近傍に配置されている
ことを特徴とする請求項1又は請求項2に記載の頭部装着型情報入出力装置。
The plurality of illumination units are:
The head-mounted information input / output device according to claim 1, wherein the head-mounted information input / output device is disposed near a finder opening of the display unit.
前記複数の照明部は、
前記ファインダー開口部の隅の近傍に配置されている
ことを特徴とする請求項1から請求項3のいずれか1項に記載の頭部装着型情報入出力装置。
The plurality of illumination units are:
The head-mounted information input / output device according to any one of claims 1 to 3, wherein the head-mounted information input / output device is disposed in the vicinity of a corner of the finder opening.
前記制御部は、
前記ユーザーと前記表示部との位置関係に応じて、画像を回転又は反転させて前記表示部に表示させる
ことを特徴とする請求項1から請求項4のいずれか一項に記載の頭部装着型情報入出力装置。
The controller is
The head mounted according to any one of claims 1 to 4, wherein an image is rotated or inverted and displayed on the display unit according to a positional relationship between the user and the display unit. Type information input / output device.
前記制御部は、前記ユーザーと前記表示部との位置関係として、ユーザーにとっての左側、右側、上側又は下側のいずれに前記表示部が保持されているかに応じて、前記複数の照明部の点灯状態を制御する
ことを特徴とする請求項1から請求項5のいずれか一項に記載の頭部装着型情報入出力装置。
The control unit turns on the plurality of illumination units according to whether the display unit is held on the left side, the right side, the upper side, or the lower side for the user as a positional relationship between the user and the display unit. The head-mounted information input / output device according to any one of claims 1 to 5, wherein the state is controlled.
自装置にかかる重力方向を検出する加速度センサーを備え、
前記制御部は、
前記加速度センサーが検出した重力方向に基づいて、前記ユーザーと前記表示部との位置関係を判別する
ことを特徴とする請求項1から請求項6のいずれか一項に記載の頭部装着型情報入出力装置。
It has an acceleration sensor that detects the direction of gravity applied to its own device,
The controller is
The head-mounted information according to any one of claims 1 to 6, wherein a positional relationship between the user and the display unit is determined based on a gravitational direction detected by the acceleration sensor. I / O device.
ユーザーの眼を含む領域を撮像する撮像部
を備え、
前記制御部は、
前記領域が撮像された画像に基づいて、前記ユーザーと前記表示部との位置関係を判別する
ことを特徴とする請求項1から請求項7のいずれか一項に記載の頭部装着型情報入出力装置。
It has an imaging unit that images the area including the user's eyes,
The controller is
The head-mounted information input according to any one of claims 1 to 7, wherein a positional relationship between the user and the display unit is determined based on an image obtained by imaging the area. Output device.
ユーザーの眼を含む領域を撮像する撮像部
を備え、
前記制御部は、
前記領域が撮像された画像に基づいて、前記照明部がユーザーの眼に照射した光の反射光を検出し、検出した結果に基づいて、前記ユーザーの眼の視線を検出する
ことを特徴とする請求項1から請求項8に記載の頭部装着型情報入出力装置。
It has an imaging unit that images the area including the user's eyes,
The controller is
The illumination unit detects reflected light of light irradiated to the user's eye based on an image obtained by imaging the region, and detects a line of sight of the user's eye based on the detection result. The head-mounted information input / output device according to claim 1.
自装置にかかる重力方向を検出する加速度センサーを備え、
前記制御部は、
前記領域が撮像された画像、前記重力方向、及び、ユーザーが設定した情報の少なくとも一つに基づいて、前記ユーザーと前記表示部との位置関係を判別する
ことを特徴とする請求項9に記載の頭部装着型情報入出力装置。
It has an acceleration sensor that detects the direction of gravity applied to its own device,
The controller is
The positional relationship between the user and the display unit is determined based on at least one of an image obtained by capturing the region, the gravity direction, and information set by the user. Head-mounted information input / output device.
前記制御部は、
前記表示部に表示された情報を前記ユーザーの視線に基づいて操作するためのパラメータを取得する場合、前記複数の照明部を点灯するように制御する
ことを特徴とする請求項1から請求項10のいずれか一項に記載の頭部装着型情報入出力装置。
The controller is
The control unit is configured to turn on the plurality of illumination units when acquiring parameters for operating information displayed on the display unit based on the line of sight of the user. The head-mounted information input / output device according to any one of the above.
頭部装着型情報入出力装置における頭部装着型情報入出力方法であって、
画像を表示する表示部に設けられた複数の照明部が、ユーザーの眼の近傍を照明する手順と、
制御部が、前記ユーザーと前記表示部との位置関係に基づいて、前記複数の照明部の点灯状態を制御する制御手順と、
を含むことを特徴とする頭部装着型情報入出力方法。
A head-mounted information input / output method in a head-mounted information input / output device,
A plurality of illumination units provided in a display unit for displaying an image illuminates the vicinity of the user's eyes;
A control procedure for controlling a lighting state of the plurality of illumination units based on a positional relationship between the user and the display unit;
A head-mounted information input / output method comprising:
JP2012159684A 2012-07-18 2012-07-18 Head-mounted information input/output device and head-mounted information input/output method Pending JP2014022937A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012159684A JP2014022937A (en) 2012-07-18 2012-07-18 Head-mounted information input/output device and head-mounted information input/output method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012159684A JP2014022937A (en) 2012-07-18 2012-07-18 Head-mounted information input/output device and head-mounted information input/output method

Publications (1)

Publication Number Publication Date
JP2014022937A true JP2014022937A (en) 2014-02-03

Family

ID=50197378

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012159684A Pending JP2014022937A (en) 2012-07-18 2012-07-18 Head-mounted information input/output device and head-mounted information input/output method

Country Status (1)

Country Link
JP (1) JP2014022937A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015203957A (en) * 2014-04-14 2015-11-16 株式会社ジェイアイエヌ Information processor, information processing system, and program
JP2019117505A (en) * 2017-12-27 2019-07-18 Dynabook株式会社 Electronic apparatus, wearable apparatus and display control method
CN110032277A (en) * 2019-03-13 2019-07-19 北京七鑫易维信息技术有限公司 A kind of eyeball tracking device and intelligent terminal
JP2019169004A (en) * 2018-03-23 2019-10-03 富士通デバイス株式会社 Sight line detection system and sight line detection program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015203957A (en) * 2014-04-14 2015-11-16 株式会社ジェイアイエヌ Information processor, information processing system, and program
JP2019117505A (en) * 2017-12-27 2019-07-18 Dynabook株式会社 Electronic apparatus, wearable apparatus and display control method
JP2019169004A (en) * 2018-03-23 2019-10-03 富士通デバイス株式会社 Sight line detection system and sight line detection program
CN110032277A (en) * 2019-03-13 2019-07-19 北京七鑫易维信息技术有限公司 A kind of eyeball tracking device and intelligent terminal
CN110032277B (en) * 2019-03-13 2022-08-23 北京七鑫易维信息技术有限公司 Eyeball tracking device and intelligent terminal

Similar Documents

Publication Publication Date Title
JP6318462B2 (en) Display device
JP6123180B2 (en) Display device
JP2013190941A (en) Information input output device, and head-mounted display device
JP2014021707A (en) Information input/output device and information input/output method
JP6011072B2 (en) Control device and program
US10838205B2 (en) Head mounted display, control method thereof, and computer program
JP2018101019A (en) Display unit and method for controlling display unit
US20150009309A1 (en) Optical Frame for Glasses and the Like with Built-In Camera and Special Actuator Feature
JP6136090B2 (en) Electronic device and display device
US20170289533A1 (en) Head mounted display, control method thereof, and computer program
JP2014123883A (en) Head-mounted type information input output apparatus, and head-mounted type information input output method
JP2019128693A (en) Head-mounted display, and method for controlling head-mounted display
JP2014212473A (en) Communication device and head-mounted display device
JP2014044654A (en) Information input and output device
JP2014021272A (en) Information input/output device and information input/output method
JP2014022937A (en) Head-mounted information input/output device and head-mounted information input/output method
JP6015223B2 (en) Electronic device and display device
JP7247519B2 (en) DISPLAY DEVICE AND CONTROL METHOD OF DISPLAY DEVICE
JP6719418B2 (en) Electronics
JP2013175947A (en) Head-mounted device
JP2013175909A (en) Head-mounted device
JP6996115B2 (en) Head-mounted display device, program, and control method of head-mounted display device
JP2013174730A (en) Information display device
JP2014022942A (en) Head-mounted device
JP2013174729A (en) Information display device, and information display method