JP2014022942A - Head-mounted device - Google Patents

Head-mounted device Download PDF

Info

Publication number
JP2014022942A
JP2014022942A JP2012159769A JP2012159769A JP2014022942A JP 2014022942 A JP2014022942 A JP 2014022942A JP 2012159769 A JP2012159769 A JP 2012159769A JP 2012159769 A JP2012159769 A JP 2012159769A JP 2014022942 A JP2014022942 A JP 2014022942A
Authority
JP
Japan
Prior art keywords
user
display
display unit
eye
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012159769A
Other languages
Japanese (ja)
Inventor
Satoshi Ejima
聡 江島
Shigeru Kato
茂 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012159769A priority Critical patent/JP2014022942A/en
Publication of JP2014022942A publication Critical patent/JP2014022942A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a head-mounted device enabling photographing of a user's eye area in a wide range without increasing the size of the device.SOLUTION: A head-mounted device 1 comprises: a display unit 60 that is arranged in the vicinity of a user's eye, and displays an image; and an imaging unit that is arranged in the vicinity of the display unit and also arranged in a lower vicinity of the user's eye, and photographs the user's eye area from below. The display unit and the imaging unit have a common optical system in at least part thereof. Further, an angle of view of the imaging unit is wider than an angle of view allowing visual recognition of the display unit.

Description

本発明は、頭部装着装置に関するものである。   The present invention relates to a head-mounted device.

ヘッドマウントディスプレイにおいて、眼球を撮影することによりユーザーの視線を検出可能としたものが知られている(特許文献1参照)。   A head-mounted display that can detect a user's line of sight by photographing an eyeball is known (see Patent Document 1).

特開平10−271470号公報JP-A-10-271470

しかし、ユーザーの眼球に近接して配置されるヘッドマウントディスプレイでは、ユーザーの目元を広範囲に撮影しようとすると、装置が大型化するという課題があった。   However, in the head mounted display arranged close to the user's eyeball, there is a problem that the apparatus becomes large when attempting to photograph the user's eyes over a wide range.

本発明は、装置を大型化することなくユーザーの目元を広範囲に撮影可能とした頭部装着装置を提供することを目的の一つとする。   An object of the present invention is to provide a head-mounted device that can photograph a user's eyes over a wide range without increasing the size of the device.

第1の態様は、ユーザーの眼の近傍に配置され画像を表示する表示部と、前記表示部の近傍に配置されるとともに前記ユーザーの眼の下方近傍に配置され、前記ユーザーの目元を下方から撮影する撮像部と、を有する、頭部装着装置である。   The first aspect is a display unit that is arranged in the vicinity of the user's eye and displays an image; and a display unit that is arranged in the vicinity of the display unit and in the vicinity of the lower part of the user's eye. A head-mounted device having an imaging unit for photographing.

上記態様によれば、装置を大型化することなくユーザーの目元を広範囲に撮影できる頭部装着装置が提供される。   According to the above aspect, a head-mounted device that can photograph a user's eyes in a wide range without increasing the size of the device is provided.

実施形態に係るヘッドマウントディスプレイの斜視図。The perspective view of the head mounted display concerning an embodiment. 実施形態に係るヘッドマウントディスプレイを背面側から見た斜視図。The perspective view which looked at the head mounted display concerning an embodiment from the back side. 実施形態に係るディスプレイ本体の水平断面図。The horizontal sectional view of the display main part concerning an embodiment. 実施形態に係るヘッドバンドの動作説明図。Explanatory drawing of operation | movement of the headband which concerns on embodiment. 実施形態に係るヘッドマウントディスプレイの装着形態を示す図。The figure which shows the mounting | wearing form of the head mounted display which concerns on embodiment. (A)は表示部の詳細を示す断面図、(B)は変形例に係る表示部を示す断面図。(A) is sectional drawing which shows the detail of a display part, (B) is sectional drawing which shows the display part which concerns on a modification. 実施形態に係るステレオイヤホンを示す斜視図。The perspective view which shows the stereo earphone which concerns on embodiment. ヘッドマウントディスプレイの機能ブロック図。The functional block diagram of a head mounted display. 表示部における観察範囲と撮影範囲の説明図。Explanatory drawing of the observation range and imaging | photography range in a display part. 表示パネルの表示領域を示す説明図。Explanatory drawing which shows the display area of a display panel. 表示部の位置に応じた撮影形態を示す説明図。Explanatory drawing which shows the imaging | photography form according to the position of a display part. 表示部により撮影されたユーザーの目元の画像を模式的に示す図。The figure which shows typically the image of the user's eyes image | photographed by the display part. 表示部における撮影範囲と観察範囲の関係を示す説明図。Explanatory drawing which shows the relationship between the imaging | photography range and observation range in a display part. 表示部における撮影範囲と観察範囲の関係を示す説明図。Explanatory drawing which shows the relationship between the imaging | photography range and observation range in a display part. 撮像素子の画角と選択範囲に関する説明図。Explanatory drawing regarding the angle of view and selection range of an image sensor. 実施形態に係る撮像領域と選択領域との関係を示す説明図。Explanatory drawing which shows the relationship between the imaging area and selection area which concern on embodiment. 実施形態に係る観察範囲と撮影範囲を説明する図。The figure explaining the observation range and imaging | photography range which concern on embodiment.

以下、本発明の実施形態について図面を参照しながら説明するが、本発明はこれに限定されない。以下の説明においては、必要に応じてXYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ各部の位置関係について説明する。水平面内の所定方向をX軸方向、水平面内においてX軸方向と直交する方向をY軸方向、X軸方向及びY軸方向のそれぞれと直交する方向(すなわち鉛直方向)をZ軸方向とする。また、X軸、Y軸、及びZ軸まわりの回転(傾斜)方向をそれぞれ、θX、θY、及びθZ方向とする。   Hereinafter, embodiments of the present invention will be described with reference to the drawings, but the present invention is not limited thereto. In the following description, an XYZ orthogonal coordinate system is set as necessary, and the positional relationship of each part will be described with reference to this XYZ orthogonal coordinate system. A predetermined direction in the horizontal plane is defined as an X-axis direction, a direction orthogonal to the X-axis direction in the horizontal plane is defined as a Y-axis direction, and a direction orthogonal to each of the X-axis direction and the Y-axis direction (that is, a vertical direction) is defined as a Z-axis direction. Further, the rotation (inclination) directions around the X axis, Y axis, and Z axis are the θX, θY, and θZ directions, respectively.

図1は、本実施形態に係るヘッドマウントディスプレイ(頭部装着装置)1の斜視図である。図2は、本実施形態に係るヘッドマウントディスプレイ1を背面側から見た斜視図である。図3は、本実施形態に係るディスプレイ本体20の水平断面図である。図4は、本実施形態に係るヘッドバンドの動作説明図である。図5は、本実施形態に係るヘッドマウントディスプレイの装着形態を示す図である。図6(A)は表示部60の詳細を示す断面図である。   FIG. 1 is a perspective view of a head mounted display (head mounted device) 1 according to the present embodiment. FIG. 2 is a perspective view of the head mounted display 1 according to the present embodiment as viewed from the back side. FIG. 3 is a horizontal sectional view of the display main body 20 according to the present embodiment. FIG. 4 is an explanatory diagram of the operation of the headband according to the present embodiment. FIG. 5 is a diagram showing a mounting form of the head mounted display according to the present embodiment. FIG. 6A is a cross-sectional view showing details of the display unit 60.

ヘッドマウントディスプレイ1は、ディスプレイ本体20と、ユーザーの頭部に装着されディスプレイ本体20を支持するヘッドバンド40と、を備えた単眼式のヘッドマウントディスプレイである。本実施形態のヘッドマウントディスプレイ1は、図5に示すように、両眼どちらでも使用可能である。図5(A)には、ユーザーが右眼(右目)で表示部60を見ている状態、図5(B)には左眼(左目)で見ている状態が示されている。   The head-mounted display 1 is a monocular head-mounted display that includes a display main body 20 and a headband 40 that is mounted on a user's head and supports the display main body 20. The head mounted display 1 of the present embodiment can be used with both eyes as shown in FIG. FIG. 5A shows a state where the user is viewing the display unit 60 with the right eye (right eye), and FIG. 5B shows a state where the user is viewing with the left eye (left eye).

図2に示すように、ディスプレイ本体20とヘッドバンド40とは、連結ピン41を介して着脱可能に構成されている。なお、図1及び図2では、ディスプレイ本体20の長手方向をY軸方向、ヘッドバンド40がユーザーの頭部を挟持する方向をX軸方向としている。   As shown in FIG. 2, the display body 20 and the headband 40 are configured to be detachable via a connecting pin 41. 1 and 2, the longitudinal direction of the display main body 20 is defined as the Y-axis direction, and the direction in which the headband 40 sandwiches the user's head is defined as the X-axis direction.

以下、ヘッドマウントディスプレイ1の各部の構成について詳細に説明する。
ディスプレイ本体20は、主要回路を内蔵するとともに操作部や各種インタフェースを備えた装置本体部21と、装置本体部21の先端に連結された表示部60とを有する。
Hereinafter, the configuration of each part of the head mounted display 1 will be described in detail.
The display main body 20 includes a device main body 21 that includes a main circuit and includes an operation unit and various interfaces, and a display unit 60 that is connected to the tip of the device main body 21.

装置本体部21は、概略板状の筐体21A(図3参照)を有する。本実施形態では、装置本体部21においてヘッドバンド40との接続部が設けられている側の端部(図1,2に示す+Y側の端部)を基端部とし、この基端部と反対側の端部(−Y側の端部)を先端部とする。また、装置本体部21をヘッドバンド40に装着した状態で、装置本体部21のヘッドバンド40側(+X側)を内側、ヘッドバンド40と反対側(−X側)を外側とする。   The apparatus main body 21 has a substantially plate-shaped casing 21A (see FIG. 3). In the present embodiment, an end portion (end portion on the + Y side shown in FIGS. 1 and 2) on the side where the connection portion with the headband 40 is provided in the apparatus main body portion 21 is a base end portion. The end on the opposite side (the end on the -Y side) is the tip. Further, in a state where the apparatus main body 21 is attached to the headband 40, the headband 40 side (+ X side) of the apparatus main body 21 is the inside, and the opposite side (−X side) from the headband 40 is the outside.

装置本体部21の外面には、図1に示すように、メインスイッチ28と、タッチスイッチ34と、集音マイク24とが、装置本体部21(筐体21A)の長手方向に沿って配置されている。
メインスイッチ28はディスプレイ本体20の電源のオンオフ操作を行うスイッチである。タッチスイッチ34は、表面に手指等で触れることによりヘッドマウントディスプレイ1の各種操作を行うことができるタッチパネルである。集音マイク24は、環境音を収集する外部マイクである。
As shown in FIG. 1, a main switch 28, a touch switch 34, and a sound collecting microphone 24 are arranged on the outer surface of the apparatus main body 21 along the longitudinal direction of the apparatus main body 21 (housing 21A). ing.
The main switch 28 is a switch for turning on / off the power of the display body 20. The touch switch 34 is a touch panel that can perform various operations of the head mounted display 1 by touching the surface with a finger or the like. The sound collection microphone 24 is an external microphone that collects environmental sounds.

装置本体部21内面の基端部側に、図2に示すように、耳元スピーカー23と、オーディオコネクター26と、連結孔31を有するヘッドバンドヒンジ32とが設けられている。装置本体部21内面の中央部に心拍数センサー137が設けられている。装置本体部21の内側面の先端部には通話マイク(音声入力手段)37が設けられている。本実施形態の場合、通話マイク37は表示部60の近傍(装置本体部21における表示部60寄りの位置)に配置されている。通話マイク37は表示部60に設けられていてもよい。   As shown in FIG. 2, an ear speaker 23, an audio connector 26, and a headband hinge 32 having a connection hole 31 are provided on the base end side of the inner surface of the apparatus main body 21. A heart rate sensor 137 is provided at the center of the inner surface of the apparatus main body 21. A call microphone (voice input means) 37 is provided at the tip of the inner surface of the apparatus main body 21. In the case of this embodiment, the call microphone 37 is disposed in the vicinity of the display unit 60 (a position near the display unit 60 in the apparatus main body unit 21). The call microphone 37 may be provided on the display unit 60.

耳元スピーカー23は、ユーザーの耳の近傍に配置される。耳元スピーカー23からユーザーに音声情報が伝えられる。オーディオコネクター26は、例えば図7に示すイヤホンが接続される音声入出力端子である。ヘッドバンドヒンジ32はヘッドバンド40とのジョイント部である。通話マイク37にはユーザーの音声が入力される。   The ear speaker 23 is disposed in the vicinity of the user's ear. Audio information is transmitted from the ear speaker 23 to the user. The audio connector 26 is an audio input / output terminal to which, for example, the earphone shown in FIG. 7 is connected. The headband hinge 32 is a joint part with the headband 40. The voice of the user is input to the call microphone 37.

心拍数センサー137は、ユーザーの顔の表面に接触させることでユーザーの心拍数を測定するセンサーである。心拍数センサー137は、発光ダイオード等を備えた発光部と、ユーザーの皮膚内部で反射した光を検知する受光部とを有する。心拍数センサー137は、血流の変化による反射光量の変化を検出することで心拍数をカウントする。心拍数センサー137はユーザーの眼の近くに配置されるが、発光部から赤外域の光を射出させる構成とすればユーザーにまぶしさを感じさせることはない。   The heart rate sensor 137 is a sensor that measures a user's heart rate by contacting the surface of the user's face. The heart rate sensor 137 includes a light emitting unit including a light emitting diode and the like, and a light receiving unit that detects light reflected inside the user's skin. The heart rate sensor 137 counts the heart rate by detecting a change in the amount of reflected light due to a change in blood flow. The heart rate sensor 137 is disposed near the user's eyes, but if the infrared light is emitted from the light emitting unit, the user will not feel glare.

装置本体部21の基端部側の側端面には、USBコネクター25と、操作スイッチ30と、ビデオコネクター27とが設けられている。
USBコネクター25はUSB(Universal Serial Bus)デバイスの接続端子である。本実施形態では、例えば不図示のリモコン(リモートコントローラー)が接続される。
操作スイッチ30は、例えばトラックボールやスティックなどのポインティングデバイスである。操作スイッチ30は表示部60に表示される画面に正対するように設けられている。これにより、操作スイッチ30における操作の左右方向と、上記画面の左右方向とが一致するので、ユーザーは画面を見ながら直感的に操作スイッチ30を操作することが可能である。
ビデオコネクター27は映像入出力端子である。
A USB connector 25, an operation switch 30, and a video connector 27 are provided on the side end surface of the apparatus main body 21 on the base end side.
The USB connector 25 is a connection terminal of a USB (Universal Serial Bus) device. In this embodiment, for example, a remote controller (not shown) is connected.
The operation switch 30 is a pointing device such as a trackball or a stick. The operation switch 30 is provided to face the screen displayed on the display unit 60. As a result, the left-right direction of the operation on the operation switch 30 matches the left-right direction of the screen, so that the user can intuitively operate the operation switch 30 while looking at the screen.
The video connector 27 is a video input / output terminal.

図3に示すように、装置本体部21には、筐体21Aの長手方向に沿って延びる板状の回路基板29と、バッテリー33とが内蔵されている。回路基板29には、図示略の制御回路、電源回路等が実装されており、図示略の配線を介してディスプレイ本体20の各部と電気的に接続されている。   As shown in FIG. 3, the apparatus main body 21 incorporates a plate-like circuit board 29 extending along the longitudinal direction of the housing 21 </ b> A and a battery 33. A control circuit, a power supply circuit, and the like (not shown) are mounted on the circuit board 29, and are electrically connected to each part of the display body 20 via wiring (not shown).

装置本体部21の外面に露出するタッチスイッチ34の内側には、液晶パネルからなる表示パネル36と、バックライト35とが配置されている。本実施形態では、表示パネル36の表示画像がタッチスイッチ34を透過して表示される。表示パネル36及びバックライト35を、有機ELパネルや電気泳動パネルとしてもよい。   A display panel 36 made of a liquid crystal panel and a backlight 35 are arranged inside the touch switch 34 exposed on the outer surface of the apparatus main body 21. In the present embodiment, the display image on the display panel 36 is displayed through the touch switch 34. The display panel 36 and the backlight 35 may be an organic EL panel or an electrophoresis panel.

ヘッドバンドヒンジ32は、筐体21Aに設けられた凹曲面状の収容部32aと、収容部32aに嵌合された球状部32bとからなるボールジョイントである。球状部32bは、球面状の側面部と、この側面部を挟むように互いに平行に形成された2つの平面部とを有する。2つの平面部を垂直に貫くように連結孔31が形成されている。連結孔31は軸方向視で六角形状に形成されている。連結孔31にヘッドバンド40の連結ピン41が挿入されることによりディスプレイ本体20とヘッドバンド40とが連結される。   The headband hinge 32 is a ball joint composed of a concavely curved housing portion 32a provided in the housing 21A and a spherical portion 32b fitted to the housing portion 32a. The spherical portion 32b has a spherical side surface portion and two plane portions formed in parallel to each other so as to sandwich the side surface portion. A connecting hole 31 is formed so as to penetrate the two flat portions vertically. The connection hole 31 is formed in a hexagonal shape when viewed in the axial direction. The display main body 20 and the headband 40 are connected by inserting the connection pin 41 of the headband 40 into the connection hole 31.

ヘッドバンドヒンジ32を備えていることで、ディスプレイ本体20は、図1に示したA方向(ヘッドバンドヒンジ32を中心とするX軸回り)に回動させることができる。本実施形態において、ディスプレイ本体20の回転可能範囲は270°程度とされる。このX軸回りの回転動作により、図5(A)に示す右眼で画像を観察する形態と、図5(B)に示す左眼で画像を観察する形態との切替機能が実現される。   By providing the headband hinge 32, the display main body 20 can be rotated in the A direction (around the X axis centering on the headband hinge 32) shown in FIG. In the present embodiment, the rotatable range of the display body 20 is about 270 °. By the rotation operation around the X axis, a switching function between a form in which an image is observed with the right eye shown in FIG. 5A and a form in which an image is observed with the left eye shown in FIG. 5B is realized.

またヘッドバンドヒンジ32はボールジョイントであるため、ディスプレイ本体20は図1に示すB方向(ヘッドバンドヒンジ32を中心とするZ軸回り)に揺動させることもできる。この揺動操作により、ディスプレイ本体20のユーザーの眼や耳に対する位置を調整することができる。   Further, since the headband hinge 32 is a ball joint, the display main body 20 can also be swung in the B direction (around the Z axis centering on the headband hinge 32) shown in FIG. By this swinging operation, the position of the display main body 20 relative to the user's eyes and ears can be adjusted.

ヘッドバンドヒンジ32近傍の心拍数センサー137は、装置本体部21の内面から突出するように設けられ、ヘッドマウントディスプレイ1の装着時にユーザーの顔の表面に当接可能とされている。バッテリー33は一次電池、二次電池のいずれであってもよい。   The heart rate sensor 137 in the vicinity of the headband hinge 32 is provided so as to protrude from the inner surface of the apparatus main body 21, and can contact the surface of the user's face when the head mounted display 1 is worn. The battery 33 may be either a primary battery or a secondary battery.

表示部60は、図1及び図2に示すように、装置本体部21の先端部に連結されている。本実施形態において、表示部60のヘッドバンド40側を内側、ヘッドバンド40と反対側を外側とする。表示部60は、上面視(Z軸視)において湾曲した形状を有するアーム部材であり、装置本体部21との連結部から先端側へ向かうに従って内側へ湾曲する形状を有する。表示部60の内面に、ファインダー開口部67が設けられている。表示部60の外面には、カメラ64が設けられている。   As shown in FIGS. 1 and 2, the display unit 60 is connected to the distal end portion of the apparatus main body unit 21. In the present embodiment, the headband 40 side of the display unit 60 is the inside, and the side opposite to the headband 40 is the outside. The display unit 60 is an arm member that has a curved shape in a top view (Z-axis view), and has a shape that curves inward from the connecting portion with the apparatus main body 21 toward the distal end side. A finder opening 67 is provided on the inner surface of the display unit 60. A camera 64 is provided on the outer surface of the display unit 60.

図3に示すように、表示部60は、ディスプレイヒンジ61を介して装置本体部21と連結されている。ディスプレイヒンジ61は、表示部60の筐体60Aに形成された凹曲面状の収容部61aと、装置本体部21に形成され収容部61aに嵌合された球状部61bとからなるボールジョイントである。   As shown in FIG. 3, the display unit 60 is connected to the apparatus main body unit 21 via a display hinge 61. The display hinge 61 is a ball joint composed of a concave curved housing 61a formed in the housing 60A of the display 60 and a spherical portion 61b formed in the apparatus main body 21 and fitted in the housing 61a. .

装置本体部21の球状部61bは、装置本体部21の外面先端部に形成された筐体21Aの長手方向に対して斜めに延びる傾斜面に、この傾斜面の法線方向(図3のY’軸方向)に突出するようにして設けられている。表示部60は、ディスプレイヒンジ61の球状部61bに対してY’軸回りに自由に回転させることができる。   The spherical portion 61b of the apparatus main body 21 has an inclined surface extending obliquely with respect to the longitudinal direction of the casing 21A formed at the front end of the outer surface of the apparatus main body 21, and the normal direction of the inclined surface (Y in FIG. 3). It is provided so as to protrude in the “axial direction”. The display unit 60 can be freely rotated around the Y ′ axis with respect to the spherical portion 61 b of the display hinge 61.

ディスプレイヒンジ61の球状部61bには、球状部61bを高さ方向(Y’軸方向)に貫通する貫通孔61cが形成されている。貫通孔61cを介して、表示部60の内部と装置本体部21の内部とが連通されている。貫通孔61cには不図示のケーブルが挿通される。挿通されたケーブルを介して回路基板29と表示部60の各部とが電気的に接続される。   The spherical portion 61b of the display hinge 61 is formed with a through hole 61c that penetrates the spherical portion 61b in the height direction (Y′-axis direction). The inside of the display unit 60 and the inside of the apparatus main body unit 21 are communicated with each other through the through hole 61c. A cable (not shown) is inserted through the through hole 61c. The circuit board 29 and each part of the display unit 60 are electrically connected via the inserted cable.

表示部60は、図6(A)に示すように、バックライト62、表示パネル63、第1プリズム65a、第2プリズム65b、反射ミラー66、ファインダー開口部67、結像レンズ71、撮像素子(撮像部)72、1/4波長板75を含んで構成されている。   As shown in FIG. 6A, the display unit 60 includes a backlight 62, a display panel 63, a first prism 65a, a second prism 65b, a reflection mirror 66, a viewfinder opening 67, an imaging lens 71, an imaging element ( (Imaging part) 72 and the quarter wavelength plate 75 are comprised.

プリズム65は、上面視(Z軸視)で略三角形状の第1プリズム65aと第2プリズム65bとを互いの面で貼り合わせた構成を有する。この貼り合わせ面以外の第1プリズム65aの他の二面のうち、一方の面に対向する位置に、液晶パネルからなる表示パネル63が設けられている。表示パネル63の背面に表示パネル63を透過照明するバックライト62が配置されている。第1プリズム65aの他方の面に対向する位置に反射ミラー66が配置されている。反射ミラー66は、ファインダー開口部67のほぼ正面に位置する。   The prism 65 has a configuration in which a substantially triangular first prism 65a and a second prism 65b are bonded to each other on a top view (Z-axis view). A display panel 63 made of a liquid crystal panel is provided at a position facing one of the other two surfaces of the first prism 65a other than the bonding surface. A backlight 62 that transmits and illuminates the display panel 63 is disposed on the back surface of the display panel 63. A reflection mirror 66 is disposed at a position facing the other surface of the first prism 65a. The reflection mirror 66 is located substantially in front of the finder opening 67.

第2プリズム65bの貼り合わせ面以外の他の二面のうち、一方の面はファインダー開口部67に配置されたファインダー接眼面である。第2プリズム65bの他方の面に対向する位置には結像レンズ71を介して撮像素子72が対向配置されている。   Of the two surfaces other than the bonding surface of the second prism 65 b, one surface is a viewfinder eyepiece disposed in the viewfinder opening 67. An imaging element 72 is disposed opposite to the other surface of the second prism 65b via the imaging lens 71.

表示パネル63に表示された画像は、第1プリズム65a、反射ミラー66、第2プリズム65bを介してファインダー開口部67から射出され、ユーザーに観察される。また、ファインダー開口部67を見ている画像は、第2プリズム65b及び結像レンズ71を介して撮像素子72上に結像される。
なお、撮像素子72を介して取得された撮像画像は、ユーザーの視線の方向や瞬き、表情の解析、表示部60の姿勢の解析に用いる。撮像画像には、眼の周辺画像が含まれている。なお、バックライト62は、撮像素子72により眼の周辺画像を撮影する際の補助照明としても利用されてもよい。
The image displayed on the display panel 63 is emitted from the finder opening 67 through the first prism 65a, the reflection mirror 66, and the second prism 65b, and is observed by the user. Further, the image looking at the viewfinder opening 67 is imaged on the image sensor 72 via the second prism 65 b and the imaging lens 71.
The captured image acquired via the image sensor 72 is used for analysis of the direction of the user's line of sight, blinking, facial expression, and posture of the display unit 60. The captured image includes a peripheral image of the eye. Note that the backlight 62 may also be used as auxiliary illumination when a peripheral image of the eye is captured by the image sensor 72.

図3に戻り、カメラ64は、例えば500万画素〜1000万画素の撮像素子を有し、オートフォーカス動作が可能に構成される。カメラ64は、その撮像素子の受光面に結像した画像(光学像)を撮影する。カメラ64は、例えば、ユーザーにとっての正面方向を撮影することができる。なお、撮影された画像は、動画形式または静止画形式のいずれで信号処理されてもよい。   Returning to FIG. 3, the camera 64 includes, for example, an image sensor with 5 to 10 million pixels, and is configured to be capable of an autofocus operation. The camera 64 captures an image (optical image) formed on the light receiving surface of the image sensor. For example, the camera 64 can capture the front direction for the user. The captured image may be signal-processed in either a moving image format or a still image format.

前方ライト68は、例えばLEDライトである。前方ライト68は、赤、緑、青の各色の発光素子を有し、任意の色を任意のタイミングで発光させることが可能に構成してもよい。前方ライト68は、発光色や発光タイミングにより外部に対して情報を表示する装置として用いてもよく、カメラ64で撮影する際の照明装置として用いてもよい。
撮像素子72は、その受光面に結像した画像(光学像)を撮影する。撮像素子72は、例えば、ユーザーの顔を撮影することができる。なお、撮影された画像は、動画形式または静止画形式のいずれで信号処理されてもよい。
The front light 68 is, for example, an LED light. The front light 68 may include red, green, and blue light emitting elements, and may be configured to emit any color at any timing. The front light 68 may be used as a device that displays information to the outside depending on the light emission color and the light emission timing, or may be used as an illumination device when photographing with the camera 64.
The image sensor 72 captures an image (optical image) formed on the light receiving surface. For example, the image sensor 72 can capture a user's face. The captured image may be signal-processed in either a moving image format or a still image format.

また、図3では図示を省略したが、本実施形態に係る表示部60にはレーザー発信器が設けられている。レーザー発信器は、例えば前方ライト68の近傍に設けることができる。レーザー発信器から射出される例えば赤色レーザー光を前方に照射することで、レーザー光によるポインティング(指標の表示)が可能である。   Although not shown in FIG. 3, the display unit 60 according to the present embodiment is provided with a laser transmitter. The laser transmitter can be provided in the vicinity of the front light 68, for example. By irradiating, for example, red laser light emitted from a laser transmitter forward, pointing (display of an index) with the laser light is possible.

次に、ヘッドバンド40について、図2及び図4を参照しつつ説明する。
ヘッドバンド40は、図2に示すように、ユーザーの頭部を挟持する一対のヘッドパット(装着部材)46、47と、第1ヘッドバンド43と、第2ヘッドバンド44と、回動機構56、57とを備えている。
Next, the headband 40 will be described with reference to FIGS.
As shown in FIG. 2, the headband 40 includes a pair of head pads (mounting members) 46 and 47 that sandwich the user's head, a first headband 43, a second headband 44, and a rotation mechanism 56. , 57.

第1ヘッドバンド43は、全体として円弧状を成す弾性部材である。第1ヘッドバンド43の頂部に、第1ヘッドバンド43を折り曲げるためのジョイント部43aが設けられている。第1ヘッドバンド43の両端には、回動機構56、57を構成する軸受部43b、43cがそれぞれ設けられている。軸受部43b、43cよりもさらにバンド先端側に、ヘッドパット46、47が接続される軸受部43d、43eが設けられている。   The first headband 43 is an elastic member having an arc shape as a whole. A joint portion 43 a for bending the first headband 43 is provided on the top of the first headband 43. At both ends of the first headband 43, bearing portions 43b and 43c constituting the rotation mechanisms 56 and 57 are provided, respectively. Bearing portions 43d and 43e to which the head pads 46 and 47 are connected are provided further on the front end side of the band than the bearing portions 43b and 43c.

第2ヘッドバンド44は、全体として円弧状を成す弾性部材である。第2ヘッドバンド44の頂部には、第2ヘッドバンド44を折り曲げるためのジョイント部44aが設けられている。第2ヘッドバンド44の両端には、それぞれ回動機構56、57を構成する軸部材44b、44cが設けられている。   The second headband 44 is an elastic member having an arc shape as a whole. A joint portion 44 a for bending the second headband 44 is provided on the top of the second headband 44. At both ends of the second headband 44, shaft members 44b and 44c constituting rotation mechanisms 56 and 57 are provided.

また本実施形態において、第2ヘッドバンド44は、ステンレス等の金属からなるバネ部材48の表面を樹脂等の柔軟な材料で被覆した構成を有する。この第2ヘッドバンド44のバネ部材48においてユーザーの頭部を挟持するバネ力を発生させる。また第2ヘッドバンド44は第1ヘッドバンド43と比較して広い幅に形成されている。ジョイント部44aの形成部分は他のバンド部分よりもさらに広く形成された標章表示部49とされている。標章表示部49には、シールや印刷により製品タグ等が付される。なお、第2ヘッドバンド44の全体を金属で形成してもよい。   In the present embodiment, the second headband 44 has a configuration in which the surface of the spring member 48 made of a metal such as stainless steel is covered with a flexible material such as a resin. The spring member 48 of the second headband 44 generates a spring force that holds the user's head. The second headband 44 is formed wider than the first headband 43. The formation part of the joint part 44a is a mark display part 49 formed wider than the other band parts. A product tag or the like is attached to the mark display section 49 by sticker or printing. The entire second headband 44 may be made of metal.

ヘッドパット46は、板状の支持板46aと、支持板46aの一面側に設けられた断面アーチ状の弾性部材46bとを有する。支持板46aの弾性部材46bと反対側の面に、当該面に垂直な姿勢で概略六角柱状の連結ピン41が立設されている。連結ピン41は、第1ヘッドバンド43の一方の先端に設けられた軸受部43dに軸支されている。これにより、ヘッドパット46は連結ピン41回りに回転可能である。   The head pad 46 includes a plate-like support plate 46a and an elastic member 46b having an arched cross section provided on one surface side of the support plate 46a. On the surface of the support plate 46a opposite to the elastic member 46b, a substantially hexagonal column-shaped connecting pin 41 is erected in a posture perpendicular to the surface. The connecting pin 41 is pivotally supported by a bearing portion 43 d provided at one end of the first headband 43. As a result, the head pad 46 can rotate around the connecting pin 41.

ヘッドパット47は、板状の支持板47aと、支持板47aの一方の面に設けられた断面アーチ状の弾性部材47bとを有する。支持板47aの弾性部材47bと反対側の面には、軸部材47cが設けられている。軸部材47cは、第1ヘッドバンド43の先端に設けられた軸受部43eに軸支されている。これにより、ヘッドパット47は、軸部材47c回りに回転可能である。   The head pad 47 includes a plate-like support plate 47a and an elastic member 47b having an arcuate cross section provided on one surface of the support plate 47a. A shaft member 47c is provided on the surface of the support plate 47a opposite to the elastic member 47b. The shaft member 47 c is pivotally supported by a bearing portion 43 e provided at the tip of the first headband 43. Thereby, the head pad 47 can rotate around the shaft member 47c.

この構成により、第2ヘッドバンド44は、回動機構56によって第1ヘッドバンド43から離れる方向に回動付勢される一方、回動機構57によって第1ヘッドバンド43に対して所定角度以内の範囲に回動規制される。これにより、第2ヘッドバンド44は第1ヘッドバンド43に対して所定の角度となるように保持される。したがって、回動機構56、57は、ヘッドバンド40における角度保持機構として機能する。   With this configuration, the second headband 44 is urged to rotate in a direction away from the first headband 43 by the rotation mechanism 56, while being within a predetermined angle with respect to the first headband 43 by the rotation mechanism 57. The rotation is restricted to the range. As a result, the second headband 44 is held at a predetermined angle with respect to the first headband 43. Therefore, the rotation mechanisms 56 and 57 function as an angle holding mechanism in the headband 40.

次に、以上の構成を備えたヘッドマウントディスプレイ1におけるヘッドバンドの動作等について、図4、図5を参照しつつ説明する。以下、ユーザーにとっての右側を「ユーザーの右側」と称する。また、ユーザーにとっての左側を「ユーザーの左側」と称する。また、ユーザーにとっての上側を「ユーザーの上側」と称する。また、ユーザーにとっての下側を「ユーザーの下側」と称する。また、ユーザーにとっての時計回り方向を「時計回り方向」と称する。また、ユーザーにとっての反時計回り方向を「反時計回り方向」と称する。   Next, the operation of the headband in the head mounted display 1 having the above configuration will be described with reference to FIGS. Hereinafter, the right side for the user is referred to as “the right side of the user”. Further, the left side for the user is referred to as “the left side of the user”. The upper side for the user is referred to as “the upper side of the user”. Further, the lower side for the user is referred to as “the lower side of the user”. The clockwise direction for the user is referred to as “clockwise direction”. Further, the counterclockwise direction for the user is referred to as “counterclockwise direction”.

図5に示したように、本実施形態のヘッドマウントディスプレイ1は、図5(A)に示す右眼観察形態と、図5(B)に示す左眼観察形態を切り替えて使用することができる。ここで、右眼観察形態とは、ユーザーが右眼で表示部60を観察する形態である。また、左眼観察形態とは、ユーザーが左眼で表示部60を観察する形態である。   As shown in FIG. 5, the head mounted display 1 of the present embodiment can be used by switching between the right eye observation mode shown in FIG. 5 (A) and the left eye observation mode shown in FIG. 5 (B). . Here, the right-eye observation form is a form in which the user observes the display unit 60 with the right eye. The left-eye observation form is a form in which the user observes the display unit 60 with the left eye.

例えば、右眼観察形態から左眼観察形態へ切り替えるには、まず、ヘッドバンド40に連結されたディスプレイ本体20を、ヘッドバンドヒンジ32(図2参照)の回転軸回り(図5に示すA方向)に180°程度回転させる。さらに、ヘッドバンド40において、回動機構56及び57(図4参照)の軸回りに第2ヘッドバンド44を揺動させることで、第2ヘッドバンド44の位置と第1ヘッドバンド43の位置との前後関係を入れ替える。この操作により、図5(B)に示すように、ユーザーの左眼側にディスプレイ本体20が配置され、第2ヘッドバンド44がユーザーの後頭部側に配置された左眼観察形態に切り替えられる。   For example, to switch from the right-eye observation mode to the left-eye observation mode, first, the display body 20 connected to the headband 40 is moved around the rotation axis of the headband hinge 32 (see FIG. 2) (direction A shown in FIG. 5). ). Further, in the headband 40, the position of the second headband 44 and the position of the first headband 43 are determined by swinging the second headband 44 around the axis of the rotation mechanisms 56 and 57 (see FIG. 4). Swap the context of. By this operation, as shown in FIG. 5B, the display main body 20 is disposed on the left eye side of the user, and the second headband 44 is switched to the left eye observation form disposed on the occipital side of the user.

本実施形態では、図4に示すように、第1ヘッドバンド43の円弧高さr1を、第2ヘッドバンド44の円弧高さr2よりも小さくしている。これにより、第2ヘッドバンド44を第1ヘッドバンド43と交差させるように移動させても、互いに干渉することなく円滑に前後を入れ替えることができる。   In the present embodiment, as shown in FIG. 4, the arc height r <b> 1 of the first headband 43 is smaller than the arc height r <b> 2 of the second headband 44. As a result, even if the second headband 44 is moved so as to intersect the first headband 43, the front and rear can be switched smoothly without interfering with each other.

図4に示す円弧高さr1は、同軸に配置された回動機構56、57の回転軸Dの中央位置Cから第1ヘッドバンド43までの距離の最大値である。また円弧高さr2は、回転軸Dの中央位置Cから第2ヘッドバンド44までの距離の最大値である。
なお、第1ヘッドバンド43の円弧高さr1を第2ヘッドバンド44の円弧高さr2よりも大きくし、第2ヘッドバンド44を第1ヘッドバンド43の内側で揺動させる構成としてもよい。
The arc height r <b> 1 shown in FIG. 4 is the maximum value of the distance from the center position C of the rotation axis D of the rotation mechanisms 56 and 57 arranged coaxially to the first headband 43. The arc height r2 is the maximum value of the distance from the center position C of the rotation axis D to the second headband 44.
The arc height r1 of the first headband 43 may be larger than the arc height r2 of the second headband 44, and the second headband 44 may be swung inside the first headband 43.

図7は、本実施形態に係るヘッドマウントディスプレイに付属のステレオイヤホンを示す斜視図である。
ステレオイヤホン100は、コネクター101と、ケーブル102と、第1スピーカー103と、第2スピーカー104と、集音マイク105と、複数のクリップ106とを有する。
FIG. 7 is a perspective view showing a stereo earphone attached to the head mounted display according to the present embodiment.
Stereo earphone 100 includes a connector 101, a cable 102, a first speaker 103, a second speaker 104, a sound collecting microphone 105, and a plurality of clips 106.

コネクター101はケーブル102の一方の端部に設けられている。コネクター101は、一般的な4極φ3.5mmのミニプラグである。4極の内訳は、集音マイク105、第1スピーカー103、第2スピーカー104、グランド(GND)である。ケーブル102は、コネクター101の近傍において二分岐され、分岐されたケーブルの先端に第1スピーカー103が設けられている。ケーブル102の他方の端部には、第2スピーカー104と集音マイク105とが設けられている。複数のクリップ106は、ケーブル102上に所定の間隔で配置されている。   The connector 101 is provided at one end of the cable 102. The connector 101 is a general 4-pole φ3.5 mm mini plug. The breakdown of the four poles is the sound collection microphone 105, the first speaker 103, the second speaker 104, and the ground (GND). The cable 102 is bifurcated in the vicinity of the connector 101, and a first speaker 103 is provided at the end of the branched cable. A second speaker 104 and a sound collecting microphone 105 are provided at the other end of the cable 102. The plurality of clips 106 are arranged on the cable 102 at a predetermined interval.

ステレオイヤホン100は、コネクター101をディスプレイ本体20のオーディオコネクター26に接続して使用される。ステレオイヤホン100が接続されると、ディスプレイ本体20の耳元スピーカー23と、表示部60の通話マイク37は無効化される。また表示部60の前方スピーカー70も必要に応じて無効化される。そして、ステレオイヤホン100の第1スピーカー103、第2スピーカー104、及び集音マイク105が有効化される。   The stereo earphone 100 is used by connecting the connector 101 to the audio connector 26 of the display body 20. When the stereo earphone 100 is connected, the ear speaker 23 of the display body 20 and the call microphone 37 of the display unit 60 are invalidated. Further, the front speaker 70 of the display unit 60 is also invalidated as necessary. Then, the first speaker 103, the second speaker 104, and the sound collecting microphone 105 of the stereo earphone 100 are activated.

ステレオイヤホン100の第1スピーカー103は、ディスプレイ本体20が配置された側のユーザーの耳に装着され、第2スピーカー104は第1スピーカー103と反対側の耳に装着される。このとき、ケーブル102は、クリップ106によって第2ヘッドバンド44に固定することができる。   The first speaker 103 of the stereo earphone 100 is attached to the ear of the user on the side where the display main body 20 is arranged, and the second speaker 104 is attached to the ear on the opposite side to the first speaker 103. At this time, the cable 102 can be fixed to the second headband 44 by the clip 106.

また、ステレオイヤホン100の集音マイク105と、ディスプレイ本体20において筐体21Aの外側面に設けられた集音マイク24とにより、ステレオ録音が可能である。例えば、図5(A)に示すようにディスプレイ本体20が右眼側に配置されているとすれば、ディスプレイ本体20の集音マイク24はユーザーの右側の音を収集し、左耳に装着された集音マイク105はユーザーの左側の音を収集する。
また、右眼観察形態では、ステレオイヤホン100の第1スピーカー103から右チャンネルの音声が出力され、第2スピーカー104からは左チャンネルの音声が出力される。
Further, stereo recording can be performed by the sound collecting microphone 105 of the stereo earphone 100 and the sound collecting microphone 24 provided on the outer surface of the housing 21 </ b> A in the display main body 20. For example, if the display main body 20 is arranged on the right eye side as shown in FIG. 5A, the sound collecting microphone 24 of the display main body 20 collects sounds on the right side of the user and is attached to the left ear. The sound collecting microphone 105 collects the sound on the left side of the user.
In the right-eye observation mode, the right channel sound is output from the first speaker 103 of the stereo earphone 100, and the left channel sound is output from the second speaker 104.

一方、図5(B)に示すようにユーザーの左眼側にディスプレイ本体20が配置されている場合には、ディスプレイ本体20の集音マイク24がユーザーの左側の音を収集し、右耳に装着された集音マイク105がユーザーの右側の音を収集する。左眼観察形態では、ステレオイヤホン100の第1スピーカー103から左チャンネルの音声が出力され、第2スピーカー104からは右チャンネルの音声が出力される。   On the other hand, when the display main body 20 is arranged on the left eye side of the user as shown in FIG. 5B, the sound collecting microphone 24 of the display main body 20 collects the sound of the user's left side and The attached sound collecting microphone 105 collects sound on the right side of the user. In the left-eye observation mode, left channel sound is output from the first speaker 103 of the stereo earphone 100, and right channel sound is output from the second speaker 104.

図8は、ヘッドマウントディスプレイ1の機能ブロック図である。
ヘッドマウントディスプレイ1には、処理部123を中心として種々の電気回路が備えられている。処理部123は、CPU(Central Processing Unit)であり、ヘッドマウントディスプレイ1の各種回路と接続されるとともに、ヘッドマウントディスプレイ1を総合的に制御する。
FIG. 8 is a functional block diagram of the head mounted display 1.
The head mounted display 1 is provided with various electric circuits centering on the processing unit 123. The processing unit 123 is a CPU (Central Processing Unit) and is connected to various circuits of the head mounted display 1 and comprehensively controls the head mounted display 1.

本実施形態の場合、処理部123には、エンコーダー129及びデコーダー121、電源回路120、操作スイッチ30、フラッシュメモリー122、BT通信回路130、WiFi通信回路131、加速度センサー132、地磁気センサー133、前方ライト68、3G/LTE通信回路138、レーザー発信器73、角速度センサー134、GPSセンサー135、温湿度センサー136、心拍数センサー137、メモリー127、メインスイッチ28、タッチスイッチ34が接続されている。   In this embodiment, the processing unit 123 includes an encoder 129 and a decoder 121, a power supply circuit 120, an operation switch 30, a flash memory 122, a BT communication circuit 130, a WiFi communication circuit 131, an acceleration sensor 132, a geomagnetic sensor 133, and a front light. 68, 3G / LTE communication circuit 138, laser transmitter 73, angular velocity sensor 134, GPS sensor 135, temperature / humidity sensor 136, heart rate sensor 137, memory 127, main switch 28, and touch switch 34 are connected.

エンコーダー129は音声信号及び映像信号を所定方式の音声データ及び映像データにエンコード(符号化)する。エンコーダー129には、カメラ64、撮像素子72、集音マイク24、通話マイク37、オーディオコネクター26、ビデオコネクター27が接続されている。   The encoder 129 encodes (encodes) the audio signal and the video signal into audio data and video data of a predetermined method. Connected to the encoder 129 are a camera 64, an image sensor 72, a sound collection microphone 24, a call microphone 37, an audio connector 26, and a video connector 27.

エンコーダー129には、集音マイク24及び通話マイク37から入力される音声信号、カメラ64から入力される映像信号、オーディオコネクター26から入力される音声信号、ビデオコネクター27から入力される映像信号、及び、ユーザーの目元を撮影する撮像素子72の映像信号が入力される。エンコーダー129に入力された音声信号及び映像信号は音声データ及び映像データにエンコードされた後、処理部123に入力される。入力された音声データ及び映像データは、処理部123による再生動作に用いられたり、フラッシュメモリー122に記録される。   The encoder 129 includes an audio signal input from the sound collection microphone 24 and the call microphone 37, a video signal input from the camera 64, an audio signal input from the audio connector 26, a video signal input from the video connector 27, and The video signal of the image sensor 72 that captures the user's eyes is input. The audio signal and video signal input to the encoder 129 are encoded into audio data and video data, and then input to the processing unit 123. The input audio data and video data are used for a reproduction operation by the processing unit 123 or recorded in the flash memory 122.

デコーダー121は、音声データ及び映像データを音声信号及び映像信号にデコード(復号化)する。デコーダー121には、LCDドライバ125、スピーカーアンプ162、オーディオコネクター26、及びビデオコネクター27が接続されている。LCDドライバ125は液晶パネル用の駆動制御装置であり、表示パネル36及び表示パネル63に接続されている。スピーカーアンプ162は音声信号を増幅してスピーカーに出力する装置であり、耳元スピーカー23及び前方スピーカー70に接続されている。   The decoder 121 decodes (decodes) audio data and video data into audio signals and video signals. An LCD driver 125, a speaker amplifier 162, an audio connector 26, and a video connector 27 are connected to the decoder 121. The LCD driver 125 is a drive control device for a liquid crystal panel, and is connected to the display panel 36 and the display panel 63. The speaker amplifier 162 is a device that amplifies an audio signal and outputs it to the speaker, and is connected to the ear speaker 23 and the front speaker 70.

映像データを再生する場合、フラッシュメモリー122に記録された映像データ、あるいはエンコーダー129から入力される映像データは、処理部123を介してデコーダー121に入力される。デコーダー121に入力された映像データは、映像信号にデコードされた後、LCDドライバ125を介して表示パネル36、63に供給される。そして、映像信号が入力された表示パネル36又は表示パネル63に映像データに基づく映像が表示される。また、デコーダー121からビデオコネクター27に出力される映像信号は、ビデオコネクター27を介して外部機器に出力される。   When reproducing the video data, the video data recorded in the flash memory 122 or the video data input from the encoder 129 is input to the decoder 121 via the processing unit 123. The video data input to the decoder 121 is decoded into a video signal and then supplied to the display panels 36 and 63 via the LCD driver 125. Then, an image based on the image data is displayed on the display panel 36 or the display panel 63 to which the image signal is input. The video signal output from the decoder 121 to the video connector 27 is output to an external device via the video connector 27.

また映像の表示に際して、処理部123は、必要に応じて表示パネル36用のバックライト35、及び表示パネル63用のバックライト62を点灯させる。BLドライバ126は、バックライト用の駆動制御装置であり、バックライト35及びバックライト62に接続されている。処理部123は、BLドライバ126に駆動信号を送信し、BLドライバ126はバックライト35、62を個々に点灯させる。   When displaying the video, the processing unit 123 turns on the backlight 35 for the display panel 36 and the backlight 62 for the display panel 63 as necessary. The BL driver 126 is a drive control device for the backlight, and is connected to the backlight 35 and the backlight 62. The processing unit 123 transmits a drive signal to the BL driver 126, and the BL driver 126 lights the backlights 35 and 62 individually.

音声データを再生する場合、フラッシュメモリー122に記録された音声データ、あるいはエンコーダー129から入力される音声データは、処理部123を介してデコーダー121に入力される。デコーダー121に入力された音声データは、音声信号にデコードされた後、スピーカーアンプ162を介して耳元スピーカー23及び前方スピーカー70のいずれか一方、又は両方に出力される。そして、音声信号を入力された耳元スピーカー23又は前方スピーカー70から音声が出力される。また、デコーダー121からオーディオコネクター26に出力される音声信号は、オーディオコネクター26を介してステレオイヤホン100に出力される。   When reproducing the audio data, the audio data recorded in the flash memory 122 or the audio data input from the encoder 129 is input to the decoder 121 via the processing unit 123. The audio data input to the decoder 121 is decoded into an audio signal and then output to one or both of the ear speaker 23 and the front speaker 70 via the speaker amplifier 162. Then, sound is output from the ear speaker 23 or the front speaker 70 to which the sound signal is input. The audio signal output from the decoder 121 to the audio connector 26 is output to the stereo earphone 100 via the audio connector 26.

本実施形態の場合、耳元スピーカー23及び前方スピーカー70は、モノラル音声の使用を想定しており、耳元スピーカー23及び前方スピーカー70からは左右の音声信号が合成された音が発せられる。   In the case of this embodiment, the ear speaker 23 and the front speaker 70 are assumed to use monaural sound, and the ear speaker 23 and the front speaker 70 emit a sound in which left and right audio signals are synthesized.

一方、ステレオイヤホン100に音声信号が出力される場合、第1スピーカー103及び第2スピーカー104のそれぞれ左チャンネル又は右チャンネルの音が出力される。ここで、本実施形態のヘッドマウントディスプレイ1は左右両用であるため、装着位置に応じてステレオイヤホン100への音声信号のチャンネルが切り替わる。すなわち、ディスプレイ本体20が右眼に装着されている場合には、第1スピーカー103に右チャンネル、第2スピーカー104に左チャンネルの音が出力される。ディスプレイ本体20が左眼に装着されている場合には第1スピーカー103に左チャンネル、第2スピーカー104に右チャンネルの音が出力される。   On the other hand, when an audio signal is output to the stereo earphone 100, the sound of the left channel or the right channel of the first speaker 103 and the second speaker 104 is output. Here, since the head mounted display 1 of this embodiment is for both left and right, the channel of the audio signal to the stereo earphone 100 is switched according to the mounting position. That is, when the display body 20 is attached to the right eye, the right channel sound is output to the first speaker 103 and the left channel sound is output to the second speaker 104. When the display body 20 is attached to the left eye, the left channel sound is output to the first speaker 103 and the right channel sound is output to the second speaker 104.

メモリー127には、処理部123によって実行される制御プログラムが記憶されている。
全体の電源のオンオフを行うメインスイッチ28や、画面内でのポインティング操作を行うための操作スイッチ30、あるいはタッチ操作により各種操作を行うタッチスイッチ34がユーザーにされると、これらのスイッチから操作に基づく制御信号が処理部123へ出力される。処理部123は、制御信号により操作を検出し、上記の制御プログラムに規定された動作を実行する。
The memory 127 stores a control program executed by the processing unit 123.
When the main switch 28 for turning on / off the entire power source, the operation switch 30 for performing a pointing operation on the screen, or the touch switch 34 for performing various operations by a touch operation are operated by the user, the operation can be performed from these switches. A control signal is output to the processing unit 123. The processing unit 123 detects an operation based on the control signal, and executes an operation defined in the control program.

BT通信回路130は、他の機器とのBluetooth(登録商標)通信を行うための通信回路である。WiFi通信回路131は、他の機器との無線LAN通信(IEEE 802.11)を行うための通信回路である。3G/LTE通信回路138は、他の機器との移動通信を行うための通信回路である。   The BT communication circuit 130 is a communication circuit for performing Bluetooth (registered trademark) communication with other devices. The WiFi communication circuit 131 is a communication circuit for performing wireless LAN communication (IEEE 802.11) with other devices. The 3G / LTE communication circuit 138 is a communication circuit for performing mobile communication with other devices.

加速度センサー132はヘッドマウントディスプレイ1の傾き検出に用いられる。加速度センサー132は例えば3軸センサーであり、重力加速度を検出する。加速度センサー132は、例えば装置本体部21に設けられている。ヘッドマウントディスプレイ1は、加速度センサー132の鉛直方向(Z軸方向)の出力値に基づいて、右眼観察形態と左眼観察形態を検出することが可能である。   The acceleration sensor 132 is used for detecting the tilt of the head mounted display 1. The acceleration sensor 132 is a triaxial sensor, for example, and detects gravitational acceleration. The acceleration sensor 132 is provided, for example, in the apparatus main body 21. The head mounted display 1 can detect the right eye observation form and the left eye observation form based on the output value of the acceleration sensor 132 in the vertical direction (Z-axis direction).

地磁気センサー133はヘッドマウントディスプレイ1の方角検出に用いられる。角速度センサー(ジャイロセンサー)134はヘッドマウントディスプレイ1の回転検出に用いられる。GPSセンサー135はGPS(Global Positioning System)を利用した測位検出に用いられる。温湿度センサー136は環境の温度、湿度の検出に用いられる。心拍数センサー137はユーザーの頬に接触し、ユーザーの心拍数を検出する。   The geomagnetic sensor 133 is used for detecting the direction of the head mounted display 1. An angular velocity sensor (gyro sensor) 134 is used to detect rotation of the head mounted display 1. The GPS sensor 135 is used for positioning detection using GPS (Global Positioning System). The temperature / humidity sensor 136 is used to detect the temperature and humidity of the environment. The heart rate sensor 137 contacts the user's cheek and detects the user's heart rate.

次に、本実施形態に係る表示部60の作用効果について、図6(A)、図9、及び図10を参照しつつ説明する。図9は、表示部60における観察範囲と撮影範囲の説明図である。図10は、表示パネル63の表示領域Sdを示す説明図である。   Next, functions and effects of the display unit 60 according to the present embodiment will be described with reference to FIGS. 6 (A), 9, and 10. FIG. 9 is an explanatory diagram of an observation range and an imaging range on the display unit 60. FIG. 10 is an explanatory diagram showing the display area Sd of the display panel 63.

なお、図9では、図6に示す反射ミラー66を、光学的に等価な凸レンズとして表示している。また図9に示す一点鎖線は結像レンズ71の光軸である。また図10において、表示領域Sdは、幅Sw(例えば800画素)、高さSh(例えば600画素)の矩形状の領域である。   In FIG. 9, the reflection mirror 66 shown in FIG. 6 is displayed as an optically equivalent convex lens. Also, the alternate long and short dash line in FIG. 9 is the optical axis of the imaging lens 71. In FIG. 10, the display area Sd is a rectangular area having a width Sw (for example, 800 pixels) and a height Sh (for example, 600 pixels).

図6(A)に示す表示部60において、表示パネル63に表示された画像は、以下のようにしてユーザーに視認される。
表示パネル63にはバックライト62から照明光が入射する。表示パネル63に入射した照明光は、表示パネル63で変調された後、第1プリズム65aに向けて射出される。このとき、表示パネル63を透過して第1プリズム65aに入射する光線Hは、液晶パネルに備えられた偏光板の偏光方向に沿った方向の直線偏光(ここではS偏光とする。)である。
In the display unit 60 shown in FIG. 6A, the image displayed on the display panel 63 is visually recognized by the user as follows.
Illumination light enters the display panel 63 from the backlight 62. The illumination light incident on the display panel 63 is modulated by the display panel 63 and then emitted toward the first prism 65a. At this time, the light beam H that passes through the display panel 63 and enters the first prism 65a is linearly polarized light (here, S-polarized light) in a direction along the polarization direction of the polarizing plate provided in the liquid crystal panel. .

光線Hは、第1プリズム65aの裏面65dにおいて全反射されて光線Iとなる。光線Iは第1プリズム65aと第2プリズム65bの接合面65cに入射する。接合面65cには、S偏光を反射し、P偏光(S偏光と直交する振動方向を有する直線偏光)を透過する偏光反射膜(ビームスプリッター)が形成されている。S偏光である光線Hは、接合面65cで反射して光線Jとなる。光線Jは、裏面65dを透過して1/4波長板75に入射する。   The light ray H is totally reflected at the back surface 65d of the first prism 65a to become a light ray I. The light ray I is incident on the joint surface 65c of the first prism 65a and the second prism 65b. A polarization reflection film (beam splitter) that reflects S-polarized light and transmits P-polarized light (linearly polarized light having a vibration direction orthogonal to S-polarized light) is formed on the bonding surface 65c. The light beam H that is S-polarized light is reflected by the joint surface 65c to become a light beam J. The light beam J passes through the back surface 65d and enters the quarter-wave plate 75.

1/4波長板75に入射した光線Jは、1/4波長板75により進行方向に対して右回りの円偏光に変換される。1/4波長板75から射出された光線Jは、反射ミラー66で反射され、左回りの円偏光である光線Kとなる。その後、光線Kは、1/4波長板75を再び透過することにより、P偏光となる。P偏光に変換された光線Kは、接合面65cのビームスプリッターを透過し、ファインダー開口部67からユーザーの眼の方向へ射出される。以上により、ユーザーは、表示パネル63上に表示された画像データを、ファインダー開口部67越しに観察することができる。   The light beam J incident on the quarter-wave plate 75 is converted by the quarter-wave plate 75 into circularly polarized light clockwise with respect to the traveling direction. The light beam J emitted from the quarter-wave plate 75 is reflected by the reflection mirror 66 and becomes a light beam K that is counterclockwise circularly polarized light. Thereafter, the light K is transmitted through the quarter-wave plate 75 again to become P-polarized light. The light beam K converted to P-polarized light passes through the beam splitter on the joint surface 65c and is emitted from the viewfinder opening 67 toward the user's eyes. As described above, the user can observe the image data displayed on the display panel 63 through the viewfinder opening 67.

一方、ファインダー開口部67からプリズム65に入射する光線Lは、そのS偏光成分が接合面65cのビームスプリッターで反射され、S偏光の光線Mとなる。光線Mは、第2プリズム65bにおける前面65eで全反射され、光線Nとなる。光線Nは、結像レンズ71により撮像素子72の撮像面に集光される。以上により、ファインダー開口部67を介した撮影が可能である。例えば、ファインダー開口部67がユーザーの眼の前面に配置された場合、撮像素子72により、ユーザーの眼の周辺画像(光学像)を取得することができる。   On the other hand, the light beam L incident on the prism 65 from the finder opening 67 is reflected by the beam splitter of the cemented surface 65c, and becomes the S-polarized light beam M. The light beam M is totally reflected by the front surface 65e of the second prism 65b and becomes a light beam N. The light beam N is condensed on the imaging surface of the imaging element 72 by the imaging lens 71. As described above, photographing through the viewfinder opening 67 is possible. For example, when the finder opening 67 is disposed in front of the user's eye, the image sensor 72 can acquire a peripheral image (optical image) of the user's eye.

上記に説明した表示パネル63の観察可能範囲と、撮像素子72の撮影可能範囲は、図9に示す範囲となる。図9に示す観察範囲67aは、反射ミラー66から光線Kが射出され、ファインダー開口部67によって光線Kが遮られることなくユーザーの眼に入る範囲である。すなわち、観察範囲67aの内側にユーザーの眼が配置されていれば、ファインダー開口部67を介して表示領域Sdの全体を視認することができる。一方、撮影範囲67cは、ファインダー開口部67を介して結像レンズ71に入射可能な光線Lの範囲である。撮影範囲67cの内側にユーザーの眼が配置されていれば、撮像素子72によりユーザーの眼を撮影可能である。   The observable range of the display panel 63 and the shootable range of the image sensor 72 described above are the ranges shown in FIG. An observation range 67a illustrated in FIG. 9 is a range in which the light K is emitted from the reflection mirror 66 and enters the user's eyes without being blocked by the finder opening 67. That is, if the user's eyes are arranged inside the observation range 67a, the entire display area Sd can be visually recognized through the finder opening 67. On the other hand, the imaging range 67 c is a range of light rays L that can enter the imaging lens 71 through the finder opening 67. If the user's eyes are arranged inside the imaging range 67c, the user's eyes can be captured by the image sensor 72.

本実施形態の場合、図9に示すように、結像レンズ71の焦点距離が、反射ミラー66(凸レンズで図示)の焦点距離よりも短く設定されている。これにより、撮像素子72で撮影可能な撮影範囲67cが観察範囲67aよりも広くなる。したがって、ユーザーが表示パネル63を観察できる位置にいれば、確実にユーザーの眼とその周囲を撮影することができる。   In the case of the present embodiment, as shown in FIG. 9, the focal length of the imaging lens 71 is set shorter than the focal length of the reflecting mirror 66 (illustrated by a convex lens). Thereby, the photographing range 67c that can be photographed by the image sensor 72 becomes wider than the observation range 67a. Therefore, if the user is at a position where the display panel 63 can be observed, the user's eyes and the surroundings can be reliably photographed.

以上に説明した構成を備えた本実施形態のヘッドマウントディスプレイ1では、図5に示したように、表示部60がユーザーの眼の下方近傍に配置されている。より詳しくは、ユーザーの眼と口の間の頬の前方に表示部60が配置されている。これにより、ディスプレイ本体20を大型化することなく、ユーザーの眼の周辺を広範囲に撮影可能とされている。以下、かかる作用効果について、図11を参照しつつ説明する。   In the head mounted display 1 of the present embodiment having the configuration described above, as shown in FIG. 5, the display unit 60 is disposed near the lower part of the user's eyes. More specifically, the display unit 60 is arranged in front of the cheek between the user's eyes and mouth. Thereby, it is possible to photograph the periphery of the user's eyes over a wide range without increasing the size of the display body 20. Hereinafter, this function and effect will be described with reference to FIG.

図11(A)は、眼の正面に表示部60を配置して、眼を含む周辺の画像を撮影する形態を示す図である。図11(B)は、本実施形態に係る眼の下側に表示部60を配置して、眼を下から撮影する形態を示す図である。図12は、表示部60により撮影されたユーザーの目元の画像を模式的に示す図である。   FIG. 11A is a diagram illustrating a form in which the display unit 60 is disposed in front of the eyes and a peripheral image including the eyes is captured. FIG. 11B is a diagram showing a form in which the display unit 60 is arranged on the lower side of the eye according to the present embodiment and the eye is photographed from below. FIG. 12 is a diagram schematically showing an image of the user's eyes photographed by the display unit 60.

図11において、ユーザーの下瞼から眉毛までの幅L11は40[mm]である。図11では、ユーザーの顔を横から見た場合における、上下方向をZ軸方向と、前後方向をY軸方向と称する。また図11では、表示部60のうち、説明に必要な結像レンズ71と撮像素子72のみを図示した。   In FIG. 11, the width L11 from the user's lower eyelid to the eyebrows is 40 [mm]. In FIG. 11, when the user's face is viewed from the side, the vertical direction is referred to as the Z-axis direction, and the front-rear direction is referred to as the Y-axis direction. In FIG. 11, only the imaging lens 71 and the image sensor 72 necessary for explanation are shown in the display unit 60.

図11(A)に示すように、眼の正面に表示部60(結像レンズ71、撮像素子72)を配置した場合、ユーザーの下瞼から眉毛までを撮影するためには、幅L11以上の長さの範囲(例えば、幅L31の範囲)を撮影できるまで、結像レンズ71をユーザーの顔から遠ざける必要がある。例えば、幅L31は70[mm]である場合、幅L31の範囲を撮影するには、ユーザーの眼から結像レンズ71の中心までの距離L21は、85[mm]必要である。   As shown in FIG. 11A, when the display unit 60 (the imaging lens 71 and the image sensor 72) is arranged in front of the eye, in order to photograph from the user's lower eyelid to the eyebrows, the width L11 or more. The imaging lens 71 needs to be kept away from the user's face until a length range (for example, a range of the width L31) can be photographed. For example, when the width L31 is 70 [mm], the distance L21 from the user's eye to the center of the imaging lens 71 needs to be 85 [mm] in order to capture the range of the width L31.

なお、距離L21は、図6(A)に示した光学系における第1プリズム65a、第2プリズム65b等の光路長も含んでいる。仮に、第1プリズム65a、第2プリズム65b等の光路長の合計が20[mm]であるとすると、ユーザーの顔からY軸方向に65(=85−20)[mm]だけ、表示部60を遠ざける必要がある。   Note that the distance L21 includes the optical path lengths of the first prism 65a, the second prism 65b, and the like in the optical system shown in FIG. Assuming that the total optical path length of the first prism 65a, the second prism 65b, etc. is 20 [mm], the display unit 60 is only 65 (= 85-20) [mm] in the Y-axis direction from the user's face. It is necessary to keep away.

一方、図11(B)に示すように、ユーザーの眼の下方に表示部60が配置されている場合、ユーザーの下瞼から眉毛までの幅L11の範囲を撮影するためには、幅L61の範囲を撮影できればよい。図11(B)に示す配置では、ユーザーの目元を下から煽るように撮影しているため、幅L61は、図11(A)に示した幅L31より短くなる。具体的に、幅L31が70[mm]であったのに対して、幅L61は20[mm]あればよい。この撮影に必要な20[mm]の範囲を確保するために必要な撮影距離(距離L51)は45[mm]である。   On the other hand, as shown in FIG. 11B, when the display unit 60 is disposed below the user's eyes, in order to photograph the range of the width L11 from the user's lower eyelid to the eyebrows, It only needs to be able to photograph the range. In the arrangement shown in FIG. 11B, since the user's eyes are shot from below, the width L61 is shorter than the width L31 shown in FIG. Specifically, the width L31 is 70 [mm] while the width L61 may be 20 [mm]. The photographing distance (distance L51) necessary for securing the range of 20 [mm] necessary for this photographing is 45 [mm].

そして、第1プリズム65a、第2プリズム65b等の光路長の合計が20[mm]である場合、表示部60は、ユーザーの眼から25[mm]だけ遠ざければよいことになる。また、Y軸方向(水平方向)に対して表示部60が角度βだけ下方に傾けた状態で配置されている場合、顔から結像レンズ71までのY軸方向の距離(顔の前方への距離)は、距離L51(45[mm])にcosβが乗算された値となる。   When the total optical path length of the first prism 65a, the second prism 65b, and the like is 20 [mm], the display unit 60 only needs to be 25 [mm] away from the user's eyes. In addition, when the display unit 60 is disposed in a state where the display unit 60 is inclined downward by an angle β with respect to the Y-axis direction (horizontal direction), the distance in the Y-axis direction from the face to the imaging lens 71 (to the front of the face) The distance) is a value obtained by multiplying the distance L51 (45 [mm]) by cos β.

図12(A)は、図11(B)に示す下方位置からユーザーの目元を撮影したときの取得画像を示す図である。ユーザーの目元を下方から撮影した場合、ユーザーの眼の幅L41(水平方向の寸法)に対して、眼と眉毛の距離が実際よりも狭く写る。これにより、眼と眉毛の距離が離れすぎない適切な範囲を容易に撮影することができ、多くの情報を含むユーザーの目元画像を容易に取得することができる。
なお、幅L41は、撮像素子72の解像度が、図示の横方向に640画素である場合に、350画素程度である。
FIG. 12A is a diagram illustrating an acquired image when the user's eyes are photographed from the lower position illustrated in FIG. When the user's eyes are photographed from below, the distance between the eyes and the eyebrows appears smaller than the actual distance with respect to the width L41 (horizontal dimension) of the user's eyes. Thereby, it is possible to easily shoot an appropriate range in which the distance between the eyes and the eyebrows is not too far away, and it is possible to easily obtain a user's eye image including a lot of information.
The width L41 is about 350 pixels when the resolution of the image sensor 72 is 640 pixels in the illustrated horizontal direction.

このように、本実施形態のヘッドマウントディスプレイ1では、表示部60がユーザーの眼の下方近傍に配置されていることで、ユーザーの眼の周辺画像を、ユーザーの顔に近い位置から撮影することができる。これにより、表示部60を顔から遠ざけるための機構が不要になり、また結像レンズ71の広角化等も不要であることから、ディスプレイ本体20が大型化されることはない。   As described above, in the head mounted display 1 of the present embodiment, the display unit 60 is disposed in the vicinity of the lower part of the user's eye, so that a peripheral image of the user's eye can be taken from a position close to the user's face. Can do. This eliminates the need for a mechanism for moving the display unit 60 away from the face, and does not require a wide angle of the imaging lens 71, so that the display body 20 is not increased in size.

また、表示部60が眼の正面に配置されないことから、ユーザーが正面を見たときに、表示部60により視野が遮られることがない。これにより、表示部60を見ていない状態のユーザーの視線を、眉毛や目元の様子、眼球の動きから検出することも可能である。
さらに、表示部60がユーザーの眼の下方近傍に配置されることで、表示部60の近傍に設けられた通話マイク37がユーザーの口元に近づく。したがって本実施形態によれば、通話マイク37を介して良好な音声情報を取得することが可能である。
Further, since the display unit 60 is not arranged in front of the eyes, the visual field is not blocked by the display unit 60 when the user looks at the front. Thereby, it is also possible to detect the line of sight of the user who is not looking at the display unit 60 from the eyebrows, the state of the eyes, and the movement of the eyeball.
Furthermore, the display unit 60 is arranged near the lower part of the user's eyes, so that the call microphone 37 provided near the display unit 60 approaches the user's mouth. Therefore, according to the present embodiment, it is possible to acquire good audio information via the call microphone 37.

(ユーザーの位置に応じた表示制御)
上述したように、図9に示す観察範囲67a内にユーザーの眼が配置されていれば、ユーザーは表示パネル63の全体を観察することができる。その一方で、ユーザーが観察範囲67aから外れると、観察可能な領域が狭くなる。そこで、本実施形態のヘッドマウントディスプレイ1では、ユーザーの位置に応じて表示パネル63の表示状態を制御することで、ユーザーが観察可能な領域を最大限確保できるようにした。以下、かかる構成について図面を参照しつつ説明する。
(Display control according to user position)
As described above, if the user's eyes are arranged within the observation range 67a shown in FIG. 9, the user can observe the entire display panel 63. On the other hand, when the user moves out of the observation range 67a, the observable area becomes narrow. Therefore, in the head mounted display 1 of the present embodiment, the display state of the display panel 63 is controlled according to the position of the user, so that the area that can be observed by the user can be secured to the maximum. Hereinafter, such a configuration will be described with reference to the drawings.

[ユーザーの眼が離れている場合]
まず、ユーザーの眼がファインダー開口部67から離れた位置にある場合について、図10、図12、及び図13を参照しつつ説明する。図12(B)は、ファインダー開口部67に対してユーザーの眼が離れている場合の目元画像の一例を示す図である。図13は、表示部60における撮影範囲と観察範囲の関係を示す説明図である。
[When user's eyes are away]
First, the case where the user's eyes are located away from the viewfinder opening 67 will be described with reference to FIGS. 10, 12, and 13. FIG. 12B is a diagram illustrating an example of an eye image when the user's eyes are away from the viewfinder opening 67. FIG. 13 is an explanatory diagram illustrating the relationship between the imaging range and the observation range on the display unit 60.

本例では、図13に示すように、ユーザーの眼eyeが、観察範囲67aの外側に配置される。図13において、ユーザーの眼eyeは光軸CT上に配置されている。ユーザーの眼eyeとファインダー開口部67との距離は、距離P1よりも大きく、距離P2(P2>P1)以下の範囲である。   In this example, as shown in FIG. 13, the user's eye eye is disposed outside the observation range 67a. In FIG. 13, the user's eye eye is placed on the optical axis CT. The distance between the user's eye eye and the viewfinder opening 67 is greater than the distance P1 and is within a range of the distance P2 (P2> P1).

このとき、図12(B)に示すように、ユーザーの目元画像におけるユーザーの眼の大きさが、図12(A)と比較して小さくなる。したがって、例えば、目元画像におけるユーザーの眼の幅L71が、所定値(例えば300画素)以下である場合に、ヘッドマウントディスプレイ1(処理部123)において、ユーザーの眼と表示部60との距離が遠いと判定することができる。   At this time, as shown in FIG. 12B, the size of the user's eyes in the user's eye image is smaller than that in FIG. Therefore, for example, when the width L71 of the user's eye in the eye image is equal to or less than a predetermined value (for example, 300 pixels), the distance between the user's eye and the display unit 60 in the head mounted display 1 (processing unit 123) is Can be determined to be far away.

図13に示す状態において、ユーザーは、表示領域Sdの周辺部分についてはファインダー開口部67に遮られてしまうため観察できないが、中央部分(図10に示す幅Tw、高さThの矩形状の表示領域Td)は観察可能である。そこで、本実施形態のヘッドマウントディスプレイ1では、ユーザーの眼が離れていると判定された場合に、縮小率ηで縮小した画像を、表示パネル63の表示領域Tdに表示させる。表示領域Tdに表示される画像の縮小率ηは、下記の式(1)により表される。   In the state shown in FIG. 13, the user cannot observe the peripheral portion of the display area Sd because it is blocked by the finder opening 67, but the center portion (rectangular display having the width Tw and the height Th shown in FIG. Region Td) is observable. Therefore, in the head mounted display 1 according to the present embodiment, when it is determined that the user's eyes are away, an image reduced at the reduction rate η is displayed in the display area Td of the display panel 63. The reduction ratio η of the image displayed in the display area Td is expressed by the following equation (1).

η = L71/L41 ・・・(1)   η = L71 / L41 (1)

例えば、図12(A)におけるユーザーの眼の幅L41が350画素であり、図12(B)におけるユーザーの眼の幅L71が220画素である場合に、ヘッドマウントディスプレイ1は、約0.63倍(=(L71/L41)=(Th/Sh)=(Tw/Sw))に縦横をそれぞれ縮小した画像を、表示パネル63の表示領域Tdに表示させる。表示領域Tdに表示された画像(光学像)の全体は、ファインダー開口部67の縁に遮られることなく、ユーザーの眼に届く。   For example, when the width L41 of the user's eye in FIG. 12A is 350 pixels and the width L71 of the user's eye in FIG. 12B is 220 pixels, the head mounted display 1 is about 0.63. An image obtained by reducing the vertical and horizontal dimensions by double (= (L71 / L41) = (Th / Sh) = (Tw / Sw)) is displayed in the display area Td of the display panel 63. The entire image (optical image) displayed in the display area Td reaches the user's eyes without being blocked by the edge of the finder opening 67.

[ユーザーの眼が光軸からずれている場合]
次に、ユーザーの眼がファインダー開口部67の正面から上下左右にずれている場合について、図10、図12、及び図14を参照しつつ説明する。図12(C)は、ファインダー開口部67の正面に対してユーザーの眼が図示右方向にずれている場合の目元画像の一例を示す図である。図14は、表示部60における撮影範囲と観察範囲の関係を示す説明図である。
[When the user's eyes are off the optical axis]
Next, a case where the user's eyes are displaced from the front of the viewfinder opening 67 in the vertical and horizontal directions will be described with reference to FIGS. 10, 12, and 14. FIG. 12C is a diagram illustrating an example of an eye image when the user's eyes are shifted in the right direction in the drawing with respect to the front of the finder opening 67. FIG. 14 is an explanatory diagram illustrating the relationship between the imaging range and the observation range on the display unit 60.

本例では、図14に示すように、ユーザーの眼eyeが、光軸CTからZ方向に距離V1xだけずれて配置されている。図14において、ユーザーの眼eyeとファインダー開口部67との距離は、図13に示した距離とほぼ同等である。したがって、ユーザーの眼eyeは、図13に示した観察範囲67aからやや外れた位置に配置されている。   In this example, as shown in FIG. 14, the user's eye eye is arranged at a distance V1x from the optical axis CT in the Z direction. In FIG. 14, the distance between the user's eye eye and the viewfinder opening 67 is substantially equal to the distance shown in FIG. Therefore, the user's eye eye is arranged at a position slightly deviating from the observation range 67a shown in FIG.

このとき、図12(C)に示すように、ユーザーの目元画像におけるユーザーの眼の大きさは、図12(B)とほぼ同等である。一方、図12(C)では、ユーザーの眼が、目元画像の中心からベクトルV1の方向(右下方向)へずれて表示される。図14に示す距離V1xは、図12(C)に示すベクトルV1のX方向(図12左右方向)の成分の大きさに相当する。この場合にも、ヘッドマウントディスプレイ1は、目元画像におけるユーザーの眼の幅と位置の情報に基づいて、ファインダー開口部67とユーザーの眼との相対位置を算出することができる。   At this time, as shown in FIG. 12C, the size of the user's eye in the user's eye image is substantially the same as that in FIG. On the other hand, in FIG. 12C, the user's eyes are displayed shifted from the center of the eye image in the direction of the vector V1 (lower right direction). The distance V1x shown in FIG. 14 corresponds to the magnitude of the component in the X direction (left and right direction in FIG. 12) of the vector V1 shown in FIG. Also in this case, the head mounted display 1 can calculate the relative position between the finder opening 67 and the user's eyes based on information on the width and position of the user's eyes in the eye image.

例えば、ユーザーの目元画像から、例えば、眼の輪郭の画像を抽出し、抽出した眼の輪郭の画像の位置に基づいて、眼の位置ずれ量及び方向(ベクトルV1)を検出することができる。あるいは、目元画像から眼球の画像を抽出し、抽出した眼球の輪郭画像のずれ量に基づいて、その眼の位置ずれ量及び方向を検出してもよい。   For example, it is possible to extract, for example, an eye contour image from the user's eye image, and to detect an eye position shift amount and direction (vector V1) based on the position of the extracted eye contour image. Alternatively, an eyeball image may be extracted from the eye image, and the positional deviation amount and direction of the eye may be detected based on the deviation amount of the extracted outline image of the eyeball.

図14に示す状態において、ユーザーは、表示領域Sdのうち、ファインダー開口部67に遮られてしまう部分については観察できないが、表示領域Sdの一部(図10に示す幅Uw、高さUhの矩形状の表示領域Ud)については観察可能である。
そこで、本実施形態のヘッドマウントディスプレイ1では、ユーザーの眼の位置が遠く、またファインダー開口部67の正面からずれていると判定された場合に、所定の縮小率(=(Uh/Sh)=(Uw/Sw))で縮小した画像を、表示パネル63の表示領域Udに表示させる。
In the state shown in FIG. 14, the user cannot observe a portion of the display area Sd that is blocked by the finder opening 67, but a part of the display area Sd (with the width Uw and the height Uh shown in FIG. 10). The rectangular display area Ud) can be observed.
Therefore, in the head mounted display 1 according to the present embodiment, when it is determined that the position of the user's eyes is far away from the front of the finder opening 67, a predetermined reduction ratio (= (Uh / Sh) = The image reduced in (Uw / Sw)) is displayed in the display area Ud of the display panel 63.

表示領域Udの位置は、目元画像から取得されるユーザーの眼の幅、位置ずれ量、及び位置ずれの方向に基づいて定められる。図12(C)に示すようにユーザーの眼が右下方向にずれている場合、表示領域Udは、図10に示すように、表示領域Sd内の右上位置に定められる。   The position of the display area Ud is determined based on the width of the user's eyes, the amount of positional deviation, and the direction of positional deviation obtained from the eye image. When the user's eyes are shifted in the lower right direction as shown in FIG. 12C, the display area Ud is set at the upper right position in the display area Sd as shown in FIG.

いま、結像レンズ71及び撮像素子72を含む撮像系の記録画素数が横方向に640画素、縦方向に480画素であるとし、撮像系の画角が横方向に60°、縦方向に45°であるとすると、1画素当たりの画角は、約0.094°である。   Now, it is assumed that the number of recording pixels of the imaging system including the imaging lens 71 and the imaging device 72 is 640 pixels in the horizontal direction and 480 pixels in the vertical direction, and the field angle of the imaging system is 60 ° in the horizontal direction and 45 in the vertical direction. If it is °, the angle of view per pixel is about 0.094 °.

したがって、ユーザーの眼の位置の横方向(水平方向)のずれ量(ベクトルV1の水平成分の大きさ)が、例えば50画素であれば、ユーザーの視線は約4.7°(=50画素×0.094°)ずれていることになる。表示領域Sdの水平方向(Sw:800画素)の画角が、例えば35°であれば、ヘッドマウントディスプレイ1は、表示パネル63の中心から、108画素分(=Sw×4.7°÷35°)だけ、水平方向右側へずらした位置に表示領域Udの位置を定める。ヘッドマウントディスプレイ1は、垂直方向についても上記と同様の演算を実行し、算出された画素数だけ中心からずらした位置に表示領域Udの位置を定める。   Therefore, if the amount of horizontal displacement (horizontal direction) of the user's eye position (the magnitude of the horizontal component of the vector V1) is, for example, 50 pixels, the user's line of sight is about 4.7 ° (= 50 pixels × 0.094 °). If the angle of view in the horizontal direction (Sw: 800 pixels) of the display area Sd is 35 °, for example, the head mounted display 1 is 108 pixels from the center of the display panel 63 (= Sw × 4.7 ° ÷ 35). The position of the display area Ud is determined at a position shifted to the right in the horizontal direction. The head mounted display 1 performs the same calculation as above in the vertical direction, and determines the position of the display area Ud at a position shifted from the center by the calculated number of pixels.

図12(C)、図14において、上記の算出条件である場合、ヘッドマウントディスプレイ1は、表示領域の大きさを水平方向の幅が500画素、垂直方向の高さが375画素となるように縮小し、さらに表示領域Sdの中心から水平方向右に108画素、かつ、垂直方向上に上記所定画素数ずらした位置に、表示領域Udを定める。表示領域Udには、表示領域Udと同じ縮小率で縮小された画像が表示される。これにより、ユーザーの眼eyeが光軸上からずれた場合でも、ヘッドマウントディスプレイ1は、画像の全体が見えるよう、その画像を表示することができる。   12C and 14, in the case of the above calculation conditions, the head mounted display 1 has a display area size of 500 pixels in the horizontal direction and 375 pixels in the vertical direction. Further, the display area Ud is determined at a position shifted from the center of the display area Sd to the right in the horizontal direction by 108 pixels and shifted in the vertical direction by the predetermined number of pixels. In the display area Ud, an image reduced at the same reduction ratio as the display area Ud is displayed. Thereby, even when the user's eye eye deviates from the optical axis, the head mounted display 1 can display the image so that the entire image can be seen.

このように、本実施形態のヘッドマウントディスプレイ1では、ユーザーの眼が表示部60から離れている、又は、光軸からずれている場合でも、ユーザーと表示部60との位置関係に応じて、ユーザーが画像全体を観察可能となるように、表示部60に画像を表示することができる。   As described above, in the head mounted display 1 of the present embodiment, even when the user's eyes are separated from the display unit 60 or deviated from the optical axis, according to the positional relationship between the user and the display unit 60, The image can be displayed on the display unit 60 so that the user can observe the entire image.

[左右切替に伴う表示部の設置角度調整]
次に、右眼観察形態と左眼観察形態との切り替えに伴う、撮像素子72の設置角度の調整について説明する。
図15は、撮像素子72の画角と選択範囲に関する説明図である。図15(A)は、右眼観察形態における撮像素子72の画角と選択範囲を示す図である。図15(B)は、左眼観察形態における撮像素子72の画角と選択範囲を示す図である。
なお、図15(A)及び図15(B)では、第1ヘッドバンド43、第2ヘッドバンド44、装置本体部21等の図示は省略されている。
[Adjusting the installation angle of the display when switching left and right]
Next, adjustment of the installation angle of the image sensor 72 that accompanies switching between the right eye observation mode and the left eye observation mode will be described.
FIG. 15 is an explanatory diagram regarding the angle of view and the selection range of the image sensor 72. FIG. 15A is a diagram illustrating the angle of view and the selection range of the image sensor 72 in the right-eye observation mode. FIG. 15B is a diagram illustrating the angle of view and the selection range of the image sensor 72 in the left-eye observation mode.
In FIGS. 15A and 15B, the first headband 43, the second headband 44, the apparatus main body 21 and the like are not shown.

図16は、本実施形態に係る撮像領域と選択領域との関係を示す説明図である。
図16(A)には、本実施形態に係る撮像素子72(図3参照)の撮像領域Pが模式的に示されている。図16(B)には、撮像領域上の複数の選択領域が示されている。ここで、撮像領域Pは、撮像素子72が撮像可能な範囲を示す。選択領域Q及び選択領域Rは、撮像領域P内に設定される部分的な撮像領域である。本実施形態の場合、撮像素子72は、4対3のアスペクト比を有する。
FIG. 16 is an explanatory diagram illustrating a relationship between the imaging region and the selection region according to the present embodiment.
FIG. 16A schematically shows the imaging region P of the imaging element 72 (see FIG. 3) according to the present embodiment. FIG. 16B shows a plurality of selection areas on the imaging area. Here, the imaging region P indicates a range in which the imaging element 72 can capture an image. The selection area Q and the selection area R are partial imaging areas set in the imaging area P. In the case of this embodiment, the image sensor 72 has an aspect ratio of 4 to 3.

右眼観察形態の場合、撮像素子72は、撮像領域Pのアスペクトが縦長になるように、表示部60内に配置される。右眼観察形態において、撮像素子72は、図15(A)及び図16(B)に示すように、撮像領域Pの上部側に横長の選択領域Qを設定する。撮像素子72は、設定した選択領域Qに対応する範囲のみの画像データを取り込む。これにより、図15(A)に示すように、右眼観察形態において、眉毛まで含めた右眼の目元の画像データを適切に取り込むことができる。   In the case of the right-eye observation mode, the image sensor 72 is disposed in the display unit 60 so that the aspect of the imaging region P is vertically long. In the right-eye observation mode, the imaging element 72 sets a horizontally long selection area Q on the upper side of the imaging area P as shown in FIGS. 15 (A) and 16 (B). The image sensor 72 captures only image data in a range corresponding to the set selection area Q. As a result, as shown in FIG. 15A, in the right-eye observation mode, it is possible to appropriately capture the image data of the right eye including the eyebrows.

一方、左眼観察形態の場合、撮像素子72は、撮像領域Pのアスペクトが縦長になるように、表示部60内に配置される。左眼観察形態において、撮像素子72は、図15(B)及び図16(B)に示すように、撮像領域Pの下部側に横長の選択領域Rを設定する。撮像素子72は、選択領域Rに対応する範囲のみの画像データを取り込む。これにより、図15(B)に示すように、左眼観察形態において、眉毛まで含めた左眼の目元の画像データを適切に取り込むことができる。   On the other hand, in the case of the left-eye observation mode, the image sensor 72 is disposed in the display unit 60 so that the aspect of the imaging region P is vertically long. In the left-eye observation mode, the imaging device 72 sets a horizontally long selection region R on the lower side of the imaging region P as shown in FIGS. 15 (B) and 16 (B). The image sensor 72 captures image data only in a range corresponding to the selection region R. As a result, as shown in FIG. 15B, in the left-eye observation mode, it is possible to appropriately capture the image data of the eyes of the left eye including the eyebrows.

また、ヘッドマウントディスプレイ1は、右眼観察形態又は左眼観察形態のいずれであるかを、加速度センサー検出値(後述)の代わりに、撮像素子72による撮像画像に基づいて適切に判定することができる。   Further, the head mounted display 1 can appropriately determine whether the right-eye observation form or the left-eye observation form is based on an image captured by the image sensor 72 instead of an acceleration sensor detection value (described later). it can.

図16(C)は、撮像素子72における選択領域の設定を機械的に行う機構を説明する図である。撮像素子72の本体72aには、回転軸72bが固定されている。この回転軸72bに対しては、ダイヤル72cが設けられている。ユーザーは、ダイヤル72cを回動可能範囲で回動(D方向)にさせることで、回転軸72bの軸回りに撮像素子72をチルトさせることができる。   FIG. 16C is a diagram illustrating a mechanism for mechanically setting a selection area in the image sensor 72. A rotation shaft 72 b is fixed to the main body 72 a of the image sensor 72. A dial 72c is provided for the rotating shaft 72b. The user can tilt the image sensor 72 around the rotation axis 72b by rotating the dial 72c within the rotatable range (D direction).

結像レンズ71を上に向けてチルトさせることで、撮像素子72による撮像領域を、図16(B)に示すように、撮像領域Pの上部側の選択領域Qに定めることができる。一方、結像レンズ71を下に向けてチルトさせることで、撮像素子72による撮像領域を、撮像領域Pの下部側の選択領域Rに定めることができる。本実施形態において、右眼観察形態と左眼観察形態とでは上下が反転するため、図16(B)の撮像領域Pと選択領域Rとは、上下が反転された関係となっている。   By tilting the imaging lens 71 upward, the imaging region by the imaging device 72 can be determined as a selection region Q on the upper side of the imaging region P as shown in FIG. On the other hand, by tilting the imaging lens 71 downward, the imaging area by the imaging element 72 can be determined as the selection area R on the lower side of the imaging area P. In this embodiment, since the upside down is reversed between the right eye observation form and the left eye observation form, the imaging area P and the selection area R in FIG.

なお、ヘッドマウントディスプレイ1では、ユーザーがダイヤル72cを操作することにより、選択領域Q又は選択領域Rの位置を微調整することも可能である。また、撮像素子72による撮像画像が表示部60に表示された場合、ユーザーは、表示部60に表示されている撮像画像を観察しながら、表示部60と眼の位置関係に応じて、撮像素子72の撮像領域を選択することができる。その結果、適切な範囲でユーザーの目元画像を撮影することができる。   In the head mounted display 1, the position of the selection area Q or the selection area R can be finely adjusted by the user operating the dial 72c. When a captured image by the image sensor 72 is displayed on the display unit 60, the user observes the captured image displayed on the display unit 60 and determines the image sensor according to the positional relationship between the display unit 60 and the eyes. 72 imaging areas can be selected. As a result, the user's eye image can be taken within an appropriate range.

(表示部の変形例)
次に、シースルー光学系を備えた変形例に表示部を用いる場合について説明する。
本実施形態のヘッドマウントディスプレイ1は、図6(A)に示した表示部60に代えて、図6(B)に示す表示部60aを用いることもできる。図6(B)は、変形例に係る表示部を示す断面図である。なお、図6(A)と共通の部材には同一の符号を付して説明を省略する。
(Modification of the display unit)
Next, the case where a display part is used for the modification provided with the see-through optical system will be described.
The head mounted display 1 of this embodiment can use a display unit 60a shown in FIG. 6B instead of the display unit 60 shown in FIG. FIG. 6B is a cross-sectional view illustrating a display portion according to a modification. In addition, the same code | symbol is attached | subjected to the member common to FIG. 6 (A), and description is abbreviate | omitted.

図6(B)に示すように、変形例に係る表示部60aは、バックライト62、表示パネル63、第1プリズム65a、第2プリズム65b、反射ミラー66、ファインダー開口部67、結像レンズ71、撮像素子72、1/4波長板75、偏光板90、凹レンズ91、1/4波長板92、液晶パネル93、偏光板94、開口部95を含んで構成されている。   As shown in FIG. 6B, the display unit 60a according to the modification includes a backlight 62, a display panel 63, a first prism 65a, a second prism 65b, a reflection mirror 66, a finder opening 67, and an imaging lens 71. The image pickup device 72, a quarter wavelength plate 75, a polarizing plate 90, a concave lens 91, a quarter wavelength plate 92, a liquid crystal panel 93, a polarizing plate 94, and an opening 95 are included.

表示部60aでは、筐体60Aの外面側に、開口部95が設けられている。開口部95の内側には、偏光板94が配置されている。偏光板94の背面側に、液晶パネル93と、1/4波長板92と、凹レンズ91と、反射ミラー66と、1/4波長板75とがこの順に設けられている。筐体60Aの内面側のファインダー開口部67の側方に、結像レンズ71と、撮像素子72とが設けられている。第2プリズム65bとファインダー開口部67との間に、偏光板90が設けられている。   In the display unit 60a, an opening 95 is provided on the outer surface side of the housing 60A. A polarizing plate 94 is disposed inside the opening 95. On the back side of the polarizing plate 94, a liquid crystal panel 93, a quarter-wave plate 92, a concave lens 91, a reflection mirror 66, and a quarter-wave plate 75 are provided in this order. An imaging lens 71 and an imaging element 72 are provided on the side of the finder opening 67 on the inner surface side of the housing 60A. A polarizing plate 90 is provided between the second prism 65 b and the finder opening 67.

表示部60aでは、ファインダー開口部67と開口部95とを介して、ユーザーに前方の景色を視認させることができる。表示部60aにおいて、ユーザーの前方の景色は、光線Oとなって開口部95に入射する。開口部95から入射した光線Oは偏光板94に入射する。偏光板94を透過した光線Oは例えばS偏光となって液晶パネル93に入射する。   In the display unit 60 a, the user can visually recognize the scenery in front through the finder opening 67 and the opening 95. In the display unit 60 a, the scenery in front of the user becomes a light ray O and enters the opening 95. The light beam O incident from the opening 95 enters the polarizing plate 94. The light beam O transmitted through the polarizing plate 94 becomes, for example, S-polarized light and enters the liquid crystal panel 93.

光線Oは、液晶パネル93により空間的に変調される。例えば、液晶パネル93に通電した場合(オン状態)に、光線OはS偏光からP偏光に変換される。液晶パネル93による変調の態様は、偏光板94の偏光軸の方向等に応じて適宜変更可能である。液晶パネル93からP偏光として射出された光線Oは、1/4波長板92に入射する。光線Oは、1/4波長板92の働きにより左回りの円偏光に変換される。円偏光に変換された光線Oは、凹レンズ91を透過して反射ミラー66に入射する。なお、凹レンズ91は、反射ミラー66を構成する凸レンズとペアとなって、パワーゼロの平行平板となるようにするための部材である。   The light beam O is spatially modulated by the liquid crystal panel 93. For example, when the liquid crystal panel 93 is energized (on state), the light beam O is converted from S-polarized light to P-polarized light. The mode of modulation by the liquid crystal panel 93 can be appropriately changed according to the direction of the polarization axis of the polarizing plate 94 and the like. The light beam O emitted as P-polarized light from the liquid crystal panel 93 enters the quarter-wave plate 92. The light beam O is converted into counterclockwise circularly polarized light by the action of the quarter-wave plate 92. The light beam O converted to circularly polarized light passes through the concave lens 91 and enters the reflection mirror 66. The concave lens 91 is a member that is paired with a convex lens constituting the reflection mirror 66 to become a parallel plate with zero power.

表示部60aでは、反射ミラー66は半透過タイプである。以下では、反射ミラー66が50%の光線を透過し、50%の光を反射するものであるとして説明する。反射ミラー66の透過率及び反射率は適宜に調整可能である。   In the display unit 60a, the reflection mirror 66 is a semi-transmissive type. In the following description, it is assumed that the reflecting mirror 66 transmits 50% light and reflects 50% light. The transmittance and reflectance of the reflection mirror 66 can be adjusted as appropriate.

光線Oのうち、50%の成分が反射ミラー66を透過し、1/4波長板75に入射する。1/4波長板75に入射した光線O(左回りの円偏光)は、P偏光に変換される。P偏光に変換された光線Oは、第1プリズム65aに入射する。P偏光の光線Oは、第1プリズム65a、接合面65c、及び第2プリズム65bをそのまま透過する。第2プリズム65bの前面65eから射出された光線Oは、偏光板90に入射する。偏光板90は、P偏光を透過するように構成されている。したがって、光線Oは偏光板90を透過してファインダー開口部67から射出される。
以上により、外界の画像(開口部95を通して見る画像)が、表示パネル63から投影される画像とともにユーザーに視認される。
Of the light beam O, 50% of the component passes through the reflection mirror 66 and enters the quarter-wave plate 75. The light beam O (left-handed circularly polarized light) incident on the quarter-wave plate 75 is converted to P-polarized light. The light beam O converted to P-polarized light enters the first prism 65a. The P-polarized light beam O passes through the first prism 65a, the joint surface 65c, and the second prism 65b as it is. The light beam O emitted from the front surface 65e of the second prism 65b enters the polarizing plate 90. The polarizing plate 90 is configured to transmit P-polarized light. Accordingly, the light beam O passes through the polarizing plate 90 and is emitted from the finder opening 67.
As described above, the image of the outside world (the image viewed through the opening 95) is visually recognized by the user together with the image projected from the display panel 63.

また表示部60aでは、外界の画像を消し、表示パネル63から投影される画像のみをユーザーに視認させることもできる。
図6(B)において、液晶パネル93を無通電の状態(オフ状態)にすると、光線Oが液晶パネル93により変調されなくなる。この場合、光線OはS偏光のまま液晶パネル93から1/4波長板92へ射出される。そして、S偏光の光線Oは、1/4波長板の働きにより右回りの円偏光に変換される。
In the display unit 60a, the image of the outside world can be erased, and only the image projected from the display panel 63 can be viewed by the user.
In FIG. 6B, when the liquid crystal panel 93 is turned off (off state), the light beam O is not modulated by the liquid crystal panel 93. In this case, the light beam O is emitted from the liquid crystal panel 93 to the quarter-wave plate 92 as S-polarized light. The S-polarized light beam O is converted into clockwise circularly polarized light by the action of the quarter-wave plate.

次に、反射ミラー66を透過した光線Oの50%の成分が、1/4波長板75に入射する。右回りの円偏光である光線Oは、1/4波長板75の作用によりS偏光に変換される。S偏光に変換された光線Oは、第1プリズム65aに入射し、接合面65cに入射する。接合面65cに設けられた偏光反射膜は、S偏光を反射する。そのため、光線Oは接合面65cで反射されて表示パネル63側へ進行する光となり、ファインダー開口部67から射出されることはなくなる。この結果、ユーザーの眼には外界の光線は到達しない。   Next, 50% of the light beam O transmitted through the reflecting mirror 66 enters the quarter-wave plate 75. The light ray O that is clockwise circularly polarized light is converted into S polarized light by the action of the quarter wavelength plate 75. The light beam O converted to S-polarized light enters the first prism 65a and enters the cemented surface 65c. The polarization reflection film provided on the bonding surface 65c reflects S-polarized light. Therefore, the light beam O is reflected by the joint surface 65 c and travels toward the display panel 63, and is not emitted from the finder opening 67. As a result, external rays do not reach the user's eyes.

このように、表示部60aでは、液晶パネル93のオン状態とオフ状態の切り替えによって、ファインダー開口部67に外界の画像を透過させるか否かを制御することができる。なお、液晶パネル93のオン状態とオフ状態の切り替えは、例えば処理部123が行う。   As described above, the display unit 60 a can control whether or not the image of the outside world is transmitted through the finder opening 67 by switching the liquid crystal panel 93 between the on state and the off state. Note that the processing unit 123 performs switching between the on state and the off state of the liquid crystal panel 93, for example.

図6(B)において、偏光板90は、反射ミラー66によるユーザーの眼の反射像を見えないようにするものである。ユーザーの眼から出た光線Sは、偏光板90でP偏光のみが透過し、第2プリズム65b、接合面65c、第1プリズム65aを透過して、1/4波長板75に入射する。ここで、光線Sは、1/4波長板75の作用により左回りの円偏光となった後、反射ミラー66で反射される。反射ミラー66の反射光である光線Tは、右回りの円偏光である。光線Tは、1/4波長板75を透過する際にS偏光に変換される。   In FIG. 6B, the polarizing plate 90 prevents the reflection image of the user's eyes from being seen by the reflection mirror 66. The light beam S emitted from the user's eyes transmits only the P-polarized light through the polarizing plate 90, passes through the second prism 65 b, the joint surface 65 c, and the first prism 65 a and enters the quarter-wave plate 75. Here, the light beam S is converted into counterclockwise circularly polarized light by the action of the quarter-wave plate 75 and then reflected by the reflection mirror 66. The light ray T that is the reflected light of the reflection mirror 66 is clockwise circularly polarized light. The light beam T is converted to S-polarized light when passing through the quarter-wave plate 75.

S偏光となった光線Tは、第1プリズム65aを透過して接合面65cに入射する。ここで、接合面65cはS偏光を反射して透過しない。したがって、ユーザーの眼には、自分自身の眼から出た光線が帰ってくることはなく、表示画面中に自分の眼が見えることは無い。   The light beam T that has become S-polarized light passes through the first prism 65a and enters the joint surface 65c. Here, the joint surface 65c reflects and does not transmit S-polarized light. Therefore, the light rays emitted from the user's own eyes do not return to the user's eyes, and the user's eyes cannot be seen on the display screen.

次に、表示部60aにおける撮像系について図17を参照しつつ説明する。
図17は、本実施形態に係る観察範囲と撮影範囲を説明する図である。図17において、観察範囲67aは、表示パネル63から投影された画像の観察範囲である。撮影範囲67bは、撮像素子72の撮影範囲である。なお、図17においても、図9等と同様に、反射ミラー66を凸レンズに置き換えて等価的に表している。
Next, the imaging system in the display unit 60a will be described with reference to FIG.
FIG. 17 is a diagram for explaining an observation range and an imaging range according to the present embodiment. In FIG. 17, an observation range 67 a is an observation range of an image projected from the display panel 63. The shooting range 67 b is a shooting range of the image sensor 72. In FIG. 17 as well, as in FIG. 9 and the like, the reflecting mirror 66 is replaced with a convex lens and equivalently shown.

表示部60aにおいて、眼の周辺画像を撮影するための結像レンズ71ならびに撮像素子72は、ファインダー開口部67の側方に設けられている。このため、結像レンズ71ならびに撮像素子72系の光線は、第2プリズム65bを透過せずに、直接ユーザーの眼の近傍を撮影可能となっている。   In the display unit 60 a, an imaging lens 71 and an image sensor 72 for taking a peripheral image of the eye are provided on the side of the finder opening 67. For this reason, the light rays of the imaging lens 71 and the imaging element 72 system can directly photograph the vicinity of the user's eyes without passing through the second prism 65b.

図17に示すように、本実施形態の結像レンズ71の焦点距離も、反射ミラー66の焦点距離より短く設定されている。これにより、先の実施形態に係る表示部60と同様に、ユーザーの眼を含むその周囲の様子を適切に撮影することができる。   As shown in FIG. 17, the focal length of the imaging lens 71 of the present embodiment is also set shorter than the focal length of the reflection mirror 66. Thereby, like the display unit 60 according to the previous embodiment, it is possible to appropriately capture the surroundings including the user's eyes.

ところで、図17に示すように、表示部60aの結像レンズ71ならびに撮像素子72は、反射ミラー66の光学中心からオフセットした位置に配置されている。そのため、ファインダー開口部67に非常に近い位置にユーザーの眼があると、撮像素子72の撮影範囲67cからユーザーの眼が外れてしまう。   By the way, as shown in FIG. 17, the imaging lens 71 and the imaging element 72 of the display unit 60 a are arranged at a position offset from the optical center of the reflection mirror 66. For this reason, if the user's eyes are located very close to the finder opening 67, the user's eyes will be out of the imaging range 67c of the image sensor 72.

しかし、本実施形態の場合、ユーザーは、表示部60aを眼の正面ではなく、口元の方向へ下げることでファインダー開口部67から眼を十分に離すことが可能である。そうすることで、図17に示す観察距離L81の範囲内にユーザーの眼を配置することが可能である。よって、ユーザーが表示パネル63を観察している場合には、撮像素子72は、問題なくユーザーの眼ならびにその周囲を撮影可能である。
さらに、表示部60をユーザーの口元の方向へ下げることで、表示部60の近傍に設けられた通話マイク37がユーザーの口元に近づくので、通話マイク37において良好な音声情報を取得することができる。
However, in the case of the present embodiment, the user can sufficiently keep his eyes away from the viewfinder opening 67 by lowering the display unit 60a not toward the front of the eye but toward the mouth. By doing so, it is possible to arrange the user's eyes within the range of the observation distance L81 shown in FIG. Therefore, when the user is observing the display panel 63, the image sensor 72 can photograph the user's eyes and the surroundings without any problem.
Further, by lowering the display unit 60 in the direction of the user's mouth, the call microphone 37 provided in the vicinity of the display unit 60 approaches the user's mouth, so that good voice information can be acquired in the call microphone 37. .

なお、本発明の技術範囲は上記の実施形態に限定されるものではない。上記の実施形態で説明した要件のうち少なくとも1つの要件は、省略される場合がある。上記の実施形態で説明した各要件は、適宜、組み合わせることができる。   The technical scope of the present invention is not limited to the above embodiment. At least one of the requirements described in the above embodiments may be omitted. The requirements described in the above embodiments can be combined as appropriate.

上記実施形態では、ヘッドマウントディスプレイの例として、右眼観察形態と左眼観察形態を切り替えて使用できるヘッドマウントディスプレイの例を説明したが、これに限られない。例えば、右眼観察形態専用、または左眼観察形態専用のヘッドマウントディスプレイであってもよい。この場合、本実施形態で説明した処理の内、右眼観察形態、または左眼観察形態に関する処理のみを行うようにしてもよい。   In the above-described embodiment, an example of a head-mounted display that can be used by switching between the right-eye observation mode and the left-eye observation mode has been described as an example of the head-mounted display, but the present invention is not limited to this. For example, it may be a head-mounted display dedicated to the right-eye observation form or dedicated to the left-eye observation form. In this case, among the processes described in the present embodiment, only the process relating to the right eye observation form or the left eye observation form may be performed.

また、表示部60及びファインダー開口部67が長方形である例を示したが、表示部60及びファインダー開口部67は、正方形、楕円形、円形等であってもよい。また、ヘッドマウントディスプレイの例として単眼タイプについて説明したが、両眼タイプであってもよい。
また、ヘッドマウントディスプレイは、実施形態に係る機能の全てを備えていなくてもよい。例えば、温湿度センサーや心拍数センサーなどを備えない構成であってもよい。
Moreover, although the example in which the display unit 60 and the finder opening 67 are rectangular has been described, the display unit 60 and the finder opening 67 may be square, elliptical, circular, or the like. Moreover, although the monocular type was demonstrated as an example of a head mounted display, a binocular type may be sufficient.
Further, the head mounted display may not have all of the functions according to the embodiment. For example, a configuration without a temperature / humidity sensor or a heart rate sensor may be used.

1…ヘッドマウントディスプレイ(頭部装着装置)、37…通話マイク(音声入力手段)、60,60a…表示部、72…撮像素子(撮像部)   DESCRIPTION OF SYMBOLS 1 ... Head mounted display (head mounting apparatus), 37 ... Call microphone (voice input means), 60, 60a ... Display part, 72 ... Imaging element (imaging part)

Claims (7)

ユーザーの眼の近傍に配置され画像を表示する表示部と、
前記表示部の近傍に配置されるとともに前記ユーザーの眼の下方近傍に配置され、前記ユーザーの目元を下方から撮影する撮像部と、
を有する、頭部装着装置。
A display unit arranged near the user's eye and displaying an image;
An imaging unit that is arranged in the vicinity of the display unit and in the vicinity of the lower part of the user's eye, and that captures the user's eyes from below;
A head-mounted device.
前記表示部と前記撮像部とが、少なくとも一部に共通の光学系を有する、請求項1に記載の頭部装着装置。   The head-mounted device according to claim 1, wherein the display unit and the imaging unit have a common optical system at least in part. 前記撮像部の画角が前記表示部の視認可能な画角よりも広い、請求項2に記載の頭部装着装置。   The head-mounted device according to claim 2, wherein an angle of view of the imaging unit is wider than a viewable angle of view of the display unit. 前記撮像部の焦点距離が前記表示部の焦点距離よりも短い、請求項2に記載の頭部装着装置。   The head-mounted device according to claim 2, wherein a focal length of the imaging unit is shorter than a focal length of the display unit. 前記撮像部の撮像方向を鉛直方向に移動させる移動機構を有する、請求項1又は2に記載の頭部装着装置。   The head-mounted device according to claim 1, further comprising a moving mechanism that moves an imaging direction of the imaging unit in a vertical direction. 前記撮像部を介して取得した前記ユーザーの目元画像に基づいて前記表示部に表示される画像の大きさ及び位置の少なくとも一方が変更される、請求項1から5のいずれか1項に記載の頭部装着装置。   6. The apparatus according to claim 1, wherein at least one of a size and a position of an image displayed on the display unit is changed based on an eye image of the user acquired through the imaging unit. Head mounted device. 前記ユーザーの発した音声を取得する音声入力手段が前記表示部の近傍に設けられている、請求項1から6のいずれか1項に記載の頭部装着装置。   The head-mounted device according to any one of claims 1 to 6, wherein voice input means for acquiring voice uttered by the user is provided in the vicinity of the display unit.
JP2012159769A 2012-07-18 2012-07-18 Head-mounted device Pending JP2014022942A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012159769A JP2014022942A (en) 2012-07-18 2012-07-18 Head-mounted device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012159769A JP2014022942A (en) 2012-07-18 2012-07-18 Head-mounted device

Publications (1)

Publication Number Publication Date
JP2014022942A true JP2014022942A (en) 2014-02-03

Family

ID=50197381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012159769A Pending JP2014022942A (en) 2012-07-18 2012-07-18 Head-mounted device

Country Status (1)

Country Link
JP (1) JP2014022942A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016090910A (en) * 2014-11-10 2016-05-23 株式会社日立エルジーデータストレージ Video projection device and head-mounted display
JPWO2015198477A1 (en) * 2014-06-27 2017-04-20 フォーブ インコーポレーテッド Gaze detection device
JPWO2016113951A1 (en) * 2015-01-15 2017-09-07 株式会社ソニー・インタラクティブエンタテインメント Head-mounted display device and video display system
CN114111718A (en) * 2021-11-23 2022-03-01 中国航空工业集团公司洛阳电光设备研究所 Horizontal detection method for head display visual axis

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2015198477A1 (en) * 2014-06-27 2017-04-20 フォーブ インコーポレーテッド Gaze detection device
US10445573B2 (en) 2014-06-27 2019-10-15 Fove, Inc. Gaze detection device
US10817721B2 (en) 2014-06-27 2020-10-27 Fove, Inc. Gaze detection device
JP2016090910A (en) * 2014-11-10 2016-05-23 株式会社日立エルジーデータストレージ Video projection device and head-mounted display
JPWO2016113951A1 (en) * 2015-01-15 2017-09-07 株式会社ソニー・インタラクティブエンタテインメント Head-mounted display device and video display system
CN114111718A (en) * 2021-11-23 2022-03-01 中国航空工业集团公司洛阳电光设备研究所 Horizontal detection method for head display visual axis
CN114111718B (en) * 2021-11-23 2023-09-19 中国航空工业集团公司洛阳电光设备研究所 Head display visual axis level detection method

Similar Documents

Publication Publication Date Title
JP6011072B2 (en) Control device and program
JP6550885B2 (en) Display device, display device control method, and program
JP6318462B2 (en) Display device
CN108535868B (en) Head-mounted display device and control method thereof
JP7087481B2 (en) Head-mounted display device, display control method, and computer program
JP2014021707A (en) Information input/output device and information input/output method
JP6123180B2 (en) Display device
JP6023568B2 (en) Head-mounted device
JP2003225207A (en) Visual axis detector
US20180214007A1 (en) Endoscope operation support system
JP6136090B2 (en) Electronic device and display device
JP2016122177A (en) Display device and control method of display device
JP2014022942A (en) Head-mounted device
JP2014021272A (en) Information input/output device and information input/output method
JP2013175947A (en) Head-mounted device
JP2013255012A (en) Head holding member and head-mounted information output device
JP2014044654A (en) Information input and output device
JP6015223B2 (en) Electronic device and display device
JP6719418B2 (en) Electronics
JP2013175909A (en) Head-mounted device
JP2013174730A (en) Information display device
JP2014022937A (en) Head-mounted information input/output device and head-mounted information input/output method
JP2013175945A (en) Head-mounted device
JP2013236223A (en) Head-mounted device and information processing device
JP2013174729A (en) Information display device, and information display method