以下、本発明を実施するための形態について、図面を参照して詳細に説明する。
本発明の実施形態では、必要に応じて図中にXYZ直交座標系を設け、このXYZ直交座標系を参照して各部の位置関係を説明する。このXYZ直交座標系において、水平面内の所定方向をX軸方向、水平面内においてX軸方向と直交する方向をY軸方向、X軸方向およびY軸方向それぞれと直交する方向(垂直方向)をZ軸方向とする。また、X軸、Y軸、およびZ軸それぞれの軸中心の回転(傾斜)角度を、θX、θY、およびθZとする。
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.
In the embodiment of the present invention, an XYZ orthogonal coordinate system is provided in the drawing as necessary, and the positional relationship of each part will be described with reference to this XYZ orthogonal coordinate system. In this XYZ orthogonal coordinate system, a predetermined direction in the horizontal plane is the X-axis direction, a direction orthogonal to the X-axis direction in the horizontal plane is the Y-axis direction, and a direction (vertical direction) orthogonal to each of the X-axis direction and the Y-axis direction is Z Axial direction. In addition, the rotation (inclination) angles of the X-axis, Y-axis, and Z-axis centers are θX, θY, and θZ.
図1は、本発明の一実施形態であるヘッドマウントディスプレイ(Head Mounted Display;HMD)を前方から見た斜視図である。図2は、本実施形態であるHMDを後方から見た斜視図である。図3は、HMDが備える耳元スピーカーを模式的に示した図である。図4(A),(B)は、本実施形態であるHMDの使用者への装着形態を示す図である。
FIG. 1 is a perspective view of a head mounted display (HMD) according to an embodiment of the present invention as viewed from the front. FIG. 2 is a perspective view of the HMD of this embodiment as viewed from the rear. FIG. 3 is a diagram schematically showing an ear speaker included in the HMD. 4 (A) and 4 (B) are diagrams showing a manner in which the HMD according to the present embodiment is attached to the user.
図1に示すように、HMD1は、ディスプレイ本体20と、使用者の頭部に装着されディスプレイ本体20を支持するヘッドバンド(頭部装着部)40とを備えた、単眼式の頭部装着型情報提示装置である。HMD1は、図4(A),(B)に示すように、左右眼いずれにも適用可能である。同図(A)には、使用者が右眼で表示部60を見ている状態、同図(B)には、使用者が左眼で表示部60を見ている状態が示されている。また、図2に示すように、ディスプレイ本体20とヘッドバンド40とは、連結ピン41を介して着脱可能に連結される。
なお、図1および図2では、ディスプレイ本体20の長手方向をY軸方向、ヘッドバンド40が使用者の頭部を挟む方向をX軸方向とする。
As shown in FIG. 1, the HMD 1 is a monocular head-mounted type that includes a display main body 20 and a headband (head mounting portion) 40 that is mounted on the user's head and supports the display main body 20. It is an information presentation device. The HMD 1 can be applied to both the left and right eyes as shown in FIGS. FIG. 4A shows a state where the user is viewing the display unit 60 with the right eye, and FIG. 4B shows a state where the user is viewing the display unit 60 with the left eye. . In addition, as shown in FIG. 2, the display main body 20 and the headband 40 are detachably connected via a connecting pin 41.
1 and 2, the longitudinal direction of the display main body 20 is defined as the Y-axis direction, and the direction in which the headband 40 sandwiches the user's head is defined as the X-axis direction.
次に、HMD1の構成について説明する。
ディスプレイ本体20は、主要な回路を内蔵するとともに、操作部や各種インターフェースを備えた装置本体部(本体部)21と、装置本体部21の先端部に連結された表示部60とを備える。
Next, the configuration of the HMD 1 will be described.
The display body 20 incorporates main circuits, and includes an apparatus main body (main body) 21 having an operation unit and various interfaces, and a display unit 60 connected to the distal end of the apparatus main body 21.
本実施形態では、装置本体部21においてヘッドバンド40との接続部が設けられている側の端部(+Y側の端部)を基端部とし、この基端部と反対側の端部(−Y側の端部)を先端部とする。また、装置本体部21をヘッドバンド40に装着した状態で、装置本体部21のヘッドバンド40側(+X側)を内側、ヘッドバンド40と反対側(−X側)を外側とする。
In the present embodiment, an end portion (+ Y side end portion) on the side where the connection portion with the headband 40 is provided in the apparatus main body portion 21 is a base end portion, and an end portion on the opposite side of the base end portion ( The end on the -Y side) is the tip. Further, in a state where the apparatus main body 21 is attached to the headband 40, the headband 40 side (+ X side) of the apparatus main body 21 is the inside, and the opposite side (−X side) from the headband 40 is the outside.
装置本体部21は、図5に示す略板状の筐体21Aを有する。装置本体部21の外面には、図1に示すように、メインスイッチ28と、タッチスイッチ(操作受付部)34と、集音マイク24とが、筐体21Aの長手方向に沿って配設されている。
メインスイッチ28はディスプレイ本体20の電源の入切操作を行うスイッチである。タッチスイッチ34は、表面のセンサー領域に手指等で触れることによりHMD1の各種操作を行う操作インターフェースである。タッチスイッチ34は、例えば、タッチパネルにより実現される。集音マイク24は、ディスプレイ本体20の周囲の音(環境音)を収集する外部マイクである。
The apparatus main body 21 has a substantially plate-shaped casing 21A shown in FIG. As shown in FIG. 1, a main switch 28, a touch switch (operation receiving unit) 34, and a sound collecting microphone 24 are disposed on the outer surface of the apparatus main body 21 along the longitudinal direction of the housing 21A. ing.
The main switch 28 is a switch for performing a power on / off operation of the display body 20. The touch switch 34 is an operation interface that performs various operations of the HMD 1 by touching the sensor area on the surface with a finger or the like. The touch switch 34 is realized by a touch panel, for example. The sound collection microphone 24 is an external microphone that collects sounds around the display body 20 (environmental sound).
タッチスイッチ34は、例えば使用者の手指による操作を受け付けると、その操作に応じて一つまたは複数の座標を検出し、この一つまたは複数の座標を示す座標値を含めた制御信号を、ここでは図示しない処理部に出力する。ただし、タッチスイッチ34は、複数の座標を時系列に検出する。
When the touch switch 34 receives an operation with a user's finger, for example, the touch switch 34 detects one or a plurality of coordinates according to the operation, and outputs a control signal including a coordinate value indicating the one or a plurality of coordinates. Then, it outputs to the processing part which is not illustrated. However, the touch switch 34 detects a plurality of coordinates in time series.
手指によるタッチスイッチ34の操作として、例えば、センサー領域の任意の一箇所に触れる操作、および、位置が相互に異なる二箇所または三箇所に略同時(同時を含む)に触れる操作(タップ操作)が適用できる。これらのタップ操作は、例えば、使用者により所定の指示が処理部123に与えられる場合に適用される。具体的に、一箇所のタップ操作は、例えば「確定」を示す操作である。また、二箇所のタップ操作は、例えば「取り消し(キャンセル)」を示す操作である。また、三箇所のタップ操作は、例えば「リセット」を示す操作である。
As an operation of the touch switch 34 with a finger, for example, an operation of touching an arbitrary place in the sensor area, and an operation of touching two or three positions at different positions (including a simultaneous operation) (tap operation). Applicable. These tap operations are applied, for example, when a predetermined instruction is given to the processing unit 123 by the user. Specifically, one tap operation is, for example, an operation indicating “confirm”. The two tap operations are operations indicating “cancel”, for example. The three tap operations are operations indicating “reset”, for example.
また、手指によるタッチスイッチ34の操作として、センサー領域の所望の一箇所に触れた状態から所望の方向に所望の距離だけなぞる操作(スライド操作)が適用できる。
また、手指によるタッチスイッチ34の操作として、センサー領域の任意の一箇所に触れた状態から所望の方向にはらう操作(フリック操作)が適用できる。
Further, as an operation of the touch switch 34 with a finger, an operation (sliding operation) of tracing a desired distance in a desired direction from a state in which a desired location in the sensor area is touched can be applied.
Further, as an operation of the touch switch 34 by a finger, an operation (flick operation) that can be applied in a desired direction from a state in which an arbitrary position in the sensor area is touched can be applied.
また、手指によるタッチスイッチ34の操作として、二本の指でセンサー領域の任意の二箇所に触れた状態から、これら二箇所の位置を互いに近付けるよう両指先の間隔を狭める操作(ピンチイン操作、ピンチクローズ操作)が適用できる。このピンチイン操作は、例えば、使用者により処理部123に対して音量減少の指示を与える場合に適用される。
また、手指によるタッチスイッチ34の操作として、二本の指でセンサー領域の任意の二箇所に触れた状態から、これら二箇所の位置を互いに遠ざけるよう両指先の間隔を広げる操作(ピンチアウト操作、ピンチオープン操作)が適用できる。このピンチアウト操作は、例えば、使用者により処理部123に対して音量増加の指示を与える場合に適用される。
In addition, as an operation of the touch switch 34 with fingers, an operation (pinch-in operation, pinch-in operation, or the like) is performed by touching two arbitrary positions in the sensor area with two fingers so as to bring the positions of these two positions closer to each other. Close operation) can be applied. This pinch-in operation is applied, for example, when the user gives an instruction to reduce the volume to the processing unit 123.
Further, as an operation of the touch switch 34 with fingers, an operation (pinch-out operation, pinch-out operation, etc.) is performed so that the positions of these two locations are moved away from each other from a state where two fingers touch any two locations in the sensor area. Pinch open operation) can be applied. This pinch-out operation is applied, for example, when the user gives an instruction to increase the volume to the processing unit 123.
装置本体部21には耳元スピーカー(音声出力部)23が収納されている。より具体的には、装置本体部21内面の基端部側には、図2に示すように、耳元スピーカー23と、オーディオコネクター26と、連結孔31を有するヘッドバンドヒンジ32とが設けられている。装置本体部21内側面の中央付近(中央を含む)には、心拍数センサー137が設けられている。装置本体部21の内側面の先端部側には、通話マイク37が設けられている。
An ear speaker (audio output unit) 23 is accommodated in the apparatus main body 21. More specifically, as shown in FIG. 2, an ear speaker 23, an audio connector 26, and a headband hinge 32 having a connection hole 31 are provided on the base end side of the inner surface of the apparatus main body 21. Yes. A heart rate sensor 137 is provided near the center (including the center) of the inner surface of the apparatus main body 21. A call microphone 37 is provided on the tip side of the inner side surface of the apparatus main body 21.
図2に示すように、Y軸に平行し且つ装置本体部21の中心を通るY1軸と、Z軸に平行し且つ耳元スピーカー23の中心を通るZ1軸を設けた場合、装置本体部21の内側から見た耳元スピーカー23は図3のようになる。
同図に示すように、耳元スピーカー23は、例えば9個のスピーカー23a,23b、23c,23d,23e,23f,23g,23h,23i(23a〜23iと略記する場合もある)を有する。
As shown in FIG. 2, when a Y1 axis parallel to the Y axis and passing through the center of the apparatus main body 21 and a Z1 axis parallel to the Z axis and passing through the center of the ear speaker 23 are provided, The ear speaker 23 viewed from the inside is as shown in FIG.
As shown in the figure, the ear speaker 23 has, for example, nine speakers 23a, 23b, 23c, 23d, 23e, 23f, 23g, 23h, and 23i (sometimes abbreviated as 23a to 23i).
図2および図3に示すように、耳元スピーカー23が有する9個のスピーカー23a〜23iは、Y1軸を境に両側が対称となるように設けられる。これは、図4(A)に示すように、使用者の右耳側に耳元スピーカー23を設置する場合と、同図(B)に示すように、使用者の左耳側に耳元スピーカー23を設置する場合とに対応させるためである。すなわち、装置本体部21をY1軸に対して180度回転させた向きでも使用可能にするため、耳元スピーカー23は、Y1軸を境に両側を対称形としている。
As shown in FIGS. 2 and 3, the nine speakers 23a to 23i of the ear speaker 23 are provided so that both sides are symmetrical with respect to the Y1 axis. As shown in FIG. 4 (A), when the ear speaker 23 is installed on the right ear side of the user, as shown in FIG. 4 (B), the ear speaker 23 is installed on the user's left ear side. This is to correspond to the case of installation. That is, the ear speaker 23 is symmetrical on both sides with respect to the Y1 axis so that the apparatus main body 21 can be used even when it is rotated 180 degrees with respect to the Y1 axis.
耳元スピーカー23は、使用者の耳の近傍に配置される。耳元スピーカー23は、音(音声)を出力する。これにより、HMD1は、使用者に音声情報を伝える。オーディオコネクター26は、例えば、図7に示すイヤホン100が接続される音声入出力端子である。ヘッドバンドヒンジ32はヘッドバンド40とのジョイント部である。通話マイク37には使用者の音声が入力される。
The ear speaker 23 is disposed in the vicinity of the user's ear. The ear speaker 23 outputs sound (voice). Thereby, HMD1 conveys audio | voice information to a user. The audio connector 26 is, for example, an audio input / output terminal to which the earphone 100 shown in FIG. 7 is connected. The headband hinge 32 is a joint part with the headband 40. The voice of the user is input to the call microphone 37.
心拍数センサー137は、使用者の顔の表面に接触させることで使用者の心拍数を測定するセンサーである。心拍数センサー137は、発光ダイオード等を備えた発光部と、使用者の皮膚内部で反射した光を検知する受光部とを有する。心拍数センサー137は、血流の変化による反射光量の変化を検出することで心拍数を計数する。心拍数センサー137は使用者の目の近くに配置されるが、発光部から赤外域の光を射出させる構成とすれば使用者にまぶしさを感じさせることはない。
The heart rate sensor 137 is a sensor that measures a user's heart rate by contacting the surface of the user's face. The heart rate sensor 137 includes a light emitting unit including a light emitting diode and the like, and a light receiving unit that detects light reflected inside the user's skin. The heart rate sensor 137 counts the heart rate by detecting a change in the amount of reflected light due to a change in blood flow. Although the heart rate sensor 137 is disposed near the user's eyes, the user does not feel glare if the light emitting unit emits infrared light.
装置本体部21の基端部側の側端面には、ユニバーサルシリアルバス(Universal Serial Bus;USB)コネクター25と、操作スイッチ30と、ビデオコネクター27とが設けられている。
USBコネクター25はUSBデバイスの接続端子である。本実施形態では、例えば、図6に示すリモートコントロール装置(リモートコントローラー、リモコン)140が接続される。
操作スイッチ30は、例えばトラックボールやスティック等のポインティングデバイスである。操作スイッチ30は表示部60に表示される画面に正対するように設けられている。これにより、操作スイッチ30における操作の左右方向と、上記画面の左右方向とが一致するので、使用者は画面を見ながら直感的に操作スイッチ30を操作することが可能である。
ビデオコネクター27は映像入出力端子である。
A universal serial bus (USB) connector 25, an operation switch 30, and a video connector 27 are provided on the side end surface on the base end side of the apparatus main body 21.
The USB connector 25 is a connection terminal for a USB device. In the present embodiment, for example, a remote control device (remote controller, remote controller) 140 shown in FIG. 6 is connected.
The operation switch 30 is a pointing device such as a trackball or a stick. The operation switch 30 is provided so as to face the screen displayed on the display unit 60. As a result, the left-right direction of the operation on the operation switch 30 matches the left-right direction of the screen, so that the user can intuitively operate the operation switch 30 while looking at the screen.
The video connector 27 is a video input / output terminal.
図5(A),(B)は、図2において、XY平面に平行で且つY1軸を含む面でディスプレイ本体20を切った断面図(水平断面図)である。図5(A),(B)に示すように、装置本体部21には、筐体21Aの長手方向に沿って延びる板状の回路基板29と、バッテリー33とが内蔵されている。回路基板29には、図示しない制御回路、電源回路等が実装されており、図示しない配線を介してディスプレイ本体20の各部と電気的に接続されている。
5A and 5B are cross-sectional views (horizontal cross-sectional views) of the display main body 20 cut along a plane parallel to the XY plane and including the Y1 axis in FIG. As shown in FIGS. 5A and 5B, the apparatus main body 21 incorporates a plate-like circuit board 29 extending along the longitudinal direction of the housing 21A and a battery 33. A control circuit, a power supply circuit, and the like (not shown) are mounted on the circuit board 29 and are electrically connected to each part of the display main body 20 via wiring (not shown).
装置本体部21の外側の面に露出するタッチスイッチ34の内側には、液晶パネルからなる表示パネル36と、バックライト35とが配置されている。本実施形態では、表示パネル36の表示画像がタッチスイッチ34を透過して表示される。表示パネル36およびバックライト35を、有機ELパネルや電気泳動パネルとしてもよい。また、耳元スピーカー23が、装置本体部21の内側の面に対して設けられ、タッチスイッチ34が、装置本体部21の外側の面に対して設けられている。図5(A),(B)それぞれには、スピーカー23h,23e,23bが示されている。
A display panel 36 composed of a liquid crystal panel and a backlight 35 are arranged inside the touch switch 34 exposed on the outer surface of the apparatus main body 21. In the present embodiment, the display image on the display panel 36 is displayed through the touch switch 34. The display panel 36 and the backlight 35 may be an organic EL panel or an electrophoresis panel. Further, the ear speaker 23 is provided on the inner surface of the apparatus main body 21, and the touch switch 34 is provided on the outer surface of the apparatus main body 21. Speakers 23h, 23e, and 23b are shown in FIGS. 5A and 5B, respectively.
ヘッドバンドヒンジ32は、筐体21Aに設けられた凹曲面状の収容部32aと、収容部32aに嵌合された球状部32bとからなるボールジョイントである。球状部32bは、球面状の側面部と、この側面部を挟むように互いに平行に形成された2つの平面部を有する。2つの平面部を垂直に貫くように連結孔31が形成されている。連結孔31は軸方向視で六角形状に形成されている。連結孔31にヘッドバンド40の連結ピン41が挿入されることによりディスプレイ本体20とヘッドバンド40とが連結される。
The headband hinge 32 is a ball joint composed of a concavely curved housing portion 32a provided in the housing 21A and a spherical portion 32b fitted to the housing portion 32a. The spherical portion 32b has a spherical side surface portion and two plane portions formed in parallel to each other so as to sandwich the side surface portion. A connecting hole 31 is formed so as to penetrate the two flat portions vertically. The connection hole 31 is formed in a hexagonal shape when viewed in the axial direction. The display main body 20 and the headband 40 are connected by inserting the connection pin 41 of the headband 40 into the connection hole 31.
ヘッドバンドヒンジ32を備えていることで、ディスプレイ本体20は、図1に示したA方向(ヘッドバンドヒンジ32を中心とするX軸回り)に回動させることができる。本実施形態において、ディスプレイ本体20の回転可能範囲は270度程度である。このX軸回りの回転動作により、図4(A)に示す右眼で画像を観察する形態と、同図(B)に示す左眼で画像を観察する形態との切替機能が実現される。
By providing the headband hinge 32, the display main body 20 can be rotated in the A direction (around the X axis centering on the headband hinge 32) shown in FIG. In the present embodiment, the rotatable range of the display body 20 is about 270 degrees. By the rotation operation around the X axis, a switching function between a form in which an image is observed with the right eye shown in FIG. 4A and a form in which an image is observed with the left eye shown in FIG.
またヘッドバンドヒンジ32はボールジョイントであるため、ディスプレイ本体20は図1に示すB方向(ヘッドバンドヒンジ32を中心とするZ軸回り)に揺動させることも可能である。この揺動操作により、ディスプレイ本体20の使用者の目や耳に対する位置を調整することができる。
Further, since the headband hinge 32 is a ball joint, the display main body 20 can be swung in the B direction (around the Z axis centering on the headband hinge 32) shown in FIG. By this swinging operation, the position of the display body 20 with respect to the user's eyes and ears can be adjusted.
ヘッドバンドヒンジ32近傍の心拍数センサー137は、装置本体部21の内面から突出するように設けられ、HMD1の装着時に使用者の顔の表面に当接可能である。バッテリー33は一次電池、二次電池のいずれであってもよい。
The heart rate sensor 137 in the vicinity of the headband hinge 32 is provided so as to protrude from the inner surface of the apparatus main body 21, and can contact the surface of the user's face when the HMD 1 is worn. The battery 33 may be either a primary battery or a secondary battery.
表示部60は、図1および図2に示すように、装置本体部21の先端部に連結されている。表示部60は、上面視(Z軸視)において湾曲した形状を有し、装置本体部21との連結部から先端側へ向かうに従って内側へ湾曲する形状を有する。表示部60の内面に、ファインダー開口部67が設けられている。表示部60の外面には、カメラ64が設けられている。
As shown in FIGS. 1 and 2, the display unit 60 is connected to the distal end portion of the apparatus main body unit 21. The display unit 60 has a curved shape in a top view (Z-axis view), and has a shape that curves inward as it goes from the connecting portion with the apparatus main body 21 toward the distal end side. A finder opening 67 is provided on the inner surface of the display unit 60. A camera 64 is provided on the outer surface of the display unit 60.
図5に示すように、表示部60は、ディスプレイヒンジ61を介して装置本体部21と連結されている。ディスプレイヒンジ61は、表示部60の筐体60Aに形成された凹曲面状の収容部61aと、装置本体部21に形成され収容部61aに嵌合された球状部61bとからなるボールジョイントである。
As shown in FIG. 5, the display unit 60 is connected to the apparatus main body unit 21 via a display hinge 61. The display hinge 61 is a ball joint composed of a concave curved housing 61a formed in the housing 60A of the display 60 and a spherical portion 61b formed in the apparatus main body 21 and fitted in the housing 61a. .
装置本体部21の球状部61bは、装置本体部21の外面先端部に形成された筐体21Aの長手方向に対して斜めに延びる傾斜面に、この傾斜面の法線方向(図5のY’軸方向)に突出するようにして設けられている。
The spherical portion 61b of the apparatus main body 21 has an inclined surface extending obliquely with respect to the longitudinal direction of the casing 21A formed at the front end of the outer surface of the apparatus main body 21, and the normal direction of the inclined surface (Y in FIG. 5). It is provided so as to protrude in the “axial direction”.
表示部60は、ディスプレイヒンジ61の球状部61bに対してY’軸回りに自在に回転させることができる。本実施形態では、ディスプレイヒンジ61が装置本体部21の上記傾斜面に設けられており、表示部60が内側に湾曲した形状を有している。
The display unit 60 can be freely rotated around the Y ′ axis with respect to the spherical portion 61 b of the display hinge 61. In the present embodiment, the display hinge 61 is provided on the inclined surface of the apparatus main body 21, and the display unit 60 has a shape curved inward.
また、ディスプレイヒンジ61がボールジョイントであることから、表示部60は、Y’軸回りの回転面に対して直交する方向の揺動も可能である。この揺動動作により、使用者によるファインダー開口部67の位置調整が容易になる。表示部60と装置本体部21との間隔を大きくすれば、表示部60の揺動幅を大きくすることができる。
すなわち、本実施形態によれば、保持部であるディスプレイヒンジ61は、表示部60を、少なくとも一つまたは複数の軸周りに揺動が可能である。
Further, since the display hinge 61 is a ball joint, the display unit 60 can swing in a direction orthogonal to the rotation plane around the Y ′ axis. This swinging operation facilitates position adjustment of the finder opening 67 by the user. If the interval between the display unit 60 and the apparatus main body unit 21 is increased, the swinging width of the display unit 60 can be increased.
That is, according to the present embodiment, the display hinge 61 serving as the holding unit can swing the display unit 60 around at least one or a plurality of axes.
ディスプレイヒンジ61の球状部61bには、球状部61bを高さ方向(Y’軸方向)に貫通する貫通孔61cが形成されている。貫通孔61cを介して、表示部60の内部と装置本体部21の内部とが連通されている。貫通孔61cには不図示のケーブルが挿通される。挿通されたケーブルを介して回路基板29と表示部60の各部とが電気的に接続される。
The spherical portion 61b of the display hinge 61 is formed with a through hole 61c that penetrates the spherical portion 61b in the height direction (Y′-axis direction). The inside of the display unit 60 and the inside of the apparatus main body unit 21 are communicated with each other through the through hole 61c. A cable (not shown) is inserted through the through hole 61c. The circuit board 29 and each part of the display unit 60 are electrically connected via the inserted cable.
表示部60は、ディスプレイヒンジ61の球状部61bに対してY’軸回りに自在に回転させることができる。これにより、図5(A)に示す視聴可能状態から表示部60を回転させることで、同図(B)に示す収容状態に移行することができる。本実施形態では、ディスプレイヒンジ61が装置本体部21の上記傾斜面に設けられており、表示部60が内側に湾曲した形状を有している。これにより、同図(B)に示す収容状態において、表示部60は装置本体部21の外面に沿うように配置される。
The display unit 60 can be freely rotated around the Y ′ axis with respect to the spherical portion 61 b of the display hinge 61. Thereby, it can transfer to the accommodation state shown to the figure (B) by rotating the display part 60 from the viewable state shown to FIG. 5 (A). In the present embodiment, the display hinge 61 is provided on the inclined surface of the apparatus main body 21, and the display unit 60 has a shape curved inward. Thereby, the display part 60 is arrange | positioned along the outer surface of the apparatus main body part 21 in the accommodation state shown to the same figure (B).
表示部60の内部には、バックライト62と、表示パネル63と、カメラ64と、プリズム65と、反射ミラー66と、前方ライト68と、前方スピーカー70と、結像レンズ71と、撮像素子72とが設けられている。
Inside the display unit 60, there are a backlight 62, a display panel 63, a camera 64, a prism 65, a reflection mirror 66, a front light 68, a front speaker 70, an imaging lens 71, and an image sensor 72. And are provided.
プリズム65は、上面視(Z軸視)で略三角形状の第1プリズム65aと第2プリズム65bとを互いの面で貼り合わせた構成を有する。この貼り合わせ面以外の第1プリズム65aの他の二面のうち、一方の面に対向する位置に、液晶パネルからなる表示パネル63が設けられている。表示パネル63の背面に表示パネル63を透過照明するバックライト62が配置されている。第1プリズム65aの他方の面に対向する位置に反射ミラー66が配置されている。反射ミラー66は、ファインダー開口部67のほぼ正面に位置する。
The prism 65 has a configuration in which a substantially triangular first prism 65a and a second prism 65b are bonded to each other on a top view (Z-axis view). A display panel 63 made of a liquid crystal panel is provided at a position facing one of the other two surfaces of the first prism 65a other than the bonding surface. A backlight 62 that transmits and illuminates the display panel 63 is disposed on the back surface of the display panel 63. A reflection mirror 66 is disposed at a position facing the other surface of the first prism 65a. The reflection mirror 66 is located substantially in front of the finder opening 67.
第2プリズム65bの貼り合わせ面以外の他の二面のうち、一方の面はファインダー開口部67に配置されたファインダー接眼面である。第2プリズム65bの他方の面に対向する位置には結像レンズ71を介して撮像素子72が対向配置されている。
Of the two surfaces other than the bonding surface of the second prism 65 b, one surface is a viewfinder eyepiece disposed in the viewfinder opening 67. An imaging element 72 is disposed opposite to the other surface of the second prism 65b via the imaging lens 71.
表示部60において、表示パネル63に表示された画像は、第1プリズム65a、反射ミラー66、第2プリズム65bを介してファインダー開口部67から射出され、使用者に観察される。また、ファインダー開口部67を見ている使用者の目元は、第2プリズム65bおよび結像レンズ71を介して撮像素子72上に結像される。撮像素子72を介して取得された目元の画像は、使用者の視線の方向や瞬き、表情の解析に用いられる。バックライト62は、撮像素子72による目元撮影の照明装置としても利用される。
In the display unit 60, the image displayed on the display panel 63 is emitted from the finder opening 67 through the first prism 65a, the reflection mirror 66, and the second prism 65b, and is observed by the user. The eye of the user who is looking at the finder opening 67 is imaged on the image sensor 72 via the second prism 65 b and the imaging lens 71. The eye image obtained through the image sensor 72 is used for analyzing the direction of the user's line of sight, blinking, and facial expression. The backlight 62 is also used as a lighting device for photographing the eye by the image sensor 72.
カメラ64は、例えば500万画素〜1000万画素の撮像素子を有し、オートフォーカス動作が可能に構成される。
本実施形態において、カメラ64の撮影方向は、使用者の視線方向と一致するように設定される。撮影方向と視線方向との調整は、機械的に行ってもよく、画像処理により行ってもよい。例えば、カメラ64を広角の映像を取得可能に構成し、使用者の目元画像から取得した視線方向の情報に基づいて、電気的に捕らえた映像の一部を、視線方向の映像として抜き出して表示パネル63に表示させる。これにより、カメラ64に調整機構を設けることなく使用者正面の映像の撮影、表示が可能となる。
The camera 64 includes, for example, an image sensor with 5 to 10 million pixels, and is configured to be able to perform an autofocus operation.
In the present embodiment, the shooting direction of the camera 64 is set to coincide with the user's line-of-sight direction. The adjustment between the photographing direction and the line-of-sight direction may be performed mechanically or by image processing. For example, the camera 64 is configured to be able to acquire a wide-angle image, and a part of the electrically captured image is extracted and displayed as an image in the gaze direction based on the information on the gaze direction acquired from the user's eye image. It is displayed on the panel 63. As a result, it is possible to shoot and display an image in front of the user without providing an adjustment mechanism in the camera 64.
前方ライト68は、例えば発光ダイオード(Light Emitting Diode;LED)ライトである。前方ライト68は、赤、緑、青の各色の発光素子を有し、任意の色を任意のタイミングで発光させることが可能に構成してもよい。前方ライト68は、発光色や発光タイミングにより外部に対して情報を表示する装置として用いてもよく、カメラ64で撮影する際の照明装置として用いてもよい。
The front light 68 is, for example, a light emitting diode (LED) light. The front light 68 may include red, green, and blue light emitting elements, and may be configured to emit any color at any timing. The front light 68 may be used as a device that displays information to the outside depending on the light emission color and the light emission timing, or may be used as an illumination device when photographing with the camera 64.
また、図5では図示を省略したが、本実施形態に係る表示部60にはレーザー発振器が設けられている。レーザー発振器は、例えば前方ライト68の近傍に設けることができる。レーザー発振器から射出される例えば赤色レーザー光を前方に照射することで、レーザー光によるポインティング(指標の表示)が可能である。
Although not shown in FIG. 5, the display unit 60 according to the present embodiment is provided with a laser oscillator. The laser oscillator can be provided in the vicinity of the front light 68, for example. By irradiating, for example, red laser light emitted from a laser oscillator forward, pointing (display of an index) with the laser light is possible.
次に、ヘッドバンド40について、図2を参照して説明する。ヘッドバンド40は、同図に示すように、使用者の頭部を挟持する一対のヘッドパット(装着部材)46、47と、第1ヘッドバンド43と、第2ヘッドバンド44と、回動機構56、57とを備えている。
Next, the headband 40 will be described with reference to FIG. As shown in the figure, the headband 40 includes a pair of head pads (mounting members) 46 and 47 that sandwich the user's head, a first headband 43, a second headband 44, and a rotation mechanism. 56, 57.
第1ヘッドバンド43は、全体として円弧状を成す弾性部材である。第1ヘッドバンド43の頂部に、第1ヘッドバンド43を折り曲げるためのジョイント部43aが設けられている。第1ヘッドバンド43の両端には、回動機構56、57を構成する軸受部43b、43cがそれぞれ設けられている。軸受部43b、43cよりもさらにバンド先端側に、ヘッドパット46、47が接続される軸受部43d、43eが設けられている。
The first headband 43 is an elastic member having an arc shape as a whole. A joint portion 43 a for bending the first headband 43 is provided on the top of the first headband 43. At both ends of the first headband 43, bearing portions 43b and 43c constituting the rotation mechanisms 56 and 57 are provided, respectively. Bearing portions 43d and 43e to which the head pads 46 and 47 are connected are provided further on the front end side of the band than the bearing portions 43b and 43c.
第2ヘッドバンド44は、全体として円弧状を成す弾性部材である。第2ヘッドバンド44の頂部には、第2ヘッドバンド44を折り曲げるためのジョイント部44aが設けられている。第2ヘッドバンド44の両端には、それぞれ回動機構56、57を構成する軸部材44b、44cが設けられている。
The second headband 44 is an elastic member having an arc shape as a whole. A joint portion 44 a for bending the second headband 44 is provided on the top of the second headband 44. At both ends of the second headband 44, shaft members 44b and 44c constituting rotation mechanisms 56 and 57 are provided.
また本実施形態において、第2ヘッドバンド44は、ステンレス等の金属からなるバネ部材48の表面を樹脂等の柔軟な材料で被覆した構成を有する。この第2ヘッドバンド44のバネ部材48において使用者の頭部を挟持するバネ力を発生させる。また第2ヘッドバンド44は第1ヘッドバンド43と比較して広い幅に形成されている。ジョイント部44aの形成部分は他のバンド部分よりもさらに広く形成された標章表示部49とされている。標章表示部49には、シールや印刷により製品タグ等が付される。なお、第2ヘッドバンド44の全体を金属で形成してもよい。
In the present embodiment, the second headband 44 has a configuration in which the surface of the spring member 48 made of a metal such as stainless steel is covered with a flexible material such as a resin. The spring member 48 of the second headband 44 generates a spring force for clamping the user's head. The second headband 44 is formed wider than the first headband 43. The formation part of the joint part 44a is a mark display part 49 formed wider than the other band parts. A product tag or the like is attached to the mark display section 49 by sticker or printing. The entire second headband 44 may be made of metal.
ヘッドパット46は、板状の支持板46aと、支持板46aの一面側に設けられた断面アーチ状の弾性部材46bとを有する。支持板46aの弾性部材46bと反対側の面に、当該面に垂直な姿勢で概略六角柱状の連結ピン41が立設されている。連結ピン41は、第1ヘッドバンド43の一方の先端に設けられた軸受部43dに軸支されている。これにより、ヘッドパット46は連結ピン41回りに回転可能である。
The head pad 46 includes a plate-like support plate 46a and an elastic member 46b having an arched cross section provided on one surface side of the support plate 46a. On the surface of the support plate 46a opposite to the elastic member 46b, a substantially hexagonal column-shaped connecting pin 41 is erected in a posture perpendicular to the surface. The connecting pin 41 is pivotally supported by a bearing portion 43 d provided at one end of the first headband 43. As a result, the head pad 46 can rotate around the connecting pin 41.
ヘッドパット47は、板状の支持板47aと、支持板47aの一方の面に設けられた断面アーチ状の弾性部材47bとを有する。支持板47aの弾性部材47bと反対側の面には、軸部材47cが設けられている。軸部材47cは、第1ヘッドバンド43の先端に設けられた軸受部43eに軸支されている。これにより、ヘッドパット47は、軸部材47c回りに回転可能である。
The head pad 47 includes a plate-like support plate 47a and an elastic member 47b having an arcuate cross section provided on one surface of the support plate 47a. A shaft member 47c is provided on the surface of the support plate 47a opposite to the elastic member 47b. The shaft member 47 c is pivotally supported by a bearing portion 43 e provided at the tip of the first headband 43. Thereby, the head pad 47 can rotate around the shaft member 47c.
回動機構56,57において、第1ヘッドバンド43に対し第2ヘッドバンド44が矢印C方向に回動可能となっている。そして、第2ヘッドバンド44は、回動機構56によって第1ヘッドバンド43から離れる方向に回動付勢される一方、回動機構57によって第1ヘッドバンド43に対して所定角度以内の範囲に回動規制される。これにより、第2ヘッドバンド44は第1ヘッドバンド43に対して所定の角度となるように保持される。したがって、回動機構56、57は、ヘッドバンド40における角度保持機構として機能する。
In the rotation mechanisms 56 and 57, the second headband 44 can rotate in the direction of arrow C with respect to the first headband 43. The second headband 44 is urged to rotate in a direction away from the first headband 43 by the rotation mechanism 56, while being within a predetermined angle with respect to the first headband 43 by the rotation mechanism 57. Rotation is restricted. As a result, the second headband 44 is held at a predetermined angle with respect to the first headband 43. Therefore, the rotation mechanisms 56 and 57 function as an angle holding mechanism in the headband 40.
図6は、本実施形態のリモコンを示す斜視図である。リモコン140は、筐体140Aと、タッチパッド141と、操作スイッチ147と、USBコネクター142と、インジケーター143a、143b、143cと、取付クリップ144と、インジケータースイッチ150とを備える。
FIG. 6 is a perspective view showing the remote controller of the present embodiment. The remote controller 140 includes a housing 140A, a touch pad 141, an operation switch 147, a USB connector 142, indicators 143a, 143b, and 143c, a mounting clip 144, and an indicator switch 150.
リモコン140は、USBケーブル148の一方の端子をUSBコネクター142に接続し、他方の端子を装置本体部21のUSBコネクター25に接続することで、装置本体部21と電気的に接続される。USBケーブル148としては市販のUSBケーブルを用いることができる。本実施形態の場合、USBケーブル148の途中に複数のクリップ149が設けられている。複数のクリップ149は、例えばUSBケーブル148を第2ヘッドバンド44に沿わせた状態で固定するために用いることができる。
The remote controller 140 is electrically connected to the apparatus main body 21 by connecting one terminal of the USB cable 148 to the USB connector 142 and connecting the other terminal to the USB connector 25 of the apparatus main body 21. A commercially available USB cable can be used as the USB cable 148. In the present embodiment, a plurality of clips 149 are provided in the middle of the USB cable 148. The plurality of clips 149 can be used to fix the USB cable 148 along the second headband 44, for example.
リモコン140には、ディスプレイ本体20や他の電子機器と無線通信を行うための通信回路が内蔵されている。通信回路の通信方式としては、例えば、Bluetooth(登録商標)、無線LAN、赤外線通信、UWB(Ultera Wide Band)、Transfer Jet等を適用することができる。この通信回路により、USBケーブル148を接続していなくてもディスプレイ本体20との通信が可能である。
The remote control 140 incorporates a communication circuit for performing wireless communication with the display main body 20 and other electronic devices. As a communication system of the communication circuit, for example, Bluetooth (registered trademark), wireless LAN, infrared communication, UWB (Ultra Wide Band), Transfer Jet, or the like can be applied. With this communication circuit, communication with the display main body 20 is possible even when the USB cable 148 is not connected.
リモコン140は、角速度センサー、加速度センサー、方位センサーを内蔵してもよい。これらのセンサーで検出した情報についても、上記の通信回路を介してディスプレイ本体20へ通信可能である。
The remote controller 140 may incorporate an angular velocity sensor, an acceleration sensor, and an orientation sensor. Information detected by these sensors can also be communicated to the display body 20 via the communication circuit.
タッチパッド141は筐体140Aの一方の主面に設けられている。タッチパッド141は、使用者がタッチすることによりディスプレイ本体20を操作するための操作部である。タッチパッド141の背面側の筐体140A内部には、装置本体部21のタッチスイッチ34と同様に表示パネルやバックライトが設けられていてもよい。
The touch pad 141 is provided on one main surface of the housing 140A. The touch pad 141 is an operation unit for operating the display body 20 when the user touches it. A display panel and a backlight may be provided in the housing 140 </ b> A on the back side of the touch pad 141, similarly to the touch switch 34 of the apparatus main body 21.
操作スイッチ147は、リモコン140やディスプレイ本体20を手動操作するためのスイッチである。操作スイッチ147は、必要に応じて設けられていればよい。筐体140Aの側面に設けられたインジケータースイッチ150は、インジケーター143a〜143cを利用した所定動作を行わせるためのスイッチである。
The operation switch 147 is a switch for manually operating the remote controller 140 and the display main body 20. The operation switch 147 may be provided as necessary. The indicator switch 150 provided on the side surface of the housing 140A is a switch for performing a predetermined operation using the indicators 143a to 143c.
USBコネクター142は、装置本体部21との接続のほか、リモコン140が充電式のバッテリーを内蔵している場合にはリモコン140の充電端子や、例えばコンピュータ装置との接続にも用いられる。
またリモコン140がバッテリーを内蔵している場合には、装置本体部21への給電端子として用いることもできる。リモコン140のバッテリーを補助電源として使用可能にすることで、装置本体部21のバッテリー容量を小さくでき、装置本体部21を小型軽量化することができる。
The USB connector 142 is used not only for connection with the apparatus main body 21 but also for connection with a charging terminal of the remote control 140 or, for example, a computer device when the remote control 140 has a built-in rechargeable battery.
When the remote controller 140 has a built-in battery, it can also be used as a power supply terminal for the apparatus main body 21. By making the battery of the remote control 140 usable as an auxiliary power source, the battery capacity of the device main body 21 can be reduced, and the device main body 21 can be reduced in size and weight.
インジケーター143a、143b、143cは、タッチパッド141の周囲に配置されている。本実施形態では、タッチパッド141の一辺に沿う位置にインジケーター143aが配置され、インジケーター143aに対してタッチパッド141を挟んだ反対側にインジケーター143bとインジケーター143cとが配置されている。
Indicators 143a, 143b, and 143c are arranged around the touch pad 141. In the present embodiment, the indicator 143a is arranged at a position along one side of the touch pad 141, and the indicator 143b and the indicator 143c are arranged on the opposite side of the touch pad 141 with respect to the indicator 143a.
インジケーター143a〜143cはLED等の発光素子を備えている。本実施形態では、インジケーター143aは緑色の発光素子、インジケーター143bはオレンジ色の発光素子、インジケーター143cは青色の発光素子をそれぞれ備えている。これらの発光素子は制御されたタイミングでパターン発光可能に構成されている。インジケーター143a〜143cの上記のパターン発光は、筐体140A側面のインジケータースイッチ150を操作することで入切することができる。
The indicators 143a to 143c include light emitting elements such as LEDs. In the present embodiment, the indicator 143a includes a green light emitting element, the indicator 143b includes an orange light emitting element, and the indicator 143c includes a blue light emitting element. These light emitting elements are configured to be capable of pattern light emission at controlled timing. The pattern light emission of the indicators 143a to 143c can be turned on and off by operating the indicator switch 150 on the side surface of the housing 140A.
インジケーター143a〜143cのパターン発光は、例えばリモコン140の状態(例えばリモコン140の上下左右の傾き状態)を示すものである。このパターン発光を装置本体部21のカメラ64で撮影し、取得した画像を解析することにより、リモコン140の状態を装置本体部21に伝達することが可能である。インジケーター143a〜143cを利用した情報伝達方式は、Bluetooth(登録商標)等の無線通信を用いた場合と比較して電力消費を抑えることができる。
The pattern light emission of the indicators 143a to 143c indicates, for example, the state of the remote controller 140 (for example, the up / down / left / right tilt state of the remote controller 140). It is possible to transmit the state of the remote controller 140 to the apparatus main body 21 by photographing this pattern emission with the camera 64 of the apparatus main body 21 and analyzing the acquired image. The information transmission method using the indicators 143a to 143c can reduce power consumption as compared with the case where wireless communication such as Bluetooth (registered trademark) is used.
取付クリップ144は、筐体140Aのタッチパッド141と反対側の面に設けられている。本実施形態の場合、取付クリップ144は、一端を筐体140Aに固定された側面視S形のバネ板部材である。取付クリップ144により、リモコン140を使用者の衣服やベルト等に装着することができる。
The attachment clip 144 is provided on the surface of the housing 140A opposite to the touch pad 141. In the case of this embodiment, the attachment clip 144 is an S-shaped spring plate member having one end fixed to the housing 140A. With the attachment clip 144, the remote controller 140 can be attached to a user's clothes, belt, or the like.
図7は、HMD1に適用されるステレオイヤホンの斜視図である。
ステレオイヤホン100は、オーディオコネクター101と、ケーブル102と、第1小型スピーカー103と、第2小型スピーカー104と、集音マイク105と、複数のクリップ106とを有する。
FIG. 7 is a perspective view of a stereo earphone applied to the HMD 1.
Stereo earphone 100 includes an audio connector 101, a cable 102, a first small speaker 103, a second small speaker 104, a sound collecting microphone 105, and a plurality of clips 106.
オーディオコネクター101はケーブル102の一方の端部に設けられている。オーディオコネクター101は、一般的な4極φ3.5mmのミニプラグである。4極の内訳は、集音マイク105、第1小型スピーカー103、第2小型スピーカー104、グランド(GND)である。ケーブル102は、オーディオコネクター101の近傍において二分岐され、分岐されたケーブルの先端に第1小型スピーカー103が設けられている。ケーブル102の他方の端部には、第2小型スピーカー104と集音マイク105とが設けられている。複数のクリップ106は、ケーブル102上に所定の間隔で配置されている。
The audio connector 101 is provided at one end of the cable 102. The audio connector 101 is a general 4-pole φ3.5 mm mini plug. The breakdown of the four poles is the sound collection microphone 105, the first small speaker 103, the second small speaker 104, and the ground (GND). The cable 102 is bifurcated in the vicinity of the audio connector 101, and a first small speaker 103 is provided at the end of the branched cable. A second small speaker 104 and a sound collecting microphone 105 are provided at the other end of the cable 102. The plurality of clips 106 are arranged on the cable 102 at a predetermined interval.
ステレオイヤホン100は、オーディオコネクター101をディスプレイ本体20のオーディオコネクター26に接続して使用される。ステレオイヤホン100が接続されると、ディスプレイ本体20の耳元スピーカー23と、表示部60の通話マイク37は無効化される。また表示部60の前方スピーカー70も必要に応じて無効化される。そして、ステレオイヤホン100の第1小型スピーカー103、第2小型スピーカー104、および集音マイク105が有効化される。
The stereo earphone 100 is used by connecting the audio connector 101 to the audio connector 26 of the display body 20. When the stereo earphone 100 is connected, the ear speaker 23 of the display body 20 and the call microphone 37 of the display unit 60 are invalidated. Further, the front speaker 70 of the display unit 60 is also invalidated as necessary. Then, the first small speaker 103, the second small speaker 104, and the sound collecting microphone 105 of the stereo earphone 100 are activated.
ステレオイヤホン100の第1小型スピーカー103は、ディスプレイ本体20が配置された側の使用者の耳に装着され、第2小型スピーカー104は第1小型スピーカー103と反対側の耳に装着される。このとき、ケーブル102は、クリップ106によって第2ヘッドバンド44に固定することができる。
The first small speaker 103 of the stereo earphone 100 is attached to the ear of the user on the side where the display main body 20 is disposed, and the second small speaker 104 is attached to the ear on the opposite side of the first small speaker 103. At this time, the cable 102 can be fixed to the second headband 44 by the clip 106.
また、ステレオイヤホン100の集音マイク105と、ディスプレイ本体20において筐体21Aの外側面に設けられた集音マイク24とにより、ステレオ録音が可能である。例えば、図4(A)に示すようにディスプレイ本体20が右眼側に配置されているとすれば、ディスプレイ本体20の集音マイク24は使用者の右側の音を収集し、左耳に装着された集音マイク105は使用者の左側の音を収集する。なお、ステレオイヤホン100の第1小型スピーカー103から右チャンネルの音声が出力され、第2小型スピーカー104からは左チャンネルの音声が出力される。
Further, stereo recording can be performed by the sound collecting microphone 105 of the stereo earphone 100 and the sound collecting microphone 24 provided on the outer surface of the housing 21 </ b> A in the display main body 20. For example, if the display main body 20 is arranged on the right eye side as shown in FIG. 4A, the sound collecting microphone 24 of the display main body 20 collects the sound on the right side of the user and is attached to the left ear. The collected sound collecting microphone 105 collects the sound on the left side of the user. Note that the right channel sound is output from the first small speaker 103 of the stereo earphone 100, and the left channel sound is output from the second small speaker 104.
一方、図4(B)に示すように左眼側にディスプレイ本体20が配置されている場合には、ディスプレイ本体20の集音マイク24が使用者の左側の音を収集し、右耳に装着された集音マイク105が使用者の右側の音を収集する。ステレオイヤホン100の第1小型スピーカー103から左チャンネルの音声が出力され、第2小型スピーカー104からは右チャンネルの音声が出力される。
On the other hand, when the display main body 20 is arranged on the left eye side as shown in FIG. 4B, the sound collecting microphone 24 of the display main body 20 collects the sound of the left side of the user and is attached to the right ear. The collected sound collecting microphone 105 collects the sound on the right side of the user. The left channel sound is output from the first small speaker 103 of the stereo earphone 100, and the right channel sound is output from the second small speaker 104.
次に、以上の構成を備えたHMD1におけるヘッドバンド40の動作等について、図4および図8を参照して説明する。
図8は、ヘッドバンドを説明するための図である。
Next, the operation of the headband 40 in the HMD 1 having the above configuration will be described with reference to FIG. 4 and FIG.
FIG. 8 is a diagram for explaining the headband.
図4において、例えば、右眼観察形態から左眼観察形態へ切り替えるには、ヘッドバンド40に連結されたディスプレイ本体20を、ヘッドバンドヒンジ32の回転軸回り(図中A方向)に180度程度回転させる。また、ヘッドバンド40において、第2ヘッドバンド44を回動機構56,57の軸回りに揺動させ、第1ヘッドバンド43に対して反対側に移動させる。この操作により、同図(B)に示すように、使用者の左眼側にディスプレイ本体20が配置され、しかも第2ヘッドバンド44が使用者の後頭部側に配置された左眼観察形態に切り替えることができる。
In FIG. 4, for example, to switch from the right-eye observation mode to the left-eye observation mode, the display body 20 connected to the headband 40 is about 180 degrees around the rotation axis of the headband hinge 32 (A direction in the figure). Rotate. In the headband 40, the second headband 44 is swung around the axes of the rotation mechanisms 56 and 57 and moved to the opposite side with respect to the first headband 43. By this operation, as shown in FIG. 5B, the display main body 20 is arranged on the left eye side of the user, and the second headband 44 is switched to the left eye observation form arranged on the occipital side of the user. be able to.
本実施形態では、図8に示すように、第1ヘッドバンド43の円弧高さr1を、第2ヘッドバンド44の円弧高さr2よりも小さくしている。これにより、第2ヘッドバンド44を第1ヘッドバンド43と交差させるように移動させても、互いに干渉することなく円滑に前後を入れ替えることができる。
同図に示す円弧高さr1は、同軸に配置された回動機構56、57の回転軸Lの中央位置Cから第1ヘッドバンド43までの距離の最大値である。また円弧高さr2は、回転軸Lの中央位置Cから第2ヘッドバンド44までの距離の最大値である。
In the present embodiment, as shown in FIG. 8, the arc height r <b> 1 of the first headband 43 is smaller than the arc height r <b> 2 of the second headband 44. As a result, even if the second headband 44 is moved so as to intersect the first headband 43, the front and rear can be switched smoothly without interfering with each other.
The arc height r <b> 1 shown in the figure is the maximum value of the distance from the center position C of the rotation axis L of the rotation mechanisms 56 and 57 arranged coaxially to the first headband 43. The arc height r2 is the maximum value of the distance from the center position C of the rotation axis L to the second headband 44.
なお、第1ヘッドバンド43の円弧高さr1を第2ヘッドバンド44の円弧高さr2よりも大きくし、第2ヘッドバンド44を第1ヘッドバンド43の内側で揺動させる構成としてもよい。
The arc height r1 of the first headband 43 may be larger than the arc height r2 of the second headband 44, and the second headband 44 may be swung inside the first headband 43.
次に、HMD1の電気的な機能構成について説明する。
図9は、本実施形態であるHMD1の機能構成を示すブロック図である。同図に示すように、HMD1は、処理部123を中心として種々の電気回路を備える。処理部123は、中央処理装置(Central Processing Unit;CPU)であり、HMD1の各回路に接続されるとともに、HMD1全体を制御する。処理部123は、音声出力制御部の機能を有する。
Next, the electrical functional configuration of the HMD 1 will be described.
FIG. 9 is a block diagram illustrating a functional configuration of the HMD 1 according to the present embodiment. As shown in the figure, the HMD 1 includes various electric circuits with a processing unit 123 as a center. The processing unit 123 is a central processing unit (CPU), and is connected to each circuit of the HMD 1 and controls the entire HMD 1. The processing unit 123 has a function of an audio output control unit.
バッテリー33は、電力を電源回路120に供給する。
電源回路120は、バッテリー33から供給された電力を、処理部123の制御によりHMD1の各部に供給する。
The battery 33 supplies power to the power supply circuit 120.
The power supply circuit 120 supplies the power supplied from the battery 33 to each unit of the HMD 1 under the control of the processing unit 123.
処理部123には、エンコーダー129、デコーダー121、電源回路120、BLドライバ126、操作スイッチ30、フラッシュメモリー122、BT通信回路130、WiFi通信回路131、加速度センサー132、地磁気センサー133、前方ライト68、3G/LTE通信回路138、レーザー発振器73、角速度センサー134、GPSセンサー135、温湿度センサー136、心拍数センサー137、メモリー127、メインスイッチ28、タッチスイッチ34、およびスピーカー制御部163が接続されている。
The processing unit 123 includes an encoder 129, a decoder 121, a power supply circuit 120, a BL driver 126, an operation switch 30, a flash memory 122, a BT communication circuit 130, a WiFi communication circuit 131, an acceleration sensor 132, a geomagnetic sensor 133, a front light 68, The 3G / LTE communication circuit 138, laser oscillator 73, angular velocity sensor 134, GPS sensor 135, temperature / humidity sensor 136, heart rate sensor 137, memory 127, main switch 28, touch switch 34, and speaker control unit 163 are connected. .
エンコーダー129は、音声信号および映像信号を所定方式の音声データおよび映像データにエンコード(符号化)する。エンコーダー129には、カメラ64、撮像素子72、集音マイク24、通話マイク37、オーディオコネクター26、ビデオコネクター27が接続されている。
The encoder 129 encodes (encodes) the audio signal and the video signal into audio data and video data of a predetermined method. Connected to the encoder 129 are a camera 64, an image sensor 72, a sound collection microphone 24, a call microphone 37, an audio connector 26, and a video connector 27.
エンコーダー129には、集音マイク24および通話マイク37から入力される音声信号、カメラ64から入力される映像信号、オーディオコネクター26から入力される音声信号、ビデオコネクター27から入力される映像信号、および、使用者の目元を撮影する撮像素子72の映像信号が入力される。エンコーダー129に入力された音声信号および映像信号は、音声データおよび映像データにエンコードされた後、処理部123に入力される。入力された音声データおよび映像データは、処理部123による再生動作に用いられたり、フラッシュメモリー122に記録されたりする。
The encoder 129 includes an audio signal input from the sound collection microphone 24 and the call microphone 37, a video signal input from the camera 64, an audio signal input from the audio connector 26, a video signal input from the video connector 27, and The video signal of the image sensor 72 that captures the eyes of the user is input. The audio signal and video signal input to the encoder 129 are encoded into audio data and video data, and then input to the processing unit 123. The input audio data and video data are used for a reproduction operation by the processing unit 123 or recorded in the flash memory 122.
デコーダー121は、音声データおよび映像データを、音声信号および映像信号にデコード(復号)する。デコーダー121には、LCDドライバ125、スピーカーアンプ162、オーディオコネクター26、およびビデオコネクター27が接続されている。LCDドライバ125は、液晶パネル用の駆動制御装置であり、表示パネル36および表示パネル63に接続されている。スピーカーアンプ162は、音声信号を増幅させる装置であり、前方スピーカー70およびスピーカー制御部163に接続されている。
The decoder 121 decodes (decodes) audio data and video data into audio signals and video signals. An LCD driver 125, a speaker amplifier 162, an audio connector 26, and a video connector 27 are connected to the decoder 121. The LCD driver 125 is a drive control device for a liquid crystal panel, and is connected to the display panel 36 and the display panel 63. The speaker amplifier 162 is a device that amplifies an audio signal, and is connected to the front speaker 70 and the speaker control unit 163.
フラッシュメモリー122は、装置本体部21の使用者への装着状態(左眼観察用の状態または右眼観察用の状態)ごとの設定履歴情報を記憶する。この設定履歴情報は、装着状態別に、少なくとも前回使用時にスピーカー制御部163が動作させたスピーカー(スピーカー23a〜23iのいずれか)を指定する音声出力位置情報と、音量を示す音量情報とを含む。
The flash memory 122 stores setting history information for each wearing state (left eye observation state or right eye observation state) of the apparatus main body 21 to the user. This setting history information includes at least audio output position information for designating a speaker (any one of the speakers 23a to 23i) operated by the speaker control unit 163 at the time of previous use, and volume information indicating volume, for each wearing state.
なお、フラッシュメモリー122は、耳元スピーカー23における9個のスピーカー23a〜23iのうち中央のスピーカー23eを指定する音声出力位置情報と、あらかじめ決められた音量を示す音量情報とを、標準設定情報として、左眼観察用および右眼観察用それぞれの装着状態に対応させてあらかじめ記憶している。
スピーカー制御部163は、処理部123からの信号に応じて、耳元スピーカー23が有するスピーカー23a〜23iのいずれか一つを動作させて音声を出力させる。
Note that the flash memory 122 uses, as standard setting information, audio output position information for designating the center speaker 23e among the nine speakers 23a to 23i in the ear speaker 23 and volume information indicating a predetermined volume. Pre-stored in correspondence with the left eye observation and right eye observation mounting states.
In response to a signal from the processing unit 123, the speaker control unit 163 operates any one of the speakers 23a to 23i included in the ear speaker 23 to output sound.
映像データを再生する場合、フラッシュメモリー122に記録された映像データ、あるいはエンコーダー129から入力される映像データは、処理部123を介してデコーダー121に入力される。デコーダー121に入力された映像データは、映像信号にデコードされた後、LCDドライバ125を介して表示パネル36、63に供給される。そして、映像信号が入力された表示パネル36または表示パネル63に映像データに基づく映像が表示される。また、デコーダー121からビデオコネクター27に出力される映像信号は、ビデオコネクター27を介して外部機器に出力される。
When reproducing the video data, the video data recorded in the flash memory 122 or the video data input from the encoder 129 is input to the decoder 121 via the processing unit 123. The video data input to the decoder 121 is decoded into a video signal and then supplied to the display panels 36 and 63 via the LCD driver 125. Then, a video based on the video data is displayed on the display panel 36 or the display panel 63 to which the video signal is input. The video signal output from the decoder 121 to the video connector 27 is output to an external device via the video connector 27.
また映像の表示に際して、処理部123は、必要に応じて表示パネル36用のバックライト35、および表示パネル63用のバックライト62を点灯させる。BLドライバ126は、バックライト用の駆動制御装置であり、バックライト35およびバックライト62に接続されている。処理部123は、BLドライバ126に駆動信号を送信し、BLドライバ126はバックライト35、62を個々に点灯させる。
Further, when displaying the video, the processing unit 123 turns on the backlight 35 for the display panel 36 and the backlight 62 for the display panel 63 as necessary. The BL driver 126 is a drive control device for backlight, and is connected to the backlight 35 and the backlight 62. The processing unit 123 transmits a drive signal to the BL driver 126, and the BL driver 126 lights the backlights 35 and 62 individually.
音声データを再生する場合、フラッシュメモリー122に記録された音声データ、あるいはエンコーダー129から入力される音声データは、処理部123を介してデコーダー121に入力される。デコーダー121に入力された音声データは、音声信号にデコードされた後、スピーカーアンプ162を介して耳元スピーカー23および前方スピーカー70のいずれか一方、または両方に出力される。そして、音声信号を入力された耳元スピーカー23または前方スピーカー70から音声が出力される。また、デコーダー121からオーディオコネクター26に出力される音声信号は、オーディオコネクター26を介してステレオイヤホン100に出力される。
When reproducing the audio data, the audio data recorded in the flash memory 122 or the audio data input from the encoder 129 is input to the decoder 121 via the processing unit 123. The audio data input to the decoder 121 is decoded into an audio signal, and then output to one or both of the ear speaker 23 and the front speaker 70 via the speaker amplifier 162. Then, sound is output from the ear speaker 23 or the front speaker 70 to which the sound signal is input. The audio signal output from the decoder 121 to the audio connector 26 is output to the stereo earphone 100 via the audio connector 26.
本実施形態において、耳元スピーカー23および前方スピーカー70は、モノラル音声を出力する。よって、耳元スピーカー23および前方スピーカー70からは、左右の音声信号が合成された音が発せられる。
In the present embodiment, the ear speaker 23 and the front speaker 70 output monaural sound. Therefore, the ear speaker 23 and the front speaker 70 emit a sound in which the left and right audio signals are synthesized.
一方、ステレオイヤホン100に音声信号が出力される場合、図7に示す第1小型スピーカー103および第2小型スピーカー104のそれぞれ左チャンネルまたは右チャンネルの音が出力される。ここで、本実施形態のHMD1は左右両用であるため、装着位置に応じてステレオイヤホン100への音声信号のチャンネルが切り替わる。すなわち、ディスプレイ本体20が右眼に装着されている場合には、第1小型スピーカー103に右チャンネル、第2小型スピーカー104に左チャンネルの音が出力される。ディスプレイ本体20が左眼に装着されている場合には第1小型スピーカー103に左チャンネル、第2小型スピーカー104に右チャンネルの音が出力される。
On the other hand, when an audio signal is output to the stereo earphone 100, the sound of the left channel or the right channel of the first small speaker 103 and the second small speaker 104 shown in FIG. Here, since the HMD 1 of this embodiment is for both left and right, the channel of the audio signal to the stereo earphone 100 is switched according to the mounting position. That is, when the display body 20 is attached to the right eye, the right channel sound is output to the first small speaker 103 and the left channel sound is output to the second small speaker 104. When the display body 20 is attached to the left eye, the left channel sound is output to the first small speaker 103 and the right channel sound is output to the second small speaker 104.
メモリー127には、処理部123によって実行される制御プログラムが記憶されている。
全体の電源の入切を行うメインスイッチ28や、画面内でのポインティング操作を行うための操作スイッチ30、あるいはタッチ操作により各種操作を行うタッチスイッチ34が使用者に操作されると、これらのスイッチから操作に基づく制御信号が処理部123へ出力される。処理部123は、制御信号により操作を検出し、上記の制御プログラムに規定された動作を実行する。
The memory 127 stores a control program executed by the processing unit 123.
When the user operates the main switch 28 for turning on / off the entire power source, the operation switch 30 for performing a pointing operation within the screen, or the touch switch 34 for performing various operations by a touch operation, these switches are operated. A control signal based on the operation is output to the processing unit 123. The processing unit 123 detects an operation based on the control signal, and executes an operation defined in the control program.
BT通信回路130は、他の機器とのBluetooth(登録商標)通信を行うための通信回路である。WiFi通信回路131は、他の機器との無線LAN通信(IEEE 802.11)を行うための通信回路である。3G/LTE通信回路138は、他の機器との移動通信を行うための通信回路である。
The BT communication circuit 130 is a communication circuit for performing Bluetooth (registered trademark) communication with other devices. The WiFi communication circuit 131 is a communication circuit for performing wireless LAN communication (IEEE 802.11) with other devices. The 3G / LTE communication circuit 138 is a communication circuit for performing mobile communication with other devices.
加速度センサー132は、HMD1の傾き検出に用いられる。地磁気センサー133は、HMD1の方角検出に用いられる。角速度センサー(ジャイロセンサー)134は、HMD1の回転検出に用いられる。GPSセンサー135は、GPS(Global Positioning System)を利用した測位検出に用いられる。温湿度センサー136は、環境の温度、湿度の検出に用いられる。心拍数センサー137は、例えば、使用者の頬に接触し、使用者の心拍数を検出する。
The acceleration sensor 132 is used for detecting the inclination of the HMD 1. The geomagnetic sensor 133 is used for detecting the direction of the HMD 1. An angular velocity sensor (gyro sensor) 134 is used to detect rotation of the HMD 1. The GPS sensor 135 is used for positioning detection using a GPS (Global Positioning System). The temperature / humidity sensor 136 is used to detect the temperature and humidity of the environment. For example, the heart rate sensor 137 contacts the cheek of the user and detects the heart rate of the user.
処理部123は、加速度センサー132が検出した重力を取り込み、この重力の方向に基づいて装置本体部21の姿勢を検出する。そして、処理部123は、この検出した装置本体部21の姿勢に基づき、装置本体部21の装着状態(左眼観察用の状態または右眼観察用の状態)を判定する。
The processing unit 123 takes in the gravity detected by the acceleration sensor 132 and detects the posture of the apparatus main body 21 based on the direction of the gravity. Then, the processing unit 123 determines the wearing state (the left eye observation state or the right eye observation state) of the device main body unit 21 based on the detected posture of the device main body unit 21.
また、処理部123は、タッチスイッチ34が出力する制御信号を取り込むと、この制御信号から一つまたは複数の座標値を抽出する。そして、処理部123は、抽出した一つまたは複数の座標値の、座標平面における座標の分布および軌跡に基づいて、使用者による操作の種類を判別する。
Further, when the processing unit 123 takes in a control signal output from the touch switch 34, the processing unit 123 extracts one or a plurality of coordinate values from the control signal. And the process part 123 discriminate | determines the kind of operation by a user based on the distribution and locus | trajectory of the coordinate in a coordinate plane of the extracted one or several coordinate value.
例えば、処理部123は、座標平面上の相互に異なる3点が略同時(同時を含む)に指定されたと判定した場合、使用者によってHMD1のリセット操作が行われたと判断する。すなわち、処理部123は、使用者の手指によるタッチスイッチ34の3点同時タップ操作にしたがって、HMD1のリセット要求を取得する。
また、例えば、処理部123は、座標平面に一方向の軌跡が得られると判定した場合、使用者によって耳元スピーカー23の音声出力位置の変更の操作が行われたと判断する。すなわち、処理部123は、使用者の手指によるタッチスイッチ34のスライド操作またはフリック操作にしたがって、その操作方向に対応した動作スピーカーの変更要求を取得する。
For example, if the processing unit 123 determines that three different points on the coordinate plane are designated substantially simultaneously (including simultaneous), the processing unit 123 determines that the user has performed a reset operation of the HMD 1. That is, the processing unit 123 acquires a reset request for the HMD 1 in accordance with the three-point simultaneous tap operation of the touch switch 34 by the user's finger.
Further, for example, when the processing unit 123 determines that a trajectory in one direction is obtained on the coordinate plane, the processing unit 123 determines that an operation for changing the sound output position of the ear speaker 23 has been performed by the user. That is, the processing unit 123 acquires a change request for the operating speaker corresponding to the operation direction according to the slide operation or flick operation of the touch switch 34 by the user's finger.
また、例えば、処理部123は、異なる2点間の距離が短くなる軌跡が座標平面に得られると判定した場合、使用者によって音量を下げる操作が行われたと判断する。すなわち、処理部123は、使用者の手指によるピンチイン操作にしたがって、音量減少の変更要求を取得する。
また、例えば、処理部123は、異なる2点間の距離が長くなる軌跡が座標平面に得られると判定した場合、使用者によって音量を上げる操作が行われたと判断する。すなわち、処理部123は、使用者の手指によるピンチアウト操作にしたがって、音量増加の変更要求を取得する。
Further, for example, when the processing unit 123 determines that a trajectory in which the distance between two different points is shortened is obtained on the coordinate plane, the processing unit 123 determines that an operation of lowering the volume is performed by the user. That is, the processing unit 123 acquires a volume reduction change request according to a pinch-in operation with a user's finger.
Further, for example, when the processing unit 123 determines that a trajectory in which the distance between two different points is long is obtained on the coordinate plane, the processing unit 123 determines that an operation to increase the volume is performed by the user. That is, the processing unit 123 acquires a volume increase change request in accordance with a pinch-out operation with a user's finger.
次に、耳元スピーカー23におけるスピーカーの切り替え操作について、図10から図12を参照して説明する。
図10(A)〜(D)は、図4(B)に示した、使用者が左眼で画像を見る様子を装置本体部21の外側から示した図である。
Next, the speaker switching operation in the ear speaker 23 will be described with reference to FIGS.
FIGS. 10A to 10D are views showing the state of the user viewing the image with the left eye shown in FIG. 4B from the outside of the apparatus main body 21.
図10(A)は、眼鏡を着用した使用者がHMD1を装着している様子を示す。同図(A)では、眼鏡を着用した使用者は、表示部60が眼鏡に接触しないようにするため、表示部60を眼鏡から遠ざける方向、つまり、耳元スピーカー23を−Y方向にずらしてHMD1を装着している。
FIG. 10 (A) shows a user wearing spectacles wearing HMD1. In FIG. 5A, the user wearing glasses wears the HMD1 by moving the display unit 60 away from the glasses, that is, by moving the ear speaker 23 in the −Y direction so that the display unit 60 does not touch the glasses. Wearing.
図10(B)は、標準的な大人に比べて頭部の大きさが小さい、例えば子供等の使用者がHMD1を装着している様子を示す。同図(B)では、頭部の大きさが比較的小さい使用者は、表示部60が観察眼(左眼)から遠くなり過ぎないように、表示部60を観察眼に近づける方向、つまり、耳元スピーカー23を+Y方向にずらしてHMD1を装着している。
FIG. 10B shows a situation in which a user such as a child wearing the HMD 1 has a smaller head size than a standard adult. In FIG. 5B, the user having a relatively small head size is directed to bring the display unit 60 closer to the observation eye so that the display unit 60 is not too far from the observation eye (left eye), that is, The HMD 1 is worn by shifting the ear speaker 23 in the + Y direction.
図10(C)は、使用者が視線を若干下げた状態で画像を観察可能なようにHMD1を装着している様子を示す。同図(C)では、使用者は、視線を若干下げて画像を見るため、表示部60を下げてHMD1を着用している。この場合、耳元スピーカー23が、+Z方向にずれることとなる。
FIG. 10C shows a state in which the HMD 1 is worn so that the user can observe an image with the line of sight slightly lowered. In FIG. 5C, the user wears the HMD 1 with the display unit 60 lowered in order to see the image with a slight drop in line of sight. In this case, the ear speaker 23 is displaced in the + Z direction.
図10(D)は、使用者が視線を若干上げた状態で画像を観察可能なようにHMD1を装着している様子を示す。同図(D)では、使用者は、視線を若干上げて画像を見るため、表示部60を上げてHMD1を着用している。この場合、耳元スピーカー23が、−Z方向にずれることとなる。
FIG. 10D shows a state in which the HMD 1 is worn so that the user can observe the image with the line of sight slightly raised. In FIG. 4D, the user raises the display unit 60 and wears the HMD 1 in order to see the image with a slight increase in line of sight. In this case, the ear speaker 23 is shifted in the −Z direction.
図10(A)〜(D)に示したように、頭部の大きさ、眼鏡の有無、観察眼に対する表示部60の設置姿勢等により、使用者の耳と耳元スピーカー23との位置関係は異なる。耳元スピーカー23が有する9個のスピーカー23a〜23iのうち、耳孔近傍の一つのスピーカーを動作させれば比較的小さな音量でも効率よく出力音声を耳に届かせることができる。本実施形態では、HMD1を装着した使用者によるタッチスイッチ34の手指による操作に応じて、耳元スピーカー23のスピーカー23a〜23iのうち、動作させる一つのスピーカーを選択する。
As shown in FIGS. 10A to 10D, the positional relationship between the user's ear and the ear speaker 23 depends on the size of the head, the presence or absence of glasses, the installation posture of the display unit 60 with respect to the observation eye, and the like. Different. Of the nine speakers 23a to 23i of the ear speaker 23, if one speaker in the vicinity of the ear canal is operated, the output sound can be efficiently delivered to the ear even at a relatively small volume. In the present embodiment, one speaker to be operated is selected from the speakers 23 a to 23 i of the ear speaker 23 in accordance with the operation of the finger of the touch switch 34 by the user wearing the HMD 1.
図11(A)〜(D)は、図10(A)〜(D)に示した態様で使用者がHMD1を装着した場合の、スピーカーと使用者の左耳との位置関係を示す図である。図11(A)〜(D)は、装置本体部21の外側から装置本端部21を透かして左耳を見た様子を示している。
11A to 11D are diagrams showing the positional relationship between the speaker and the user's left ear when the user wears the HMD 1 in the manner shown in FIGS. 10A to 10D. is there. 11A to 11D show a state where the left ear is seen through the apparatus main end 21 from the outside of the apparatus main body 21.
図10(A)に示した装着の態様では、図11(A)に示すように、Y1軸正方向側にあるスピーカー(例えば、スピーカー23h)が、左耳の耳孔近傍に位置する。また、図10(B)に示した装着の態様では、図11(B)に示すように、Y1軸負方向側にあるスピーカー(例えば、スピーカー23b)が、左耳の耳孔近傍に位置する。また、図10(C)に示した装着の態様では、図11(C)に示すように、Z1軸正方向側にあるスピーカー(例えば、スピーカー23f)が、左耳の耳孔近傍に位置する。また、図10(D)に示した装着の態様では、図11(D)に示すように、Z1軸負方向側にあるスピーカー(例えば、スピーカー23d)が、左耳の耳孔近傍に位置する。
In the wearing mode shown in FIG. 10 (A), as shown in FIG. 11 (A), the speaker (for example, speaker 23h) on the Y1-axis positive direction side is located near the ear hole of the left ear. In the wearing mode shown in FIG. 10B, as shown in FIG. 11B, the speaker (for example, the speaker 23b) on the Y1-axis negative direction side is positioned near the ear hole of the left ear. In the wearing mode shown in FIG. 10C, as shown in FIG. 11C, the speaker (for example, the speaker 23f) on the Z1-axis positive direction side is located in the vicinity of the ear hole of the left ear. In the wearing mode shown in FIG. 10D, as shown in FIG. 11D, the speaker (for example, the speaker 23d) on the Z1-axis negative direction side is located in the vicinity of the ear hole of the left ear.
図12は、スピーカー23a〜23iとタッチスイッチ34との位置関係を示し、使用者がタッチスイッチ34を操作する様子を示す図である。ただし、同図では、装置本体部21の図示を省略し、スピーカー23a〜23iおよびタッチスイッチ34を模式的に示している。スピーカー23a〜23iは、装置本体部21の一方の面(内側の面)に対して設けられ、タッチスイッチ34は、装置本体部21の前記の一方の面の反対側にある他方の面(外側の面)に対して設けられている。
FIG. 12 is a diagram illustrating a positional relationship between the speakers 23 a to 23 i and the touch switch 34, and a state in which the user operates the touch switch 34. However, in the same figure, illustration of the apparatus main body 21 is omitted, and the speakers 23 a to 23 i and the touch switch 34 are schematically shown. The speakers 23 a to 23 i are provided on one surface (inner surface) of the device main body 21, and the touch switch 34 is the other surface (outer side) opposite to the one surface of the device main body 21. Are provided on the surface).
図12において、スピーカー23a〜23iのいずれかから音声を出力させた状態で、タッチスイッチ34が使用者の手指による方向を示す操作を受け付けると、その操作に応じて連続または離散した複数の座標を時系列に検出する。方向を示すタッチスイッチ34の手指操作として、例えば、スライド操作およびフリック操作が適用できる。タッチスイッチ34は、方向を示す操作を受け付けると、センサー領域における開始位置から終了位置までの連続または離散した複数の座標を時系列に検出する。そして、タッチスイッチ34は、これら複数の座標を示す複数の座標値を含めた制御信号を処理部123に出力する。
In FIG. 12, when the touch switch 34 receives an operation indicating the direction by the user's finger in a state where sound is output from any of the speakers 23 a to 23 i, a plurality of coordinates that are continuous or discrete according to the operation are displayed. Detect in time series. As the finger operation of the touch switch 34 indicating the direction, for example, a slide operation and a flick operation can be applied. When the touch switch 34 receives an operation indicating a direction, the touch switch 34 detects a plurality of continuous or discrete coordinates from the start position to the end position in the sensor region in time series. Then, the touch switch 34 outputs a control signal including a plurality of coordinate values indicating the plurality of coordinates to the processing unit 123.
また、処理部123は、タッチスイッチ34が出力する制御信号を取り込むと、この制御信号から一つまたは複数の座標値を抽出する。そして、処理部123は、これら抽出した一つまたは複数の座標値の、座標平面における座標の分布および軌跡に基づいて、使用者による操作の種類を判別する。
Further, when the processing unit 123 takes in a control signal output from the touch switch 34, the processing unit 123 extracts one or a plurality of coordinate values from the control signal. And the process part 123 discriminate | determines the kind of operation by a user based on the distribution and locus | trajectory of the coordinate in a coordinate plane of these extracted one or several coordinate values.
例えば、処理部123は、座標平面上の相互に異なる3点が略同時(同時を含む)に指定されたと判定した場合、使用者によってHMD1のリセット操作が行われたと判定する。すなわち、処理部123は、使用者の手指によるタッチスイッチ34の3点同時タップ操作にしたがって、HMD1のリセット要求を取得する。
また、例えば、処理部123は、座標平面に一方向の軌跡が得られると判定した場合、使用者によって耳元スピーカー23の音声出力位置の変更の操作が行われたと判定する。すなわち、処理部123は、使用者の手指によるタッチスイッチ34のスライド操作またはフリック操作にしたがって、その操作方向に対応した動作スピーカーの変更要求を取得する。
For example, if the processing unit 123 determines that three different points on the coordinate plane are designated substantially simultaneously (including simultaneous), the processing unit 123 determines that the HMD 1 is reset by the user. That is, the processing unit 123 acquires a reset request for the HMD 1 in accordance with the three-point simultaneous tap operation of the touch switch 34 by the user's finger.
For example, when the processing unit 123 determines that a trajectory in one direction is obtained on the coordinate plane, the processing unit 123 determines that an operation for changing the sound output position of the ear speaker 23 has been performed by the user. That is, the processing unit 123 acquires a change request for the operating speaker corresponding to the operation direction according to the slide operation or flick operation of the touch switch 34 by the user's finger.
また、例えば、処理部123は、異なる2点間の距離が短くなる軌跡が座標平面に得られると判定した場合、使用者によって音量を下げる操作が行われたと判定する。すなわち、処理部123は、使用者の手指によるピンチイン操作にしたがって、音量減少の変更要求を取得する。
また、例えば、処理部123は、異なる2点間の距離が長くなる軌跡が座標平面に得られると判定した場合、使用者によって音量を上げる操作が行われたと判定する。すなわち、処理部123は、使用者の手指によるピンチアウト操作にしたがって、音量増加の変更要求を取得する。
Further, for example, when the processing unit 123 determines that a trajectory in which the distance between two different points is shortened is obtained on the coordinate plane, the processing unit 123 determines that an operation for decreasing the volume has been performed by the user. That is, the processing unit 123 acquires a volume reduction change request according to a pinch-in operation with a user's finger.
For example, when the processing unit 123 determines that a trajectory in which the distance between two different points is long is obtained on the coordinate plane, the processing unit 123 determines that an operation for increasing the volume is performed by the user. That is, the processing unit 123 acquires a volume increase change request in accordance with a pinch-out operation with a user's finger.
動作スピーカーの変更要求を取得した処理部123は、抽出した複数の座標値に基づいて、耳元スピーカー23におけるスピーカー23a〜23iの二次元配列上の方向を検出する。そして、処理部123は、検出した方向と、現在、音声を出力しているスピーカーの位置とに基づいて、音声出力位置の変更先であるスピーカーを選択し、この変更先であるスピーカーを指定する情報をスピーカー制御部163に出力する。
スピーカー制御部163は、処理部123が出力する、変更先であるスピーカーを指定する情報を取り込み、この情報にしたがって、現在、音声を出力しているスピーカーから変更先であるスピーカーに動作を切り替える。
The processing unit 123 that has acquired the request for changing the operating speaker detects a direction on the two-dimensional array of the speakers 23 a to 23 i of the ear speaker 23 based on the extracted coordinate values. Then, based on the detected direction and the position of the speaker that is currently outputting the sound, the processing unit 123 selects the speaker that is the change destination of the sound output position and designates the speaker that is the change destination. Information is output to the speaker control unit 163.
The speaker control unit 163 takes in information specifying the speaker to be changed, which is output from the processing unit 123, and switches the operation from the speaker currently outputting audio to the speaker to be changed according to this information.
次に、図12を参照し、使用者による耳元スピーカー23の音声出力位置の変更操作について具体的に説明する。HMD1を装着した使用者は、例えばスピーカー23eのみから音声を出力させている状態で、スピーカーの音声出力位置を後頭部側に変更したい場合、タッチスイッチ34のセンサー領域において、Y1軸正方向のスライド操作またはフリック操作を行う。
Next, with reference to FIG. 12, the operation of changing the sound output position of the ear speaker 23 by the user will be specifically described. For example, when the user wearing the HMD 1 wants to change the sound output position of the speaker to the occipital side while outputting sound from only the speaker 23e, a slide operation in the Y1-axis positive direction is performed in the sensor area of the touch switch 34. Or perform a flick operation.
タッチスイッチ34は、Y1軸正方向を示す操作を受け付けると、センサー領域における開始位置から終了位置までの連続または離散した複数の座標を時系列に検出する。そして、タッチスイッチ34は、これら複数の座標を示す複数の座標値を含めた制御信号を処理部123に出力する。
When the touch switch 34 receives an operation indicating the Y1-axis positive direction, the touch switch 34 detects a plurality of continuous or discrete coordinates from the start position to the end position in the sensor area in time series. Then, the touch switch 34 outputs a control signal including a plurality of coordinate values indicating the plurality of coordinates to the processing unit 123.
処理部123は、タッチスイッチ34が出力する制御信号を取り込むと、この制御信号から複数の座標値を抽出する。そして、処理部123は、抽出した複数の座標値に基づいて、耳元スピーカー23におけるスピーカー23a〜23iの二次元配列上の方向(Y1軸正方向)を検出する。そして、処理部123は、検出した方向と、現在、音声を出力しているスピーカーの位置とに基づいて、音声出力位置の変更先であるスピーカー23hを選択し、スピーカー23hを指定する情報をスピーカー制御部163に出力する。
When the processing unit 123 receives the control signal output from the touch switch 34, the processing unit 123 extracts a plurality of coordinate values from the control signal. And the process part 123 detects the direction (Y1 axis | shaft positive direction) on the two-dimensional arrangement | sequence of the speakers 23a-23i in the ear speaker 23 based on the extracted several coordinate value. Then, the processing unit 123 selects the speaker 23h to which the audio output position is changed based on the detected direction and the position of the speaker that is currently outputting the audio, and sets information for designating the speaker 23h to the speaker. The data is output to the control unit 163.
スピーカー制御部163は、処理部123が出力する、変更先であるスピーカー23hを指定する情報を取り込み、この情報にしたがって、現在、音声を出力しているスピーカー23eから変更先であるスピーカー23hに動作を切り替える。
The speaker control unit 163 takes in information specifying the speaker 23h that is the change destination output from the processing unit 123, and operates according to this information from the speaker 23e that is currently outputting audio to the speaker 23h that is the change destination. Switch.
次に、HMD1が音声出力位置を変更する動作について説明する。
図13は、HMD1の音声出力位置変更処理の手順を示すフローチャートである。
Next, an operation in which the HMD 1 changes the audio output position will be described.
FIG. 13 is a flowchart illustrating the procedure of the audio output position change process of the HMD 1.
ステップS1において、処理部123は、加速度センサー132が検出した重力を取り込み、この重力の方向に基づいて装置本体部21の姿勢を検出する。そして、処理部123は、この検出した装置本体部21の姿勢に基づき、装置本体部21の装着状態(左眼観察用の状態または右眼観察用の状態)を判定する。次に、処理部123は、フラッシュメモリー122から、判別した装着状態に対応する設定履歴情報を読み込む。
In step S <b> 1, the processing unit 123 takes in the gravity detected by the acceleration sensor 132 and detects the posture of the apparatus main body 21 based on the direction of the gravity. Then, the processing unit 123 determines the wearing state (the left eye observation state or the right eye observation state) of the device main body unit 21 based on the detected posture of the device main body unit 21. Next, the processing unit 123 reads setting history information corresponding to the determined mounting state from the flash memory 122.
具体的に、使用者がHMD1を右眼観察用に装着した場合、処理部123は、加速度センサー132が検出した重力を取り込み、この重力の方向に基づいて右眼観察用の装着状態を判別する。次に、処理部123は、フラッシュメモリー122から右眼観察用の装着状態に対応する設定履歴情報を読み込む。このとき、フラッシュメモリー122に右眼観察用の装着状態に対応する設定履歴情報が記憶されていない場合、処理部123は、あらかじめ記憶されている標準設定情報を設定履歴情報として読み込む。
Specifically, when the user wears the HMD 1 for right eye observation, the processing unit 123 takes in the gravity detected by the acceleration sensor 132 and determines the wearing state for the right eye observation based on the direction of the gravity. . Next, the processing unit 123 reads setting history information corresponding to the wearing state for the right eye observation from the flash memory 122. At this time, when the setting history information corresponding to the wearing state for the right eye observation is not stored in the flash memory 122, the processing unit 123 reads the standard setting information stored in advance as the setting history information.
次に、処理部123は、読み込んだ設定履歴情報から音声出力位置情報および音量情報を抽出し、音声出力位置情報をスピーカー制御部163に出力し、音量情報をデコーダー121に出力する。そして、スピーカー制御部163は、処理部123が出力する音声出力位置情報を取り込む。また、デコーダー121は、処理部123が出力する音量情報を取り込む。
Next, the processing unit 123 extracts audio output position information and volume information from the read setting history information, outputs the audio output position information to the speaker control unit 163, and outputs the volume information to the decoder 121. And the speaker control part 163 takes in the audio | voice output position information which the process part 123 outputs. In addition, the decoder 121 captures volume information output from the processing unit 123.
次に、ステップS2において、処理部123は、タッチスイッチ34の操作受付を開始させる。
Next, in step S <b> 2, the processing unit 123 starts accepting operation of the touch switch 34.
次に、ステップS3において、処理部123はオーディオコネクター26にイヤホン100が接続されているか否かを判定する。処理部123は、オーディオコネクター26にイヤホン100が装着されていないと判定した場合(S3:NO)、音声データを音声信号に復号し、この音声信号をスピーカーアンプ162に出力してステップS4の処理に移す。一方、処理部123は、オーディオコネクター26にイヤホン100が接続されていると判定した場合(S3:YES)、音声データを音声信号に復号し、この音声信号をオーディオコネクター26に接続されたイヤホン100に出力するようにデコーダー121を制御して、ステップS7の処理に移す。
Next, in step S <b> 3, the processing unit 123 determines whether or not the earphone 100 is connected to the audio connector 26. When determining that the earphone 100 is not attached to the audio connector 26 (S3: NO), the processing unit 123 decodes the audio data into an audio signal, outputs the audio signal to the speaker amplifier 162, and performs the process of step S4. Move to. On the other hand, when it is determined that the earphone 100 is connected to the audio connector 26 (S3: YES), the processing unit 123 decodes the audio data into an audio signal, and the audio signal is connected to the audio connector 26. The decoder 121 is controlled so as to output to the step S7, and the process proceeds to step S7.
ステップS4において、スピーカーアンプ162は、デコーダー121が出力する音声信号を取り込み、この音声信号を増幅させてスピーカー制御部163に出力する。ここで、例えば、デコーダー121は、調整トーンの音声信号を出力するようにしてもよい。調整トーンは、例えば、440ヘルツ(Hz)の正弦波音声信号や音楽等の音響信号である。
次に、スピーカー制御部163は、取得してある音声出力位置情報が示すスピーカーに対して音声信号を出力する。これにより、耳元スピーカー23における、音声出力位置情報が示すスピーカーから音声が出力される。
In step S4, the speaker amplifier 162 takes in the audio signal output from the decoder 121, amplifies the audio signal, and outputs the amplified audio signal to the speaker control unit 163. Here, for example, the decoder 121 may output an audio signal of an adjustment tone. The adjustment tone is, for example, a 440 hertz (Hz) sine wave audio signal or an acoustic signal such as music.
Next, the speaker control unit 163 outputs an audio signal to the speaker indicated by the acquired audio output position information. As a result, sound is output from the speaker indicated by the sound output position information in the ear speaker 23.
次に、ステップS5において、処理部123は、タッチスイッチ34が制御信号を出力したか否かを判定する。そして、処理部123は、タッチスイッチ34が制御信号を出力したと判定した場合、この制御信号を取り込み、この制御信号から一つまたは複数の座標値を抽出する。次に、処理部123は、抽出した一つまたは複数の座標値の、座標平面における座標の分布および軌跡に基づいて、使用者による操作の種類を判別する。次に、処理部123は、一つまたは複数の座標値に基づき、座標平面に一方向の軌跡が得られると判定した場合(S5:YES)、ステップS6の処理に移す。言い換えると、処理部123は、使用者によって耳元スピーカー23の音声出力位置の変更の操作が行われたと判定した場合、ステップS6の処理に移す。
一方、処理部123は、タッチスイッチ34が制御信号を出力していないと判定した場合、または、タッチスイッチ34が制御信号を出力した場合であって、且つ座標平面に一方向の軌跡が得られると判定しない場合(S5:NO)、ステップS7の処理に移す。
Next, in step S5, the processing unit 123 determines whether or not the touch switch 34 has output a control signal. When the processing unit 123 determines that the touch switch 34 has output a control signal, the processing unit 123 takes in the control signal and extracts one or a plurality of coordinate values from the control signal. Next, the processing unit 123 determines the type of operation performed by the user based on the coordinate distribution and locus on the coordinate plane of the extracted one or more coordinate values. Next, when the processing unit 123 determines that a one-way locus is obtained on the coordinate plane based on one or a plurality of coordinate values (S5: YES), the processing unit 123 proceeds to the process of step S6. In other words, when the processing unit 123 determines that the user has performed an operation for changing the sound output position of the ear speaker 23, the processing unit 123 proceeds to the process of step S6.
On the other hand, when the processing unit 123 determines that the touch switch 34 does not output a control signal, or when the touch switch 34 outputs a control signal, a one-way locus is obtained on the coordinate plane. Is not determined (S5: NO), the process proceeds to step S7.
ステップS6において、処理部123は、抽出した複数の座標値に基づいて、耳元スピーカー23におけるスピーカー23a〜23iの二次元配列上の方向を検出する。次に、処理部123は、検出した方向と、現在、音声を出力しているスピーカーの位置とに基づいて、音声出力位置の変更先であるスピーカーを選択し、この変更先であるスピーカーを指定する情報をスピーカー制御部163に出力する。
次に、スピーカー制御部163は、処理部123が出力する、変更先であるスピーカーを指定する情報を取り込み、この情報にしたがって、現在、音声を出力しているスピーカーから変更先であるスピーカーに動作を切り替える。
In step S <b> 6, the processing unit 123 detects a direction on the two-dimensional array of the speakers 23 a to 23 i in the ear speaker 23 based on the extracted plurality of coordinate values. Next, the processing unit 123 selects a speaker to which the audio output position is changed based on the detected direction and the position of the speaker that is currently outputting the audio, and designates the speaker that is the change destination. Information to be output to the speaker control unit 163.
Next, the speaker control unit 163 takes in information specifying the speaker that is the change destination output from the processing unit 123, and operates from the speaker that is currently outputting sound to the speaker that is the change destination according to this information. Switch.
次に、ステップS7において、処理部123は、タッチスイッチ34が制御信号を出力したか否かを判定する。そして、処理部123は、タッチスイッチ34が制御信号を出力したと判定した場合、この制御信号を取り込み、この制御信号から一つまたは複数の座標値を抽出する。次に、処理部123は、抽出した一つまたは複数の座標値の、座標平面における座標の分布および軌跡に基づいて、使用者による操作の種類を判別する。次に、処理部123は、異なる2点間の距離が変わる軌跡が座標平面に得られると判定した場合(S7:YES)、ステップS8の処理に移す。言い換えると、処理部123は、使用者によって耳元スピーカー23の音量調節の操作が行われたと判定した場合、ステップS8の処理に移す。
一方、処理部123は、タッチスイッチ34が制御信号を出力していないと判定した場合、または、タッチスイッチ34が制御信号を出力した場合であって、且つ異なる2点間の距離が変わる軌跡が座標平面に得られると判定しない場合(S7:NO)、ステップS9の処理に移す。
Next, in step S7, the processing unit 123 determines whether or not the touch switch 34 has output a control signal. When the processing unit 123 determines that the touch switch 34 has output a control signal, the processing unit 123 takes in the control signal and extracts one or a plurality of coordinate values from the control signal. Next, the processing unit 123 determines the type of operation performed by the user based on the coordinate distribution and locus on the coordinate plane of the extracted one or more coordinate values. Next, when the processing unit 123 determines that a trajectory in which the distance between two different points changes is obtained on the coordinate plane (S7: YES), the processing unit 123 proceeds to the process of step S8. In other words, when the processing unit 123 determines that the user has performed an operation for adjusting the volume of the ear speaker 23, the processing unit 123 proceeds to the process of step S8.
On the other hand, when the processing unit 123 determines that the touch switch 34 does not output a control signal, or when the touch switch 34 outputs a control signal, there is a locus in which the distance between two different points changes. If it is not determined that the coordinate plane is obtained (S7: NO), the process proceeds to step S9.
ステップS8において、異なる2点間の距離が短くなる軌跡が座標平面に得られる場合、処理部123は、耳元スピーカー23の音量を下げる要求情報をスピーカーアンプ162に出力する。次に、スピーカーアンプ162は、処理部123が出力する音量を下げる指示命令を取り込み、音声信号の出力レベルを下げる。
In step S <b> 8, when a trajectory in which the distance between two different points is shortened is obtained on the coordinate plane, the processing unit 123 outputs request information for lowering the volume of the ear speaker 23 to the speaker amplifier 162. Next, the speaker amplifier 162 receives an instruction command to lower the volume output from the processing unit 123 and lowers the output level of the audio signal.
一方、異なる2点間の距離が長くなる軌跡が座標平面に得られる場合、処理部123は、耳元スピーカー23の音量を上げる要求情報をスピーカーアンプ162に出力する。次に、スピーカーアンプ162は、処理部123が出力する音量を上げる指示命令を取り込み、音声信号の出力レベルを上げる。
On the other hand, when a trajectory that increases the distance between two different points is obtained on the coordinate plane, the processing unit 123 outputs request information for increasing the volume of the ear speaker 23 to the speaker amplifier 162. Next, the speaker amplifier 162 receives an instruction command to increase the volume output from the processing unit 123 and increases the output level of the audio signal.
次に、ステップS9において、処理部123は、タッチスイッチ34が制御信号を出力したか否かを判定する。そして、処理部123は、タッチスイッチ34が制御信号を出力したと判定した場合、この制御信号を取り込み、この制御信号から一つまたは複数の座標値を抽出する。次に、処理部123は、抽出した一つまたは複数の座標値の、座標平面における座標の分布および軌跡に基づいて、使用者による操作の種類を判別する。次に、処理部123は、座標平面上の相互に異なる3点が略同時(同時を含む。)に指定されたと判定した場合(S9:YES)、ステップS1の処理に戻す。言い換えると、処理部123は、使用者によってHMD1のリセット操作が行われたと判定した場合、ステップS1の処理に戻す。
一方、処理部123は、タッチスイッチ34が制御信号を出力していないと判定した場合、または、タッチスイッチ34が制御信号を出力した場合であって、且つ座標平面上の相互に異なる3点が略同時(同時を含む。)に指定されたと判定しない場合(S9:NO)、ステップS10の処理に移す。
Next, in step S9, the processing unit 123 determines whether or not the touch switch 34 has output a control signal. When the processing unit 123 determines that the touch switch 34 has output a control signal, the processing unit 123 takes in the control signal and extracts one or a plurality of coordinate values from the control signal. Next, the processing unit 123 determines the type of operation performed by the user based on the coordinate distribution and locus on the coordinate plane of the extracted one or more coordinate values. Next, when it is determined that three mutually different points on the coordinate plane are designated substantially simultaneously (including simultaneously) (S9: YES), the processing unit 123 returns to the process of step S1. In other words, when the processing unit 123 determines that the reset operation of the HMD 1 has been performed by the user, the processing unit 123 returns to the process of step S1.
On the other hand, the processing unit 123 determines that the touch switch 34 does not output a control signal, or the touch switch 34 outputs a control signal, and there are three different points on the coordinate plane. If it is not determined that it is designated as substantially simultaneous (including simultaneous) (S9: NO), the process proceeds to step S10.
次に、ステップS10において、処理部123は、メインスイッチ28が押されたか否かを判定する。そして、処理部123は、メインスイッチ28が押されたと判定した場合、ステップS11の処理に移し、メインスイッチ28が押されていないと判定した場合、ステップS3の処理に戻す。
Next, in step S10, the processing unit 123 determines whether or not the main switch 28 has been pressed. When determining that the main switch 28 has been pressed, the processing unit 123 proceeds to the process of step S11, and when determining that the main switch 28 has not been pressed, returns to the process of step S3.
ステップS11において、処理部123は、現在の音声出力位置情報および音量情報で、フラッシュメモリー122に記憶された、装着状態に対応する設定履歴情報を更新する。そして、処理部123は、本フローチャートの処理を終了させる。
In step S11, the processing unit 123 updates the setting history information corresponding to the wearing state stored in the flash memory 122 with the current audio output position information and volume information. And the process part 123 complete | finishes the process of this flowchart.
[本発明の一実施形態の第1の変形例]
上述した本発明の一実施形態では、耳元スピーカー23が9個のスピーカー23a〜23iを有する例とした。耳元スピーカー23の構成はこの例に限らず、複数のスピーカーを有するものとすることができる。その具体例について説明する。
[First Modification of One Embodiment of the Present Invention]
In the above-described embodiment of the present invention, the ear speaker 23 has nine speakers 23a to 23i. The configuration of the ear speaker 23 is not limited to this example, and may include a plurality of speakers. A specific example will be described.
図14(A),(B)は、耳元スピーカーの他の例を模式的に示した図である。
同図(A)は、4個のスピーカーを有する耳元スピーカーの例である。同図(A)に示すように、耳元スピーカー23Aは、4個の楕円形状のスピーカーを、Y1軸を境に両側が対称となるように設けている。なお、各スピーカーはY1軸およびZ1軸を含む平面(Y1Z1平面)において円形であってもよい。
FIGS. 14A and 14B are diagrams schematically showing another example of the ear speaker.
FIG. 4A is an example of an ear speaker having four speakers. As shown in FIG. 6A, the ear speaker 23A is provided with four elliptical speakers so that both sides are symmetrical with respect to the Y1 axis. Each speaker may be circular on a plane including the Y1 axis and the Z1 axis (Y1Z1 plane).
また、図14(B)は、9個のスピーカーを有する耳元スピーカーの例である。同図(B)に示すように、耳元スピーカー23Bは、9個のスピーカーを、Y1軸を境に両側が対称となるように設けている。ただし、Y1Z1平面において中央にあるスピーカーは、その周囲のスピーカーに対して直径が大きい。
FIG. 14B illustrates an example of an ear speaker having nine speakers. As shown in FIG. 5B, the ear speaker 23B is provided with nine speakers so that both sides are symmetrical with respect to the Y1 axis. However, the speaker at the center in the Y1Z1 plane has a larger diameter than the surrounding speakers.
[本発明の一実施形態の第2の変形例]
前述した本発明の一実施形態では、HMD1を装着した使用者によるタッチスイッチ34の手指による操作に応じて、処理部123は、耳元スピーカー23のスピーカー23a〜23iのうち、動作させる一つのスピーカーを選択する例とした。これ以外に、処理部123は、動作させるスピーカーを複数選択してもよい。
例えば、耳元スピーカー23のスピーカー23eのみから音声を出力させている状態で、スピーカーの音声出力位置を後頭部側(Y1軸正方向側)に変更する場合、スピーカー23eおよびスピーカー23hを選択し、ともに動作させてもよい。このとき、各スピーカーの出力レベルを同一にしてもよいし、異ならせてもよい。
[Second Modification of One Embodiment of the Present Invention]
In the above-described embodiment of the present invention, the processing unit 123 selects one of the speakers 23a to 23i of the ear speaker 23 to be operated in response to an operation with the finger of the touch switch 34 by the user wearing the HMD1. An example was selected. In addition to this, the processing unit 123 may select a plurality of speakers to be operated.
For example, when the sound output position of the speaker is changed from the speaker 23e of the ear speaker 23 to the occipital side (Y1-axis positive direction side), the speaker 23e and the speaker 23h are selected and operated together. You may let them. At this time, the output level of each speaker may be the same or different.
[本発明の一実施形態の第3の変形例]
本発明の一実施形態の第3変形例では、HMD1の使用者によるタッチスイッチ34の手指による操作に応じて、処理部123は、耳元スピーカー23の姿勢、つまり音声出力方向を変更する。
すなわち、本変形例では、耳元スピーカー23は、方向を変更可能なスピーカーを備える。また、スピーカー制御部163は、そのスピーカーの方向を変更するための駆動部を備える。駆動部は、例えばモーターを含んで構成される。また、フラッシュメモリー122は、装着状態別に、少なくとも前回使用時のスピーカーの方向を示す音声出力方向情報と、このスピーカーの音量を示す音量情報とを含む設定履歴情報を記憶する。
[Third Modification of One Embodiment of the Present Invention]
In the third modification of the embodiment of the present invention, the processing unit 123 changes the posture of the ear speaker 23, that is, the sound output direction, according to the operation of the HMD 1 by the finger of the touch switch 34.
That is, in this modification, the ear speaker 23 includes a speaker whose direction can be changed. Moreover, the speaker control part 163 is provided with the drive part for changing the direction of the speaker. The drive unit includes, for example, a motor. Further, the flash memory 122 stores setting history information including at least audio output direction information indicating the direction of the speaker at the previous use and volume information indicating the volume of the speaker, for each mounted state.
タッチスイッチ34が出力する制御信号を取り込んだ処理部123は、この制御信号から抽出した一つまたは複数の座標値に基づいて、座標平面に一方向の軌跡が得られると判定した場合、使用者によって耳元スピーカー23の音声出力方向の変更の操作が行われたと判定する。すなわち、処理部123は、使用者の手指によるタッチスイッチ34のスライド操作またはフリック操作にしたがって、その操作方向に対応したスピーカーの方向変更要求を取得する。
When the processing unit 123 that has captured the control signal output from the touch switch 34 determines that a one-way locus is obtained on the coordinate plane based on one or more coordinate values extracted from the control signal, the user Thus, it is determined that an operation for changing the sound output direction of the ear speaker 23 has been performed. That is, the processing unit 123 acquires a speaker direction change request corresponding to the operation direction in accordance with the slide operation or flick operation of the touch switch 34 by the user's finger.
耳元スピーカー23の方向変更要求を取得した処理部123は、抽出した複数の座標値に基づいて方向を検出する。そして、処理部123は、検出した方向と、現在、音声を出力しているスピーカーの位置とに基づいて、耳元スピーカー23の音声出力方向を決定し、この音声出力方向を指定する情報をスピーカー制御部163に出力する。
スピーカー制御部163は、処理部123が出力する、音声出力方向を指定する情報を取り込み、この情報にしたがって、耳元スピーカー23の方向を変更する。
The processing unit 123 that has acquired the direction change request of the ear speaker 23 detects the direction based on the plurality of extracted coordinate values. Then, the processing unit 123 determines the sound output direction of the ear speaker 23 based on the detected direction and the position of the speaker that is currently outputting sound, and performs speaker control on information specifying this sound output direction. To the unit 163.
The speaker control unit 163 takes in information specifying the audio output direction output from the processing unit 123, and changes the direction of the ear speaker 23 according to this information.
[本発明の一実施形態の第4の変形例]
本発明の一実施形態の第4変形例では、リモコン140を、USBケーブル148を介して装置本体部21のUSBコネクター25に接続した場合、リモコン140をタッチスイッチ34の代わりとして使用してもよい。つまり、HMD1を装着した使用者によるリモコン140のタッチパッド141の手指による操作に応じて、処理部123は、耳元スピーカー23の動作させる一つまたは複数のスピーカーを選択したり、耳元スピーカー23の方向を変更したりしてもよい。
この場合、リモコン140が有するタッチパッド141に表示パネルを設け、この表示パネルに、耳の形状を示す図または写真によるガイドを表示させてもよい。
[Fourth Modification of One Embodiment of the Present Invention]
In the fourth modification of the embodiment of the present invention, when the remote controller 140 is connected to the USB connector 25 of the apparatus main body 21 via the USB cable 148, the remote controller 140 may be used in place of the touch switch 34. . That is, the processing unit 123 selects one or a plurality of speakers to be operated by the ear speaker 23 or the direction of the ear speaker 23 according to the operation of the finger of the touch pad 141 of the remote controller 140 by the user wearing the HMD 1. May be changed.
In this case, a display panel may be provided on the touch pad 141 included in the remote controller 140, and a guide with a figure or a photograph showing the shape of the ear may be displayed on the display panel.
以上、詳述したように、本発明の一実施形態および各変形例によれば、使用者に合わせて耳元スピーカー23の位置を調整するための可動機構が不要となった。これにより、使用者による耳元スピーカー23の機構的な位置調整が不要であるため、使い勝手がよい。また、HMD1によれば、製造時の組み立てコスト、堅牢性、防滴性がよい。
したがって、本実施形態および各変形例によれば、使用者へのHMD1の装着を容易にすることができる。
As described above in detail, according to one embodiment and each modification of the present invention, a movable mechanism for adjusting the position of the ear speaker 23 according to the user becomes unnecessary. Accordingly, it is not necessary to adjust the mechanical position of the ear speaker 23 by the user, which is convenient. Moreover, according to HMD1, the assembly cost at the time of manufacture, robustness, and drip-proof property are good.
Therefore, according to the present embodiment and each modification, it is possible to easily attach the HMD 1 to the user.
なお、本発明の一実施形態および各変形例において、フラッシュメモリー122は、個人識別情報ごとに設定履歴情報を記憶してもよい。例えば、三人家族(父親、母親、子供)の家庭が1台のHMD1を保有する場合、父親用、母親用、および子供用の設定履歴情報をフラッシュメモリー122に記憶させておく。これにより、いずれかの使用者がHMD1を使用する際に、自身の個人識別情報をリモコン140から入力することによって、処理部123は、自身に対応する設定識別情報を読み込むことができる。
In one embodiment and each modification of the present invention, the flash memory 122 may store setting history information for each personal identification information. For example, when a family of three (a father, a mother, and a child) has one HMD 1, setting history information for the father, the mother, and the child is stored in the flash memory 122. Accordingly, when any user uses the HMD 1, the processing unit 123 can read the setting identification information corresponding to the user by inputting his / her personal identification information from the remote controller 140.
以上、本発明の実施の形態について図面を参照して詳述したが、具体的な構成はその実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計等も含まれる。
As mentioned above, although embodiment of this invention was explained in full detail with reference to drawings, the specific structure is not restricted to that embodiment, The design of the range which does not deviate from the summary of this invention, etc. are included.