JP2013250846A - Information input output device, and information input output program - Google Patents

Information input output device, and information input output program Download PDF

Info

Publication number
JP2013250846A
JP2013250846A JP2012125894A JP2012125894A JP2013250846A JP 2013250846 A JP2013250846 A JP 2013250846A JP 2012125894 A JP2012125894 A JP 2012125894A JP 2012125894 A JP2012125894 A JP 2012125894A JP 2013250846 A JP2013250846 A JP 2013250846A
Authority
JP
Japan
Prior art keywords
display
image
headband
user
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012125894A
Other languages
Japanese (ja)
Inventor
Satoshi Ejima
聡 江島
Shigeru Kato
茂 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012125894A priority Critical patent/JP2013250846A/en
Publication of JP2013250846A publication Critical patent/JP2013250846A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an information input output device which is easy-to-use for a user, and an information input output program.SOLUTION: An information input output device includes an acceleration sensor 132 for detecting acceleration, a head band sensor 151 for detecting whether the device is at a preset position, a processing unit 123 which, upon detection of the device being at the preset position, determines, on the basis of a direction of acceleration, an orientation of an image so that the image is erected with respect to a user, and a display panel 63 for displaying the image on the basis of the image orientation.

Description

本発明は、情報入出力装置、及び情報入出力プログラムに関する。   The present invention relates to an information input / output device and an information input / output program.

画像を表示するヘッドマウントディスプレイ(Head Mounted Display:HMD)が、特許文献1に開示されている。このヘッドマウントディスプレイは、単眼式であり、ユーザーが表示部を右眼で観察する場合と、左眼で観察する場合とで、表示部に表示させている画像を、上下左右に反転させることができる。   A head-mounted display (HMD) that displays an image is disclosed in Patent Document 1. This head-mounted display is monocular, and the image displayed on the display unit can be inverted vertically and horizontally depending on whether the user observes the display unit with the right eye or the left eye. it can.

国際公開第2007/145121号International Publication No. 2007/145121

しかしながら、このようなヘッドマウントディスプレイ(情報入出力装置)では、ユーザーは、右眼又は左眼のいずれで表示部を観察するかに応じて、画像を上下左右に反転させるための切り替えスイッチを操作する必要がある。このように、情報入出力装置は、ユーザーにとって使い難いという問題がある。   However, in such a head-mounted display (information input / output device), the user operates a changeover switch for inverting the image vertically and horizontally depending on whether the right eye or the left eye observes the display unit. There is a need to. Thus, the information input / output device has a problem that it is difficult for the user to use.

本発明は、前記の点に鑑みてなされたものであり、ユーザーにとって使い易い情報入出力装置、及び情報入出力プログラムを提供することを目的とする。   The present invention has been made in view of the above points, and an object thereof is to provide an information input / output device and an information input / output program that are easy for a user to use.

本発明は、上記の課題を解決するためになされたものであり、加速度を検出する加速度センサーと、予め定められた位置に自装置が在るか否かを検出する検出部と、前記予め定められた位置に自装置が在ることが検出された際、前記加速度の方向に基づいて、ユーザーにとって正立するように画像の向きを定める処理部と、前記画像の向きに基づいて、画像を表示する表示部と、を備えることを特徴とする情報入出力装置である。   The present invention has been made to solve the above-described problem, and includes an acceleration sensor that detects acceleration, a detection unit that detects whether or not the device is present at a predetermined position, and the predetermined value. When it is detected that the device is present at the specified position, a processing unit that determines the orientation of the image so as to stand upright for the user based on the direction of the acceleration, and the image based on the orientation of the image. An information input / output device comprising: a display unit for displaying.

また、本発明は、コンピュータに、予め定められた位置に自装置が在ることが検出された際、検出された加速度の方向に基づいて、ユーザーにとって正立するように画像の向きを定める手順と、前記画像の向きに基づいて、画像を表示する手順と、を実行させるための情報入出力プログラムである。   Further, the present invention provides a procedure for determining the orientation of an image so as to stand upright for a user based on the detected direction of acceleration when the computer detects that the device is present at a predetermined position. And an information input / output program for executing an image display procedure based on the orientation of the image.

本発明によれば、情報入出力装置は、ユーザーにとって使い易くなる。   According to the present invention, the information input / output device is easy to use for a user.

本発明の一実施形態における、ヘッドマウントディスプレイの斜視図である。It is a perspective view of a head mount display in one embodiment of the present invention. 本発明の一実施形態における、ヘッドマウントディスプレイの背面側の斜視図である。It is a perspective view of the back side of a head mounted display in one embodiment of the present invention. 本発明の一実施形態における、ヘッドマウントディスプレイの装着形態を示す図である。It is a figure which shows the mounting | wearing form of the head mounted display in one Embodiment of this invention. 本発明の一実施形態における、ディスプレイ本体の水平断面図である。It is a horizontal sectional view of a display body in one embodiment of the present invention. 本発明の一実施形態における、ヘッドバンドの斜視図である。It is a perspective view of a headband in one embodiment of the present invention. 本発明の一実施形態における、リモコンの斜視図である。It is a perspective view of a remote control in one embodiment of the present invention. 本発明の一実施形態における、ステレオイヤホンの斜視図である。It is a perspective view of a stereo earphone in one embodiment of the present invention. 本発明の一実施形態における、ヘッドマウントディスプレイの構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the head mounted display in one Embodiment of this invention. 本発明の一実施形態における、ヘッドマウントディスプレイの動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure of the head mounted display in one Embodiment of this invention. 本発明の一実施形態における、第1表示パネルに表示された画像の向きの第1例を示す図である。It is a figure which shows the 1st example of direction of the image displayed on the 1st display panel in one Embodiment of this invention. 本発明の一実施形態における、第1表示パネルに表示された画像の向きの第2例を示す図である。It is a figure which shows the 2nd example of direction of the image displayed on the 1st display panel in one Embodiment of this invention. 本発明の一実施形態における、横向きに寝た姿勢のユーザーに装着された情報入出力装置にかかる重力方向を示す図である。It is a figure which shows the gravitational direction concerning the information input / output device with which the user of the attitude | position lying down sideways was mounted | worn in one Embodiment of this invention. 本発明の一実施形態における、第2表示パネルに表示された画像の向きの第1例を示す図である。It is a figure which shows the 1st example of direction of the image displayed on the 2nd display panel in one Embodiment of this invention.

本発明の一実施形態について図面を参照して詳細に説明する。以下の説明においては、XYZ直交座標系を必要に応じて設定し、設定したXYZ直交座標系を参照しつつ、各部の位置関係について説明する。   An embodiment of the present invention will be described in detail with reference to the drawings. In the following description, an XYZ rectangular coordinate system is set as necessary, and the positional relationship of each part will be described with reference to the set XYZ rectangular coordinate system.

以下では、水平面内の所定方向をX軸方向と称し、水平面内においてX軸方向と直交する方向をY軸方向と称し、X軸方向及びY軸方向と直交する鉛直方向をZ軸方向と称する。また、X軸、Y軸、及びZ軸まわりの回転(傾斜)方向をそれぞれ、θX、θY、及びθZ方向と称する。   Hereinafter, a predetermined direction in the horizontal plane is referred to as an X-axis direction, a direction orthogonal to the X-axis direction in the horizontal plane is referred to as a Y-axis direction, and a vertical direction orthogonal to the X-axis direction and the Y-axis direction is referred to as a Z-axis direction. . In addition, the rotation (inclination) directions around the X axis, Y axis, and Z axis are referred to as θX, θY, and θZ directions, respectively.

図1は、ヘッドマウントディスプレイ(頭部装着型情報入出力装置、表示装置)の斜視図である。図1では、ディスプレイ本体20の長手方向をY軸方向と称し、ヘッドバンド40がユーザーの頭部を挟持する方向をX軸方向と称する。   FIG. 1 is a perspective view of a head-mounted display (head-mounted information input / output device, display device). In FIG. 1, the longitudinal direction of the display main body 20 is referred to as a Y-axis direction, and the direction in which the headband 40 holds the user's head is referred to as an X-axis direction.

まず、ヘッドマウントディスプレイ1の各部の構成について説明する。
ヘッドマウントディスプレイ1は、単眼式のヘッドマウントディスプレイであり、ユーザーの頭部に装着される。ヘッドマウントディスプレイ1は、ディスプレイ本体20と、ヘッドバンド40(装着部)とを備える。
First, the configuration of each part of the head mounted display 1 will be described.
The head mounted display 1 is a monocular head mounted display and is mounted on the user's head. The head mounted display 1 includes a display main body 20 and a headband 40 (mounting unit).

ヘッドバンド40は、ディスプレイ本体20を着脱可能に支持する。
ディスプレイ本体20は、装置本体部21と、表示部60とを有する。装置本体部21は、主要回路を内蔵するとともに、操作部及び各種インターフェースを有する。
The headband 40 detachably supports the display main body 20.
The display main body 20 includes an apparatus main body portion 21 and a display portion 60. The apparatus main body 21 incorporates main circuits and has an operation unit and various interfaces.

以下では、装置本体部21においてヘッドバンド40により支持される側の端部(+Y側の端部)を基端部と称し、この基端部に対して反対側の端部(−Y側の端部)を先端部と称する。また、ヘッドバンド40に装置本体部21が支持されている状態において、装置本体部21のヘッドバンド40側(+X側)を内側と称し、ヘッドバンド40に対して反対側(−X側)を外側と称する。   Hereinafter, the end (+ Y side end) of the apparatus main body 21 supported by the headband 40 is referred to as a base end, and the opposite end (−Y side end) with respect to the base end. The end) is referred to as the tip. In the state where the apparatus main body 21 is supported by the headband 40, the headband 40 side (+ X side) of the apparatus main body 21 is referred to as the inner side, and the opposite side (−X side) with respect to the headband 40 is referred to. Called the outside.

表示部60は、装置本体部21の先端部に連結される。
装置本体部21は、概略板状の筐体を有する。装置本体部21の筐体の外面には、メインスイッチ28と、タッチスイッチ34と、集音マイク24とが、装置本体部21の長手方向に沿って配置されている。
The display unit 60 is connected to the distal end portion of the apparatus main body unit 21.
The apparatus main body 21 has a substantially plate-shaped housing. A main switch 28, a touch switch 34, and a sound collecting microphone 24 are arranged along the longitudinal direction of the apparatus main body 21 on the outer surface of the casing of the apparatus main body 21.

メインスイッチ28は、ディスプレイ本体20の電源のオンオフ操作を行うスイッチである。また、タッチスイッチ34は、ユーザーが手指等で触れることにより、ヘッドマウントディスプレイ1の各種操作を行うことができるタッチパネルである。また、集音マイク24は、環境音を集め、収音する外部マイクである。   The main switch 28 is a switch for performing an on / off operation of the display main body 20. The touch switch 34 is a touch panel that can perform various operations of the head mounted display 1 when the user touches with a finger or the like. The sound collection microphone 24 is an external microphone that collects and collects environmental sounds.

図2は、ヘッドマウントディスプレイの背面側の斜視図である。図2では、ディスプレイ本体20の長手方向をY軸方向と称し、ヘッドバンド40がユーザーの頭部を挟持する方向をX軸方向と称する。   FIG. 2 is a rear perspective view of the head mounted display. In FIG. 2, the longitudinal direction of the display body 20 is referred to as a Y-axis direction, and the direction in which the headband 40 clamps the user's head is referred to as an X-axis direction.

耳元スピーカー23は、音声を出力する。耳元スピーカー23は、装置本体部21の基端部の内側に設けられている。耳元スピーカー23は、ディスプレイ本体20がヘッドバンド40に支持されている場合、ユーザーの耳の近傍に配置される。
オーディオコネクター26は、音声入出力端子である。オーディオコネクター26には、ステレオイヤホンが接続される。
The ear speaker 23 outputs sound. The ear speaker 23 is provided inside the base end portion of the apparatus main body 21. The ear speaker 23 is disposed in the vicinity of the user's ear when the display body 20 is supported by the headband 40.
The audio connector 26 is an audio input / output terminal. A stereo earphone is connected to the audio connector 26.

通話マイク37は、装置本体部21の先端部の内側に設けられている。通話マイク37は、ユーザーの音声を収音する。
ヘッドバンドヒンジ32は、ヘッドバンド40とのジョイント部である。ヘッドバンドヒンジ32は、連結孔31を有する。
The call microphone 37 is provided on the inner side of the distal end portion of the apparatus main body 21. The call microphone 37 collects the user's voice.
The headband hinge 32 is a joint part with the headband 40. The headband hinge 32 has a connecting hole 31.

心拍数センサー137は、発光部と、受光部とを有する。心拍数センサー137の発光部は、例えば、発光ダイオードである。また、心拍数センサー137の受光部は、ユーザーの皮膚の内部で反射された光を検知する。心拍数センサー137は、装置本体部21内面の中央部に設けられ、ユーザーの顔の表面に接触することで、ユーザーの心拍数を測定する。より具体的には、心拍数センサー137は、ユーザーの顔の血流の変化による反射光量の変化を検出することで、そのユーザーの心拍数を測定する。   The heart rate sensor 137 includes a light emitting unit and a light receiving unit. The light emitting unit of the heart rate sensor 137 is, for example, a light emitting diode. The light receiving unit of the heart rate sensor 137 detects light reflected inside the user's skin. The heart rate sensor 137 is provided at the center of the inner surface of the apparatus main body 21 and measures the user's heart rate by contacting the surface of the user's face. More specifically, the heart rate sensor 137 measures the user's heart rate by detecting a change in the amount of reflected light due to a change in the blood flow of the user's face.

心拍数センサー137は、ディスプレイ本体20がヘッドバンド40に支持されている場合、ユーザーの眼の近傍に配置されることがある。この場合でも、心拍数センサー137は、その発光部から赤外域の光を射出させることにより、ユーザーにまぶしさを感じさせることなく、ユーザーの心拍数をカウントすることができる。   The heart rate sensor 137 may be disposed in the vicinity of the user's eyes when the display body 20 is supported by the headband 40. Even in this case, the heart rate sensor 137 can count the user's heart rate without causing the user to feel glare by emitting light in the infrared region from the light emitting unit.

USBコネクター25は、装置本体部21の基端部の側端面に設けられる。USBコネクター25は、USB(Universal Serial Bus)デバイスの接続端子である。
ビデオコネクター27は、映像入出力端子である。ビデオコネクター27は、装置本体部21の基端部の側端面に設けられる。
The USB connector 25 is provided on the side end surface of the base end portion of the apparatus main body 21. The USB connector 25 is a connection terminal of a USB (Universal Serial Bus) device.
The video connector 27 is a video input / output terminal. The video connector 27 is provided on the side end surface of the base end portion of the apparatus main body 21.

操作スイッチ30(操作部)は、例えば、トラックボール及びスティックなどのポインティングデバイスである。操作スイッチ30は、装置本体部21の基端部の側端面、すなわち、表示部60の画面に正対する位置に設けられる。これにより、操作スイッチ30を介した操作の左右方向と、表示部60の画面の左右方向とが一致するので、ユーザーは、画面を見ながら、操作スイッチ30を直感的に操作することができる。   The operation switch 30 (operation unit) is, for example, a pointing device such as a trackball and a stick. The operation switch 30 is provided at a position facing the side end surface of the base end portion of the apparatus main body 21, that is, the screen of the display unit 60. As a result, the left-right direction of the operation via the operation switch 30 matches the left-right direction of the screen of the display unit 60, so that the user can intuitively operate the operation switch 30 while looking at the screen.

ヘッドバンド40は、ディスプレイ本体20を、ユーザーの頭部に装着させることができる。また、ユーザーは、ヘッドバンド40により装着されていないディスプレイ本体20を、手に持った状態でも使用することができる。つまり、ユーザーは、ディスプレイ本体20をヘッドバンド40から必要に応じて外すことで、ディスプレイ本体20を、小型軽量な状態で可搬することができる。   The headband 40 can attach the display body 20 to the user's head. Further, the user can use the display main body 20 that is not worn by the headband 40 even when the display main body 20 is held in the hand. That is, the user can carry the display body 20 in a small and light state by removing the display body 20 from the headband 40 as necessary.

ヘッドバンド40は、ヘッドパット(装着部材)46と、ヘッドパット(装着部材)47と、第1ヘッドバンド43と、第2ヘッドバンド44と、回動機構56と、回動機構57と、連結ピン41とを有する。ヘッドバンド40は、ユーザーの頭部を挟持することができる。   The headband 40 includes a head pad (mounting member) 46, a head pad (mounting member) 47, a first headband 43, a second headband 44, a rotation mechanism 56, and a rotation mechanism 57. And a pin 41. The headband 40 can hold the user's head.

第1ヘッドバンド43は、全体として円弧状を成す弾性部材である。第1ヘッドバンド43の頂部には、第1ヘッドバンド43を折り曲げるためのジョイント部43aが設けられている。
また、第1ヘッドバンド43の一端には、回動機構56を構成する軸受部43bが設けられている。また、第1ヘッドバンド43の他端には、回動機構57を構成する軸受部43cが設けられている。
The first headband 43 is an elastic member having an arc shape as a whole. A joint portion 43 a for bending the first headband 43 is provided on the top of the first headband 43.
Further, a bearing portion 43 b constituting the rotation mechanism 56 is provided at one end of the first headband 43. The other end of the first headband 43 is provided with a bearing portion 43 c that constitutes a rotation mechanism 57.

軸受部43bよりも更にバンド先端側には、ヘッドパット46が接続される軸受部43dが設けられている。また、軸受部43cよりも更にバンド先端側には、ヘッドパット47が接続される軸受部43eが設けられている。   A bearing portion 43d to which the head pad 46 is connected is provided further on the front end side of the band than the bearing portion 43b. Further, a bearing portion 43e to which the head pad 47 is connected is provided further on the band tip side than the bearing portion 43c.

第2ヘッドバンド44は、全体として円弧状を成す弾性部材である。第2ヘッドバンド44の頂部には、第2ヘッドバンド44を折り曲げるためのジョイント部44aが設けられている。また、第2ヘッドバンド44の一端には、回動機構56を構成する軸部材44bが設けられている。また、第2ヘッドバンド44の他端には、回動機構57を構成する軸部材44cが設けられている。   The second headband 44 is an elastic member having an arc shape as a whole. A joint portion 44 a for bending the second headband 44 is provided on the top of the second headband 44. In addition, a shaft member 44 b constituting the rotation mechanism 56 is provided at one end of the second headband 44. A shaft member 44 c that constitutes a rotation mechanism 57 is provided at the other end of the second headband 44.

また、第2ヘッドバンド44は、ステンレス等の金属からなるバネ部材48の表面が、樹脂等の柔軟な材料により被覆された構成を有する。ユーザーの頭部を挟持するバネ力は、第2ヘッドバンド44のバネ部材48により発生する。また、第2ヘッドバンド44は、第1ヘッドバンド43と比較して、広い幅に形成されている。これにより、ジョイント部44aの形成部分は、他のバンド部分よりも更に広く形成された標章表示部49を有している。標章表示部49には、シール又は印刷による製品タグ等が付される。なお、第2ヘッドバンド44の全体は、金属で形成されていてもよい。   The second headband 44 has a configuration in which the surface of a spring member 48 made of a metal such as stainless steel is covered with a flexible material such as a resin. The spring force for clamping the user's head is generated by the spring member 48 of the second headband 44. Further, the second headband 44 is formed with a wider width than the first headband 43. Thereby, the formation part of the joint part 44a has the mark display part 49 formed wider than other band parts. The mark display unit 49 is attached with a product tag by sticker or printing. The entire second headband 44 may be made of metal.

ヘッドパット46は、ヘッドバンド40の一端に設けられている。ヘッドパット46は、板状の支持板46aと、弾性部材46bとを有する。弾性部材46bは、支持板46aの一面側に設けられ、断面アーチ状で比較的硬度の高い部材である。   The head pad 46 is provided at one end of the headband 40. The head pad 46 includes a plate-like support plate 46a and an elastic member 46b. The elastic member 46b is a member that is provided on one surface side of the support plate 46a, has a cross-sectional arch shape, and has a relatively high hardness.

連結ピン41は、概略六角柱状である。連結ピン41は、第1ヘッドバンド43の一端に設けられた軸受部43dに、軸支されている。連結ピン41は、支持板46aの弾性部材46bに対して反対側の面に、垂直な姿勢で立設されている。これにより、連結ピン41は、ヘッドパット46を回転可能に支持する。   The connecting pin 41 has a substantially hexagonal column shape. The connecting pin 41 is pivotally supported by a bearing portion 43 d provided at one end of the first headband 43. The connecting pin 41 is erected in a vertical posture on the surface of the support plate 46a opposite to the elastic member 46b. Thereby, the connection pin 41 supports the head pad 46 rotatably.

ヘッドパット47は、ヘッドバンド40の他端に設けられている。ヘッドパット47は、板状の支持板47aと、弾性部材47bとを有する。弾性部材47bは、支持板47aの一面側に設けられ、断面アーチ状で比較的硬度の高い部材である。   The head pad 47 is provided at the other end of the headband 40. The head pad 47 includes a plate-like support plate 47a and an elastic member 47b. The elastic member 47b is a member that is provided on one surface side of the support plate 47a, has a cross-sectional arch shape, and has a relatively high hardness.

回動機構56は、第2ヘッドバンド44を第1ヘッドバンド43から離す方向に付勢する付勢機構である。また、回動機構57は、第2ヘッドバンド44の回動可能な角度範囲を規制する規制機構である。この構成により、第2ヘッドバンド44は、回動機構56により第1ヘッドバンド43から離れる方向に回動付勢され、且つ、回動機構57により第1ヘッドバンド43に対して所定角度以内の範囲に回動規制される。これにより、第2ヘッドバンド44は、第1ヘッドバンド43に対して任意の角度で保持される。したがって、回動機構56及び回動機構57は、ヘッドバンド40における角度保持機構として機能する。   The rotation mechanism 56 is a biasing mechanism that biases the second headband 44 in a direction away from the first headband 43. The rotation mechanism 57 is a restriction mechanism that restricts an angle range in which the second headband 44 can be turned. With this configuration, the second headband 44 is urged to rotate away from the first headband 43 by the rotation mechanism 56, and is within a predetermined angle with respect to the first headband 43 by the rotation mechanism 57. The rotation is restricted to the range. As a result, the second headband 44 is held at an arbitrary angle with respect to the first headband 43. Therefore, the rotation mechanism 56 and the rotation mechanism 57 function as an angle holding mechanism in the headband 40.

図3は、ヘッドマウントディスプレイの装着形態を示す図である。ディスプレイ本体20は、ヘッドバンド40により、ユーザーの頭部に装着される。連結孔31(図2を参照)に連結ピン41(図2を参照)が挿入される際、ディスプレイ本体20の向きが反転されても、ヘッドバンド40がディスプレイ本体20を支持することができるので、ヘッドマウントディスプレイ1は、ユーザーの頭部の左右どちらにディスプレイ本体20が装着されても使用可能である。   FIG. 3 is a diagram illustrating a mounting form of the head mounted display. The display main body 20 is attached to the user's head by the headband 40. When the connection pin 41 (see FIG. 2) is inserted into the connection hole 31 (see FIG. 2), the headband 40 can support the display body 20 even if the orientation of the display body 20 is reversed. The head mounted display 1 can be used regardless of whether the display body 20 is mounted on the left or right side of the user's head.

図3(A)には、ユーザーが右眼(右目)で表示部60を見ている状態が示されている。一方、図3(B)には、ユーザーが左眼(左目)で表示部60を見ている状態が示されている。ユーザーが右眼で表示部60を見ている状態と、ユーザーが左眼で表示部60を見ている状態とでは、ヘッドバンド40に支持される装置本体部21の向きは、反転されている。   FIG. 3A shows a state where the user is viewing the display unit 60 with the right eye (right eye). On the other hand, FIG. 3B shows a state where the user is viewing the display unit 60 with the left eye (left eye). The orientation of the device main body 21 supported by the headband 40 is reversed between the state where the user is viewing the display unit 60 with the right eye and the state where the user is viewing the display unit 60 with the left eye. .

図4は、ディスプレイ本体20の水平断面図である。図4では、表示部60のヘッドバンド40側を内側と称し、ヘッドバンド40側に対して反対側を外側と称する。図4(A)には、表示部60が収容されていない状態が示されている。一方、図4(B)には、表示部60が収容されている状態が示されている。   FIG. 4 is a horizontal sectional view of the display body 20. In FIG. 4, the headband 40 side of the display unit 60 is referred to as an inner side, and the opposite side to the headband 40 side is referred to as an outer side. FIG. 4A shows a state where the display unit 60 is not accommodated. On the other hand, FIG. 4B shows a state in which the display unit 60 is accommodated.

装置本体部21には、筐体21Aの長手方向に沿って延びる板状の回路基板29と、バッテリー33とが内蔵されている。また、回路基板29には、制御回路(不図示)と、電源回路等(不図示)とが実装されている。また、ディスプレイ本体20の各部は、配線(不図示)を介して電気的に接続されている。   The apparatus body 21 incorporates a plate-like circuit board 29 extending along the longitudinal direction of the housing 21 </ b> A and a battery 33. In addition, a control circuit (not shown), a power supply circuit and the like (not shown) are mounted on the circuit board 29. Moreover, each part of the display main body 20 is electrically connected via wiring (not shown).

タッチスイッチ34は、装置本体部21の外面に露出するよう配置されている。また、タッチスイッチ34の内側には、表示パネル36と、バックライト35とが配置されている。表示パネル36は、640×480画素を有する表示部である。表示パネル36に表示される画像は、タッチスイッチ34を透過して表示される。表示パネル36及びバックライト35は、例えば、液晶パネル、有機EL(Electro Luminescence)パネル、又は電気泳動パネルである。   The touch switch 34 is disposed so as to be exposed on the outer surface of the apparatus main body 21. Further, a display panel 36 and a backlight 35 are disposed inside the touch switch 34. The display panel 36 is a display unit having 640 × 480 pixels. An image displayed on the display panel 36 is displayed through the touch switch 34. The display panel 36 and the backlight 35 are, for example, a liquid crystal panel, an organic EL (Electro Luminescence) panel, or an electrophoresis panel.

ヘッドバンドヒンジ32は、筐体21Aに設けられた凹曲面状の収容部32aと、収容部32aに嵌合された球状部32bとから成るボールジョイントである。球状部32bは、球面状の側面部と、この側面部を挟むように互いに平行に形成された二つの平面部を有する。連結孔31は、この二つの平面部を垂直に貫くように形成されている。また、連結孔31は、軸方向視で六角形状(図2を参照)に形成されている。連結孔31には、ヘッドバンド40の連結ピン41が挿入される。これにより、ヘッドバンド40は、ディスプレイ本体20を支持することができる。   The headband hinge 32 is a ball joint composed of a concavely curved accommodation portion 32a provided in the housing 21A and a spherical portion 32b fitted to the accommodation portion 32a. The spherical portion 32b has a spherical side surface portion and two plane portions formed in parallel to each other so as to sandwich the side surface portion. The connecting hole 31 is formed so as to penetrate the two flat portions vertically. The connecting hole 31 is formed in a hexagonal shape (see FIG. 2) when viewed in the axial direction. The connection pin 41 of the headband 40 is inserted into the connection hole 31. Thereby, the headband 40 can support the display main body 20.

ヘッドバンドヒンジ32は、連結孔31を中心とするX軸回り(図1では、A方向)に回動可能に、ヘッドバンド40にディスプレイ本体20を支持させることができる。ヘッドバンド40に支持されているディスプレイ本体20の回動可能範囲は、例えば、270[度]である。ユーザーが右眼(右目)で表示部60を見ている状態(図3(A)を参照)と、ユーザーが左眼(左目)で表示部60を見ている状態(図3(B)を参照)との切り替えは、ユーザーによる回動操作により実現される。   The headband hinge 32 can support the display main body 20 on the headband 40 so as to be rotatable about the X axis (A direction in FIG. 1) around the connection hole 31. The rotatable range of the display main body 20 supported by the headband 40 is, for example, 270 [degrees]. A state where the user is viewing the display unit 60 with the right eye (right eye) (see FIG. 3A) and a state where the user is viewing the display unit 60 with the left eye (left eye) (FIG. 3B). Switching to (see) is realized by a turning operation by the user.

また、ヘッドバンドヒンジ32は、ボールジョイントであるため、連結孔31を中心とするZ軸回り(図1では、B方向)に揺動可能である。ヘッドバンドヒンジ32は、ディスプレイ本体20と、ユーザーの眼及び耳との相対位置を、揺動操作によりユーザーに調整させることができる。   Further, since the headband hinge 32 is a ball joint, the headband hinge 32 can swing around the Z-axis (the B direction in FIG. 1) with the connecting hole 31 as the center. The headband hinge 32 allows the user to adjust the relative position of the display main body 20 and the user's eyes and ears by a swing operation.

心拍数センサー137は、装置本体部21の内面から突出するように設けられる。これにより、心拍数センサー137は、ヘッドマウントディスプレイ1が装着された際に、ユーザーの顔の表面に当接可能である。バッテリー33は、一次電池、及び二次電池のいずれでもよい。   The heart rate sensor 137 is provided so as to protrude from the inner surface of the apparatus main body 21. Thereby, the heart rate sensor 137 can contact the surface of the user's face when the head mounted display 1 is worn. The battery 33 may be either a primary battery or a secondary battery.

表示部60は、装置本体部21の先端部に連結されている。表示部60は、上面視(Z軸視)において湾曲した形状を有するアーム部材であり、装置本体部21との連結部から先端側へ向かうに従い、内側に湾曲する形状を有する。表示部60の内面には、ファインダー開口部67が設けられている。また、表示部60の外面には、カメラ64が設けられている。   The display unit 60 is connected to the distal end portion of the apparatus main body unit 21. The display unit 60 is an arm member having a curved shape in a top view (Z-axis view), and has a shape that curves inward as it goes from the connecting portion with the apparatus main body 21 toward the distal end side. A finder opening 67 is provided on the inner surface of the display unit 60. A camera 64 is provided on the outer surface of the display unit 60.

表示部60は、ディスプレイヒンジ61を介して、装置本体部21と連結されている。ディスプレイヒンジ61は、表示部60の筐体60Aに形成された凹曲面状の収容部61aと、装置本体部21に形成され収容部61aに嵌合された球状部61bとからなるボールジョイントである。   The display unit 60 is connected to the apparatus main body unit 21 via a display hinge 61. The display hinge 61 is a ball joint composed of a concave curved housing 61a formed in the housing 60A of the display 60 and a spherical portion 61b formed in the apparatus main body 21 and fitted in the housing 61a. .

ディスプレイヒンジ61の球状部61bは、装置本体部21の外面の先端部に形成された傾斜面21aに設けられている。ここで、ディスプレイヒンジ61の球状部61bは、筐体21Aの長手方向に対して斜めに延びる傾斜面の法線方向(Y’軸方向)に突出するように、設けられている。これにより、表示部60は、ディスプレイヒンジ61の球状部61bに対してY’軸回りに、自由に回転可能である。   The spherical portion 61 b of the display hinge 61 is provided on an inclined surface 21 a formed at the distal end portion of the outer surface of the apparatus main body portion 21. Here, the spherical portion 61b of the display hinge 61 is provided so as to protrude in the normal direction (Y′-axis direction) of the inclined surface extending obliquely with respect to the longitudinal direction of the housing 21A. Accordingly, the display unit 60 can freely rotate around the Y ′ axis with respect to the spherical portion 61 b of the display hinge 61.

ディスプレイヒンジ61の球状部61bには、球状部61bを高さ方向(Y’軸方向)に貫通する貫通孔61cが形成されている。表示部60の内部と装置本体部21の内部とは、貫通孔61cを介して連通されている。また、貫通孔61cには、ケーブル(不図示)が挿通される。回路基板29と表示部60の各部とは、この挿通されたケーブルを介して、電気的に接続される。   The spherical portion 61b of the display hinge 61 is formed with a through hole 61c that penetrates the spherical portion 61b in the height direction (Y′-axis direction). The inside of the display part 60 and the inside of the apparatus main body part 21 are connected via the through-hole 61c. A cable (not shown) is inserted through the through hole 61c. The circuit board 29 and each part of the display unit 60 are electrically connected via the inserted cable.

この構成により、表示部60の各部は、回路基板29の近傍に配置される。これにより、表示部の位置をY方向(図2を参照)に調整可能とする機構を、表示部60に設けずに済む。また、表示部60では、映像信号のケーブルが長く引き回されることがない。したがって、表示部60は、映像信号にノイズが混入する可能性、及び、不要輻射が発せられる可能性を、極めて低く抑えることができる。   With this configuration, each part of the display unit 60 is disposed in the vicinity of the circuit board 29. This eliminates the need to provide the display unit 60 with a mechanism that allows the position of the display unit to be adjusted in the Y direction (see FIG. 2). Further, in the display unit 60, the video signal cable is not routed for a long time. Therefore, the display unit 60 can suppress the possibility that noise is mixed in the video signal and the possibility that unnecessary radiation is emitted.

表示部60は、バックライト62と、表示パネル63と、カメラ64と、プリズム65と、反射ミラー66と、前方ライト68と、前方スピーカー70と、結像レンズ71と、撮像素子72とを備える。   The display unit 60 includes a backlight 62, a display panel 63, a camera 64, a prism 65, a reflection mirror 66, a front light 68, a front speaker 70, an imaging lens 71, and an image sensor 72. .

プリズム65は、上面視(Z軸視)で略三角形状の第1プリズム65aと、上面視(Z軸視)で略三角形状の第2プリズム65bとが、互いの面で貼り合わされた構成を有する。表示パネル63は、第1プリズム65aにおいて貼り合わされていない二面のうち、一方の面に対向する位置に設けられる。表示パネル63は、800×480画素を有する表示部である。表示パネル63は、例えば、液晶パネルである。また、表示パネル63の背面には、表示パネル63を透過照明するためのバックライト62が配置される。また、第1プリズム65aにおいて貼り合わされていない他方の面に対向する位置には、反射ミラー66が配置される。ここで、反射ミラー66は、ファインダー開口部67のほぼ正面の位置に配置される。   The prism 65 has a configuration in which a first prism 65a having a substantially triangular shape in a top view (Z-axis view) and a second prism 65b having a substantially triangular shape in a top view (Z-axis view) are bonded to each other. Have. The display panel 63 is provided at a position facing one of the two surfaces not bonded to each other in the first prism 65a. The display panel 63 is a display unit having 800 × 480 pixels. The display panel 63 is, for example, a liquid crystal panel. In addition, a backlight 62 for transmitting and illuminating the display panel 63 is disposed on the back surface of the display panel 63. A reflection mirror 66 is disposed at a position facing the other surface of the first prism 65a that is not bonded. Here, the reflection mirror 66 is arranged at a position substantially in front of the finder opening 67.

第2プリズム65bにおいて貼り合わされていない二面のうち、一方の面は、ファインダー開口部67のファインダー接眼面となる。また、第2プリズム65bにおいて貼り合わされていない他方の面に対向する位置には、結像レンズ71及び撮像素子72が対向配置される。   Of the two surfaces that are not bonded to each other in the second prism 65 b, one surface is a finder eyepiece surface of the finder opening 67. In addition, the imaging lens 71 and the imaging element 72 are arranged to face each other at a position facing the other surface not bonded to the second prism 65b.

表示部60において、表示パネル63に表示された画像は、その光学像が、第1プリズム65a、反射ミラー66、及び第2プリズム65bを介して、ファインダー開口部67から射出されることで、ユーザーに観察される。   In the display unit 60, the optical image displayed on the display panel 63 is emitted from the viewfinder opening 67 through the first prism 65a, the reflection mirror 66, and the second prism 65b, so that the user Observed.

撮像素子72は、ファインダー開口部67を介して表示パネル63を見ているユーザーの目元を、第2プリズム65b及び結像レンズ71を介して撮像する。撮像された目元の画像は、ユーザーの視線方向、目の瞬き、及び表情を解析する際に用いられる。すなわち、撮像素子72は、ユーザーの目元を撮像する撮像部として機能する。ここで、バックライト62は、撮像素子72がユーザーの目元を撮像する際に、そのユーザーの目元を照明するための照明装置としても利用される。   The image sensor 72 images the eye of the user who is looking at the display panel 63 through the finder opening 67 through the second prism 65 b and the imaging lens 71. The captured image of the eye is used when analyzing the user's line-of-sight direction, eye blink, and facial expression. That is, the imaging element 72 functions as an imaging unit that images the user's eyes. Here, the backlight 62 is also used as an illuminating device for illuminating the eyes of the user when the image sensor 72 images the eyes of the user.

カメラ64(撮像部)は、例えば、500万画素〜1000万画素の撮像素子を有し、オートフォーカス動作が可能である。また、カメラ64の撮像方向は、ユーザーの視線方向と一致するように設定される。これにより、カメラ64は、ヘッドマウントディスプレイ1を装着したユーザーの視線方向の映像を、撮像することができる。   The camera 64 (imaging unit) has, for example, an image sensor with 5 to 10 million pixels and can perform an autofocus operation. The imaging direction of the camera 64 is set so as to coincide with the user's line-of-sight direction. Thereby, the camera 64 can capture an image in the line of sight of the user wearing the head mounted display 1.

ここで、カメラ64の撮像方向と、ユーザーの視線方向との一致調整は、機械的に行ってもよいが、画像処理により行われてもよい。例えば、ユーザーの目元を広角撮像した画像から、ユーザーの視線方向の情報が画像処理により取得されることで、ユーザーの視線方向の映像は、カメラ64が撮像した映像から抜き出されてもよい。これにより、表示パネル63は、その抜き出された映像を表示することができる。つまり、ユーザーの視線方向の映像は、カメラ64に調整機構を設けることなく、撮像及び表示されることが可能となる。   Here, the matching adjustment between the imaging direction of the camera 64 and the user's line-of-sight direction may be performed mechanically or may be performed by image processing. For example, the image of the user's line-of-sight direction may be extracted from the image captured by the camera 64 by acquiring information on the user's line-of-sight direction from an image obtained by wide-angle imaging of the user's eyes. Thereby, the display panel 63 can display the extracted video. That is, the image in the user's line-of-sight direction can be captured and displayed without providing the camera 64 with an adjustment mechanism.

前方ライト68は、例えば、LED(Light Emitting Diode)ライトである。前方ライト68は、赤、緑、青の各色の発光素子を有し、任意の色を任意のタイミングで発光させることが可能である。例えば、前方ライト68は、発光色及び発光タイミングにより、外部に対して情報を表示する装置として用いられる。また、例えば、前方ライト68は、カメラ64が撮像する際に、照明装置として用いられてもよい。   The front light 68 is, for example, an LED (Light Emitting Diode) light. The front light 68 has light emitting elements of red, green, and blue, and can emit any color at any timing. For example, the front light 68 is used as a device that displays information to the outside based on the emission color and the emission timing. For example, the front light 68 may be used as a lighting device when the camera 64 captures an image.

図5は、ヘッドバンドの斜視図である。図5(A)は、開いた状態のヘッドバンド40の斜視図である。ここで、円弧高さr1は、同軸に配置された回動機構56及び回動機構57の回転軸Lの中央位置Cから、第1ヘッドバンド43までの距離の最大値である。また、円弧高さr2は、回転軸Lの中央位置Cから、第2ヘッドバンド44までの距離の最大値である。第1ヘッドバンド43の円弧高さr1は、第2ヘッドバンド44の円弧高さr2よりも低い。これにより、第1ヘッドバンド43と第2ヘッドバンド44とが交差するように移動されても、第1ヘッドバンド43と第2ヘッドバンド44とは、互いに干渉することなく、その位置の前後関係が入れ替わる。   FIG. 5 is a perspective view of the headband. FIG. 5A is a perspective view of the headband 40 in an open state. Here, the arc height r <b> 1 is the maximum value of the distance from the center position C of the rotation axis L of the rotation mechanism 56 and the rotation mechanism 57 arranged coaxially to the first headband 43. The arc height r2 is the maximum value of the distance from the center position C of the rotation axis L to the second headband 44. The arc height r1 of the first headband 43 is lower than the arc height r2 of the second headband 44. As a result, even if the first headband 43 and the second headband 44 are moved so as to cross each other, the first headband 43 and the second headband 44 do not interfere with each other, and the positional relationship between the first headband 43 and the second headband 44 Will be replaced.

なお、ヘッドバンド40は、第1ヘッドバンド43の円弧高さr1を、第2ヘッドバンド44の円弧高さr2よりも長くすることにより、第2ヘッドバンド44を第1ヘッドバンド43の内側で揺動させる構成とされてもよい。   Note that the headband 40 has the second headband 44 inside the first headband 43 by making the arc height r1 of the first headband 43 longer than the arc height r2 of the second headband 44. It may be configured to swing.

また、第1ヘッドバンド43及び第2ヘッドバンド44は、折り畳み(開閉)可能な構成を有する。図5(B)は、わずかに開いた状態(折り畳み途中状態)のヘッドバンド40の斜視図である。また、図5(C)は、閉じた状態(折り畳み状態)のヘッドバンド40の斜視図である。   The first headband 43 and the second headband 44 have a configuration that can be folded (opened and closed). FIG. 5B is a perspective view of the headband 40 in a slightly opened state (in the middle of folding). FIG. 5C is a perspective view of the headband 40 in a closed state (folded state).

ジョイント部43aは、第1ヘッドバンド43の中央から、ヘッドパット47寄りの位置に設けられている。また、ジョイント部44aは、第2ヘッドバンド44の中央から、ヘッドパット47寄りの位置に設けられている。また、第1ヘッドバンド43又は第2ヘッドバンド44のうち、ヘッドパット47に接続される側のバンドが内側になるように、ジョイント部43a及びジョイント部44aのヒンジが連結されている。   The joint portion 43 a is provided at a position near the head pad 47 from the center of the first headband 43. The joint portion 44 a is provided at a position near the head pad 47 from the center of the second headband 44. Further, the hinges of the joint portion 43a and the joint portion 44a are coupled so that the band on the side connected to the head pad 47 of the first headband 43 or the second headband 44 is inside.

この構成により、閉じた状態(折り畳み状態)において、ヘッドパット46の内側(弾性部材46b側)に、ヘッドパット47が配置される。これにより、ヘッドパット46に突設された連結ピン41が邪魔にならないようコンパクトに、ヘッドバンド40は折り畳まれることができる。   With this configuration, the head pad 47 is arranged inside the head pad 46 (on the elastic member 46b side) in the closed state (folded state). Accordingly, the headband 40 can be folded in a compact manner so that the connecting pin 41 protruding from the head pad 46 does not get in the way.

ヘッドバンド40を折り畳むには、まず、ユーザーは、開いた状態(図5(A)を参照)から、第2ヘッドバンド44を第1ヘッドバンド43に近づけるように移動させる。次に、ユーザーは、第1ヘッドバンド43に設けられたジョイント部43a、及び第2ヘッドバンド44に設けられたジョイント部44aを、それぞれ折り曲げることで、ヘッドパット47をヘッドパット46側へ移動させ、わずかに開いた状態(図5(B)を参照)にする。さらに、ユーザーは、ジョイント部43a及びジョイント部44aを折り曲げることで、ヘッドパット46及びヘッドパット47が重なる位置(閉じた状態(図5(C)を参照)まで、ヘッドバンド40を折り畳むことが可能である。   To fold the headband 40, first, the user moves the second headband 44 from the open state (see FIG. 5A) so as to approach the first headband 43. Next, the user moves the head pad 47 toward the head pad 46 by bending the joint part 43a provided on the first headband 43 and the joint part 44a provided on the second headband 44, respectively. , Slightly open (see FIG. 5B). Furthermore, the user can fold the headband 40 until the head pad 46 and the head pad 47 overlap each other (see FIG. 5C) by folding the joint part 43a and the joint part 44a. It is.

一方、閉じた状態(折り畳み状態)から、開いた状態にヘッドバンド40を戻すには、ユーザーは、閉じた状態(折り畳み状態)から、わずかに開いた状態に、ヘッドバンド40の状態を移行させるだけでよい。第2ヘッドバンド44は、第1ヘッドバンド43から離れる方向に、回動機構56により付勢されている。このため、ヘッドバンド40は、わずかに開いた状態(図5(B)を参照)に戻されるだけで、ジョイント部43a及びジョイント部44aが開く方向に付勢力が作用し、開いた状態に復元される。さらに、ヘッドバンド40は、回動機構56の付勢力によって、第2ヘッドバンド44が揺動され、開いた状態(図5(A)を参照)から、ユーザーの頭部への装着が可能な状態(図2を参照)(以下、「展開状態」という)に展開される。   On the other hand, in order to return the headband 40 from the closed state (folded state) to the open state, the user shifts the state of the headband 40 from the closed state (folded state) to the slightly opened state. Just do it. The second headband 44 is urged by a rotation mechanism 56 in a direction away from the first headband 43. For this reason, the headband 40 is restored to the open state by applying a biasing force in the direction in which the joint portion 43a and the joint portion 44a are opened only by returning the headband 40 slightly to the open state (see FIG. 5B). Is done. Further, the headband 40 can be mounted on the user's head from the state where the second headband 44 is swung by the urging force of the rotation mechanism 56 and is opened (see FIG. 5A). It is expanded to a state (see FIG. 2) (hereinafter referred to as “deployed state”).

ここで、第2ヘッドバンド44に付勢力を作用させる回動機構56は、第1ヘッドバンド43に対して、前後両方向に付勢力を作用させるトグル構造を有している。回動機構56の付勢方向を切り替えるには、第1ヘッドバンド43と第2ヘッドバンド44との位置の前後関係は、入れ替えられる必要がある。一方、ユーザーは、開いた状態(図5(A)を参照)から閉じた状態(図5(C)を参照)に、ヘッドバンド40を移行させる際、第1ヘッドバンド43と第2ヘッドバンド44との位置の前後関係を、入れ替える必要がない。つまり、ユーザーは、第1ヘッドバンド43と第2ヘッドバンド44を近づけて、ジョイント部43a及びジョイント部44aを折り曲げるだけで、わずかに開いた状態(図5(B)を参照)に、ヘッドバンド40を移行させることができる。   Here, the rotation mechanism 56 that applies an urging force to the second headband 44 has a toggle structure that applies an urging force to the first headband 43 in both the front and rear directions. In order to switch the urging direction of the rotation mechanism 56, the front-rear relationship between the positions of the first headband 43 and the second headband 44 needs to be switched. On the other hand, when the user shifts the headband 40 from the open state (see FIG. 5A) to the closed state (see FIG. 5C), the first headband 43 and the second headband. It is not necessary to change the position relationship with 44. That is, the user brings the first headband 43 and the second headband 44 close to each other, and bends the joint portion 43a and the joint portion 44a, so that the headband is slightly opened (see FIG. 5B). 40 can be migrated.

そのため、ヘッドバンド40が展開状態から折り畳まれ、再び展開状態に戻された場合、回動機構56の付勢方向が切り替わることは、ほとんど無い。したがって、ヘッドバンド40が展開状態から折り畳まれ、再び展開状態に戻された場合、第1ヘッドバンド43と第2ヘッドバンド44との位置の前後関係が入れ替わってしまうことは、ほとんど無い。例えば、ユーザーが、右眼で表示部60を見ている状態(図3(A)を参照)から、ヘッドバンド40を頭部から外し(図1を参照)、展開状態から折り畳んで、再び展開状態に戻せば、ヘッドバンド40は、ユーザーが右眼で表示部60を見ることができる状態(図1を参照)に戻る。   Therefore, when the headband 40 is folded from the unfolded state and returned to the unfolded state, the urging direction of the rotating mechanism 56 is hardly switched. Therefore, when the headband 40 is folded from the unfolded state and returned to the unfolded state, the positional relationship between the first headband 43 and the second headband 44 is hardly changed. For example, from a state where the user is viewing the display unit 60 with the right eye (see FIG. 3A), the headband 40 is removed from the head (see FIG. 1), folded from the unfolded state, and unfolded again. If it returns to a state, the headband 40 will return to the state (refer FIG. 1) in which a user can see the display part 60 with a right eye.

図6は、リモコンの斜視図である。リモコン140は、筐体140Aと、タッチパッド141と、操作スイッチ147と、USBコネクター142と、インジケーター143a〜143cと、取付クリップ144と、インジケータースイッチ150とを備える。また、リモコン140は、リモコン140を総合的に制御するリモコン処理部(不図示)を備える。   FIG. 6 is a perspective view of the remote controller. The remote control 140 includes a housing 140A, a touch pad 141, an operation switch 147, a USB connector 142, indicators 143a to 143c, a mounting clip 144, and an indicator switch 150. In addition, the remote control 140 includes a remote control processing unit (not shown) that comprehensively controls the remote control 140.

USBケーブル148の一方の端子がUSBコネクター142に接続され、且つ、USBケーブル148の他方の端子が、装置本体部21のUSBコネクター25(図2を参照)に接続されることで、リモコン140は、装置本体部21と電気的に接続される。USBケーブル148は、USB規格に準拠しているケーブルである。USBケーブル148の途中には、複数のクリップ149が設けられている。複数のクリップ149は、例えば、USBケーブル148を第2ヘッドバンド44(図2を参照)に沿わせた状態で固定するために用いられる。   One terminal of the USB cable 148 is connected to the USB connector 142, and the other terminal of the USB cable 148 is connected to the USB connector 25 (see FIG. 2) of the device main body 21, so that the remote controller 140 is The device main body 21 is electrically connected. The USB cable 148 is a cable compliant with the USB standard. A plurality of clips 149 are provided in the middle of the USB cable 148. The plurality of clips 149 are used, for example, to fix the USB cable 148 along the second headband 44 (see FIG. 2).

リモコン140には、ディスプレイ本体20などの他の電子機器と無線通信を行うための通信回路が内蔵されている。この通信方式としては、例えば、Bluetooth(登録商標)、無線LAN、赤外線通信、UWB(Ultra Wide Band)、「Transfer Jet」などが用いられる。これにより、リモコン140は、USBケーブル148が接続されていなくても、ディスプレイ本体20と通信することができる。   The remote control 140 incorporates a communication circuit for performing wireless communication with other electronic devices such as the display body 20. As this communication method, for example, Bluetooth (registered trademark), wireless LAN, infrared communication, UWB (Ultra Wide Band), “Transfer Jet”, or the like is used. Thereby, the remote controller 140 can communicate with the display main body 20 even if the USB cable 148 is not connected.

リモコン140には、加速度センサー(Gセンサー)、角速度センサー、及び、方位センサーが内蔵されていてもよい。これらのセンサーに検出された情報は、通信回路を介して、ディスプレイ本体20に通信可能である。   The remote control 140 may incorporate an acceleration sensor (G sensor), an angular velocity sensor, and an orientation sensor. Information detected by these sensors can be communicated to the display body 20 via a communication circuit.

タッチパッド141は、筐体140Aの一方の主面に設けられている。タッチパッド141は、ユーザーがタッチすることにより、ユーザーがディスプレイ本体20を操作するための操作部である。また、筐体140Aの内部における、タッチパッド141の背面側には、装置本体部21のタッチスイッチ34(図4を参照)と同様に、表示パネル及びバックライトが設けられてもよい。   The touch pad 141 is provided on one main surface of the housing 140A. The touch pad 141 is an operation unit for the user to operate the display main body 20 by touching the user. In addition, a display panel and a backlight may be provided on the back side of the touch pad 141 inside the housing 140A, similarly to the touch switch 34 (see FIG. 4) of the apparatus main body 21.

操作スイッチ147は、リモコン140及びディスプレイ本体20を手動操作するためのスイッチである。なお、操作スイッチ147は、必須構成ではない。
インジケータースイッチ150は、インジケーター143a〜143cを利用した所定動作(例えば、パターン発光)を行わせるためのスイッチである。インジケータースイッチ150は、筐体140Aの側面に設けられる。
The operation switch 147 is a switch for manually operating the remote controller 140 and the display main body 20. The operation switch 147 is not an essential configuration.
The indicator switch 150 is a switch for performing a predetermined operation (for example, pattern light emission) using the indicators 143a to 143c. The indicator switch 150 is provided on the side surface of the housing 140A.

USBコネクター142は、装置本体部21と電気的に接続されるほか、パーソナルコンピュータ(PC)と電気的に接続される。また、USBコネクター142は、リモコン140が充電式のバッテリーを内蔵している場合、そのバッテリーに充電するための充電端子となる。また、USBコネクター142は、リモコン140が充電式のバッテリーを内蔵している場合、そのバッテリーから装置本体部21に給電するための給電端子となる。リモコン140から装置本体部21に給電可能にすることで、装置本体部21は、バッテリー容量が小さくてもよいので、小型軽量化される。   The USB connector 142 is electrically connected to the apparatus main body 21 and is also electrically connected to a personal computer (PC). In addition, when the remote control 140 has a built-in rechargeable battery, the USB connector 142 serves as a charging terminal for charging the battery. Further, the USB connector 142 serves as a power supply terminal for supplying power to the apparatus main body 21 from the battery when the remote control 140 has a built-in rechargeable battery. By enabling power supply from the remote controller 140 to the apparatus main body 21, the apparatus main body 21 may be small and light because the battery capacity may be small.

インジケーター143a〜143cは、タッチパッド141の周囲に配置されている。図6では、インジケーター143aは、タッチパッド141の一辺に沿う位置に配置されている。また、インジケーター143b及びインジケーター143cは、インジケーター143aに対してタッチパッド141を挟んだ反対側に配置されている。   The indicators 143a to 143c are arranged around the touch pad 141. In FIG. 6, the indicator 143 a is disposed at a position along one side of the touch pad 141. The indicator 143b and the indicator 143c are arranged on the opposite side of the indicator 143a with the touch pad 141 interposed therebetween.

インジケーター143a〜143cは、LED等の発光素子を備える。インジケーター143aは、例えば、緑色の発光素子を備える。また、インジケーター143bは、例えば、オレンジ色の発光素子を備える。また、インジケーター143cは、例えば、青色の発光素子を備える。   The indicators 143a to 143c include light emitting elements such as LEDs. The indicator 143a includes, for example, a green light emitting element. The indicator 143b includes, for example, an orange light emitting element. The indicator 143c includes, for example, a blue light emitting element.

インジケーター143a〜143cは、インジケータースイッチ150が操作されることにより、パターン発光がオンオフされる。また、インジケーター143a〜143cは、リモコン処理部(不図示)により制御されたタイミングパターンで、パターン発光する。   The indicators 143a to 143c are turned on and off when the indicator switch 150 is operated. The indicators 143a to 143c emit patterns with a timing pattern controlled by a remote control processing unit (not shown).

このパターン発光は、例えば、リモコン140の状態(例えば、リモコン140の傾き姿勢)を示す。このパターン発光が装置本体部21のカメラ64により撮像され、撮像されたパターン発光が装置本体部21に解析されることにより、リモコン140の状態を示す情報は、装置本体部21に伝達される。パターン発光を利用した情報伝達により、リモコン140は、無線通信を用いた場合と比較して、消費電力を抑えることができる。   This pattern light emission indicates, for example, the state of the remote controller 140 (for example, the tilt posture of the remote controller 140). The pattern light emission is picked up by the camera 64 of the apparatus main body unit 21, and the imaged pattern light emission is analyzed by the apparatus main body unit 21, whereby information indicating the state of the remote controller 140 is transmitted to the device main body unit 21. By transmitting information using the pattern light emission, the remote controller 140 can suppress power consumption compared to the case of using wireless communication.

取付クリップ144は、タッチパッド141に対して筐体140Aを挟んだ反対側の面に設けられている。取付クリップ144は、一端を筐体140Aに固定された側面視S形のバネ板部材である。取付クリップ144は、ユーザーの衣服又はベルト等に、リモコン140を装着させる。   The attachment clip 144 is provided on the opposite surface of the touch pad 141 with the housing 140A interposed therebetween. The mounting clip 144 is an S-shaped spring plate member having one end fixed to the housing 140A. The attachment clip 144 attaches the remote controller 140 to a user's clothes or belt.

図7は、ステレオイヤホンを示す斜視図である。ステレオイヤホン100は、コネクター101と、ケーブル102と、第1スピーカー103と、第2スピーカー104と、集音マイク105と、複数のクリップ106とを有する。   FIG. 7 is a perspective view showing a stereo earphone. Stereo earphone 100 includes a connector 101, a cable 102, a first speaker 103, a second speaker 104, a sound collecting microphone 105, and a plurality of clips 106.

コネクター101は、ケーブル102の一方の端部に設けられている。コネクター101は、例えば、4極φ3.5mmのミニプラグである。ここで、4極の内訳は、集音マイク105、第1スピーカー103、第2スピーカー104、及び、グランド(GND)である。ケーブル102は、コネクター101の近傍において二分岐されている。ケーブル102の一方の端部には、第1スピーカー103が設けられている。また、ケーブル102の他方の端部には、第2スピーカー104が設けられている。また、複数のクリップ106は、ケーブル102上に、所定の間隔で配置されている。   The connector 101 is provided at one end of the cable 102. The connector 101 is, for example, a 4-pole φ3.5 mm mini plug. Here, the breakdown of the four poles is the sound collection microphone 105, the first speaker 103, the second speaker 104, and the ground (GND). The cable 102 is bifurcated in the vicinity of the connector 101. A first speaker 103 is provided at one end of the cable 102. A second speaker 104 is provided at the other end of the cable 102. Further, the plurality of clips 106 are arranged on the cable 102 at a predetermined interval.

ステレオイヤホン100は、ディスプレイ本体20のオーディオコネクター26(図2を参照)に、コネクター101が接続された状態で使用される。オーディオコネクター26にコネクター101が接続された場合、第1スピーカー103、第2スピーカー104、及び集音マイク105は、有効化される。   The stereo earphone 100 is used in a state where the connector 101 is connected to the audio connector 26 (see FIG. 2) of the display body 20. When the connector 101 is connected to the audio connector 26, the first speaker 103, the second speaker 104, and the sound collecting microphone 105 are activated.

また、オーディオコネクター26にコネクター101が接続された場合、ディスプレイ本体20の耳元スピーカー23(図2を参照)、及び、表示部60の通話マイク37(図4を参照)は、無効化される。ここで、表示部60の前方スピーカー70(図4を参照)は、必要に応じて無効化される。   When the connector 101 is connected to the audio connector 26, the ear speaker 23 (see FIG. 2) of the display body 20 and the call microphone 37 (see FIG. 4) of the display unit 60 are invalidated. Here, the front speaker 70 (see FIG. 4) of the display unit 60 is invalidated as necessary.

第1スピーカー103は、ディスプレイ本体20が配置された側のユーザーの耳に装着される。一方、第2スピーカー104は、第1スピーカー103とは反対側の耳に装着される。ここで、ケーブル102は、クリップ106により、第2ヘッドバンド44に固定されてもよい。   The first speaker 103 is attached to the ear of the user on the side where the display body 20 is disposed. On the other hand, the second speaker 104 is attached to the ear on the opposite side to the first speaker 103. Here, the cable 102 may be fixed to the second headband 44 by the clip 106.

また、集音マイク105と、ディスプレイ本体20の集音マイク24(図1を参照)とにより、ステレオ録音が可能である。ユーザーが右眼で表示部60を見ている場合(図3(A)を参照)、集音マイク24がユーザーの右側から収音し、左耳に装着されている集音マイク105がユーザーの左側から収音することにより、ステレオ録音は可能である。この場合、第1スピーカー103は、右チャンネルの音声を出力する。また、第2スピーカー104は、左チャンネルの音声を出力する。   Further, stereo recording can be performed by the sound collecting microphone 105 and the sound collecting microphone 24 (see FIG. 1) of the display main body 20. When the user is viewing the display unit 60 with the right eye (see FIG. 3A), the sound collection microphone 24 picks up sound from the right side of the user, and the sound collection microphone 105 attached to the left ear is the user's right. Stereo recording is possible by collecting sound from the left side. In this case, the first speaker 103 outputs the right channel sound. The second speaker 104 outputs left channel sound.

一方、ユーザーが左眼で表示部60を見ている場合(図3(B)を参照)、集音マイク24がユーザーの左側から収音し、右耳に装着されている集音マイク105がユーザーの右側から収音することにより、ステレオ録音は可能である。この場合、第1スピーカー103は、左チャンネルの音声を出力する。また、第2スピーカー104は、右チャンネルの音声を出力する。   On the other hand, when the user is viewing the display unit 60 with the left eye (see FIG. 3B), the sound collecting microphone 24 picks up sound from the left side of the user and the sound collecting microphone 105 attached to the right ear is Stereo recording is possible by collecting sound from the right side of the user. In this case, the first speaker 103 outputs the left channel sound. The second speaker 104 outputs right channel sound.

また、集音マイク24及び集音マイク105は、いずれもユーザーの耳の近傍に配置されるため、バイノーラル録音のような臨場感のある録音が可能である。なお、集音マイク24の特性と集音マイク105の特性とが近い場合、右チャンネルの音声と、左チャンネルの音声との差異は小さくなる。   Further, since both the sound collecting microphone 24 and the sound collecting microphone 105 are arranged in the vicinity of the user's ear, recording with a sense of reality such as binaural recording is possible. When the characteristics of the sound collecting microphone 24 and the characteristics of the sound collecting microphone 105 are close, the difference between the right channel sound and the left channel sound becomes small.

図8は、ヘッドマウントディスプレイの機能ブロック図である。ヘッドマウントディスプレイ1は、バックライト35と、バックライト62と、バッテリー33と、BLドライバ126と、電源回路120と、表示パネル36と、表示パネル63と、LCDドライバ125と、耳元スピーカー23と、スピーカーアンプ162と、前方スピーカー70と、ビデオコネクター27と、デコーダー121と、カメラ64と、撮像素子72と、集音マイク24と、通話マイク37と、オーディオコネクター26と、ヘッドバンドセンサー151と、レーザー発振器73と、角速度センサー134と、GPSセンサー135と、温湿度センサー136と、心拍数センサー137と、メモリー127と、メインスイッチ28と、タッチスイッチ34と、エンコーダー129と、3G/LTE通信回路138と、前方ライト68と、地磁気センサー133と、加速度センサー132と、WiFi通信回路131と、BT通信回路130と、フラッシュメモリー122と、操作スイッチ30と、処理部123と、を備える。   FIG. 8 is a functional block diagram of the head mounted display. The head mounted display 1 includes a backlight 35, a backlight 62, a battery 33, a BL driver 126, a power supply circuit 120, a display panel 36, a display panel 63, an LCD driver 125, an ear speaker 23, Speaker amplifier 162, front speaker 70, video connector 27, decoder 121, camera 64, image sensor 72, sound collecting microphone 24, call microphone 37, audio connector 26, headband sensor 151, Laser oscillator 73, angular velocity sensor 134, GPS sensor 135, temperature / humidity sensor 136, heart rate sensor 137, memory 127, main switch 28, touch switch 34, encoder 129, and 3G / LTE communication circuit 138 and the front It comprises a preparative 68, a geomagnetic sensor 133, an acceleration sensor 132, a WiFi communication circuit 131, and BT communication circuit 130, a flash memory 122, an operation switch 30, a processing unit 123, a.

バッテリー33は、電源回路120を介して、ヘッドマウントディスプレイ1の各部に電力を供給する。
電源回路120は、バッテリー33から供給された電力の制御(例えば、電圧の変換、供給オンオフ)を、処理部123から供給される制御信号に基づいて実行する。
The battery 33 supplies power to each part of the head mounted display 1 via the power supply circuit 120.
The power supply circuit 120 executes control of power supplied from the battery 33 (for example, voltage conversion, supply on / off) based on a control signal supplied from the processing unit 123.

メモリー127は、処理部123が実行する制御プログラムを、予め記憶する。
メインスイッチ28は、装置全体の電源のオンオフを行うためのスイッチであり、ユーザーが操作することにより、その操作に基づく制御信号を処理部123に供給する。
操作スイッチ30は、画面内でのポインティング操作を行うためのスイッチであり、ユーザーが操作することにより、その操作に基づく制御信号を処理部123に供給する。
タッチスイッチ34は、タッチ操作により各種の操作入力を行うスイッチであり、操作入力に基づく制御信号を処理部123に供給する。
The memory 127 stores a control program executed by the processing unit 123 in advance.
The main switch 28 is a switch for turning on and off the power supply of the entire apparatus, and supplies a control signal based on the operation to the processing unit 123 when operated by a user.
The operation switch 30 is a switch for performing a pointing operation on the screen, and supplies a control signal based on the operation to the processing unit 123 when operated by a user.
The touch switch 34 is a switch for performing various operation inputs by a touch operation, and supplies a control signal based on the operation input to the processing unit 123.

なお、ディスプレイ本体20は、ユーザーの右側又は左側のいずれに装着された場合でも、メインスイッチ28、操作スイッチ30、及びタッチスイッチ34を介した操作入力により操作可能である。   The display body 20 can be operated by an operation input via the main switch 28, the operation switch 30, and the touch switch 34 regardless of whether the display body 20 is mounted on the right side or the left side of the user.

加速度センサー132(Gセンサー)は、加速度の方向(例えば、重力方向)を検出し、検出した加速度の方向の情報(以下、「加速度情報」という)を処理部123に供給する。供給された加速度情報は、ヘッドマウントディスプレイ1の姿勢(傾き)を検出するために用いられる。   The acceleration sensor 132 (G sensor) detects the direction of acceleration (for example, the direction of gravity), and supplies information on the detected direction of acceleration (hereinafter referred to as “acceleration information”) to the processing unit 123. The supplied acceleration information is used to detect the posture (tilt) of the head mounted display 1.

地磁気センサー133は、地磁気に基づいて方位情報を検出し、検出した方位情報を処理部123に供給する。検出した方位情報は、ヘッドマウントディスプレイ1が向いている方位の検出に用いられる。   The geomagnetic sensor 133 detects azimuth information based on geomagnetism, and supplies the detected azimuth information to the processing unit 123. The detected orientation information is used to detect the orientation in which the head mounted display 1 is facing.

角速度センサー134(ジャイロセンサー)は、角速度を検出し、検出した角速度を処理部123に供給する。検出した角速度は、ヘッドマウントディスプレイ1の回転検出に用いられる。
GPSセンサー135は、GPSを利用した測位により、ヘッドマウントディスプレイ1の緯度、経度及び高度を測定し、測定した緯度、経度及び高度を、処理部123に供給する。
The angular velocity sensor 134 (gyro sensor) detects the angular velocity and supplies the detected angular velocity to the processing unit 123. The detected angular velocity is used for detecting the rotation of the head mounted display 1.
The GPS sensor 135 measures the latitude, longitude, and altitude of the head mounted display 1 by positioning using GPS, and supplies the measured latitude, longitude, and altitude to the processing unit 123.

温湿度センサー136は、環境の温度、及び湿度を検出する。温湿度センサー136は、検出した環境の温度、及び湿度を処理部123に供給する。
レーザー発振器73は、表示パネル63に表示された画像内の所定の位置に対応するターゲット(対象物)に、レーザー光(スポット光)を照射する。
The temperature / humidity sensor 136 detects the temperature and humidity of the environment. The temperature / humidity sensor 136 supplies the detected temperature and humidity of the environment to the processing unit 123.
The laser oscillator 73 irradiates a target (object) corresponding to a predetermined position in the image displayed on the display panel 63 with laser light (spot light).

心拍数センサー137は、ユーザーの頬に当接して心拍数を検出し、検出したユーザーの心拍数を処理部123に供給する。これにより、心拍数センサー137は、ヘッドマウントディスプレイ1がユーザーに装着されているか否か、つまり、ユーザーの頭部の近傍にディスプレイ本体20が配置されているか否かを検出することができる。   The heart rate sensor 137 contacts the user's cheek to detect the heart rate, and supplies the detected user's heart rate to the processing unit 123. Thereby, the heart rate sensor 137 can detect whether or not the head mounted display 1 is worn by the user, that is, whether or not the display main body 20 is disposed in the vicinity of the user's head.

ヘッドバンドセンサー151は、ディスプレイ本体20がヘッドバンド40に支持(連結)されたことを検出し、ディスプレイ本体20がヘッドバンド40に支持されているか否かを示す信号を、処理部123に出力する。ここで、ヘッドバンドセンサー151は、ヘッドバンド40に設けられた連結ピン41(図2を参照)が、ディスプレイ本体20のヘッドバンドヒンジ32(図2を参照)に挿入されることにより、ディスプレイ本体20がヘッドバンド40に支持(連結)されたことを検出する。   The headband sensor 151 detects that the display body 20 is supported (connected) by the headband 40 and outputs a signal indicating whether or not the display body 20 is supported by the headband 40 to the processing unit 123. . Here, the headband sensor 151 is configured such that the connecting pin 41 (see FIG. 2) provided on the headband 40 is inserted into the headband hinge 32 (see FIG. 2) of the display body 20, thereby It is detected that 20 is supported (connected) by the headband 40.

カメラ64(撮像部)は、オートフォーカス動作、及び撮像処理を実行する。カメラ64は、光学系と、撮像素子とを備える。カメラ64の光学系は、レンズ群を備える。また、光学系のレンズ群は、カメラ64の撮像素子の受光面に、被写体像(光学像)を結像させる。なお、カメラ64の光学系のレンズは、オートフォーカス動作の際、処理部123から供給される制御信号に基づいて駆動される。   The camera 64 (imaging unit) executes an autofocus operation and an imaging process. The camera 64 includes an optical system and an image sensor. The optical system of the camera 64 includes a lens group. The lens group of the optical system forms a subject image (optical image) on the light receiving surface of the image sensor of the camera 64. The lens of the optical system of the camera 64 is driven based on a control signal supplied from the processing unit 123 during the autofocus operation.

カメラ64の撮像素子は、CCDイメージセンサ(Charge Coupled Device Image Sensor)などの撮像素子である。カメラ64の撮像素子は、受光面に結像された被写体像(光学像)を、撮像処理により電気信号に変換し、さらに画像データに変換してエンコーダー129に出力する。   The imaging device of the camera 64 is an imaging device such as a CCD image sensor (Charge Coupled Device Image Sensor). The imaging element of the camera 64 converts the subject image (optical image) formed on the light receiving surface into an electrical signal by imaging processing, further converts it into image data, and outputs it to the encoder 129.

カメラ64は、比較的深い被写界深度を有し、至近から無限遠方までの範囲を、いわゆるパンフォーカスにより撮像することができる。これにより、カメラ64は、無限遠方に在る被写体の被写体像に合焦させている場合でも、至近に在るユーザーの手の画像に合焦させて、そのユーザーの手を検出することができる。   The camera 64 has a relatively deep depth of field, and can capture a range from close to infinity by so-called pan focus. Thereby, even when the camera 64 is focused on the subject image of a subject located at infinity, the camera 64 can focus on the image of the user's hand that is in the vicinity and detect the user's hand. .

撮像素子72は、その受光面に結像された被写体像(光学像)を、撮像処理により電気信号に変換し、さらに画像データに変換してエンコーダー129に出力する。   The image sensor 72 converts a subject image (optical image) formed on the light receiving surface thereof into an electrical signal by an imaging process, further converts it into image data, and outputs the image data to the encoder 129.

エンコーダー129には、カメラ64、撮像素子72、集音マイク24、通話マイク37、及び、ビデオコネクター27が接続されている。エンコーダー129は、集音マイク24及び通話マイク37から入力された各音声信号を、所定の音声方式の音声データにエンコードする。すなわち、エンコーダー129は、集音マイク24及び通話マイク37からそれぞれ入力された音声信号をエンコード(符号化)し、エンコードした音声信号を処理部123に供給する。   Connected to the encoder 129 are a camera 64, an image sensor 72, a sound collection microphone 24, a call microphone 37, and a video connector 27. The encoder 129 encodes each audio signal input from the sound collection microphone 24 and the call microphone 37 into audio data of a predetermined audio system. That is, the encoder 129 encodes the audio signals input from the sound collection microphone 24 and the call microphone 37 and supplies the encoded audio signals to the processing unit 123.

エンコーダー129は、カメラ64、撮像素子72、及びビデオコネクター27から入力された各映像信号を、所定の映像方式の映像データにエンコードする。すなわち、エンコーダー129は、カメラ64、撮像素子72、及びビデオコネクター27からそれぞれ入力された映像(画像)信号をエンコードし、エンコードした映像(画像)信号を処理部123に供給する。   The encoder 129 encodes each video signal input from the camera 64, the image sensor 72, and the video connector 27 into video data of a predetermined video format. That is, the encoder 129 encodes video (image) signals input from the camera 64, the image sensor 72, and the video connector 27, and supplies the encoded video (image) signals to the processing unit 123.

処理部123は、例えば、CPU(Central Processing Unit)である。処理部123は、ヘッドマウントディスプレイ1の各種回路(機能ブロック)に接続されるとともに、ヘッドマウントディスプレイ1を総合的に制御する。また、処理部123は、操作スイッチ30が受け付けた操作入力に基づいて動作することができる。   The processing unit 123 is, for example, a CPU (Central Processing Unit). The processing unit 123 is connected to various circuits (functional blocks) of the head mounted display 1 and comprehensively controls the head mounted display 1. The processing unit 123 can operate based on the operation input received by the operation switch 30.

処理部123は、集音マイク24及び通話マイク37等からエンコーダー129を介して供給された音声データを、フラッシュメモリー122に記憶させる。また、処理部123は、集音マイク24及び通話マイク37等からエンコーダー129を介して供給された音声データを、BT通信回路130、WiFi通信回路131、及び3G/LTE通信回路138の少なくとも一つを介して、他の機器(不図示)に送信する。また、処理部123は、フラッシュメモリー122に記憶された音声データを、BT通信回路130、WiFi通信回路131、及び3G/LTE通信回路138の少なくとも一つを介して、他の機器(不図示)に送信してもよい。   The processing unit 123 stores the audio data supplied from the sound collection microphone 24 and the call microphone 37 via the encoder 129 in the flash memory 122. Further, the processing unit 123 converts the audio data supplied from the sound collection microphone 24 and the call microphone 37 via the encoder 129 into at least one of the BT communication circuit 130, the WiFi communication circuit 131, and the 3G / LTE communication circuit 138. To other devices (not shown). Further, the processing unit 123 converts the audio data stored in the flash memory 122 into another device (not shown) via at least one of the BT communication circuit 130, the WiFi communication circuit 131, and the 3G / LTE communication circuit 138. May be sent to.

また、処理部123は、カメラ64、撮像素子72、及びビデオコネクター27の少なくとも一つから、エンコーダー129を介して供給された映像(画像)データを、フラッシュメモリー122に記憶させる。また、処理部123は、カメラ64、撮像素子72、及びビデオコネクター27の少なくとも一つから、エンコーダー129を介して供給された映像(画像)データを、デコーダー121及びLCDドライバ125を介して、表示パネル36及び表示パネル63に表示させる。また、処理部123は、フラッシュメモリー122に記憶された映像(画像)データを、デコーダー121及びLCDドライバ125を介して、表示パネル36及び表示パネル63に表示させる。   In addition, the processing unit 123 stores video (image) data supplied from at least one of the camera 64, the image sensor 72, and the video connector 27 via the encoder 129 in the flash memory 122. The processing unit 123 also displays video (image) data supplied from at least one of the camera 64, the imaging device 72, and the video connector 27 via the encoder 129 via the decoder 121 and the LCD driver 125. It is displayed on the panel 36 and the display panel 63. In addition, the processing unit 123 displays the video (image) data stored in the flash memory 122 on the display panel 36 and the display panel 63 via the decoder 121 and the LCD driver 125.

また、処理部123は、デコーダー121から出力された映像信号を、LCDドライバ125を介して、表示パネル36及び表示パネル63の少なくとも一方に供給させる。これにより、映像データが再生される。すなわち、入力された映像信号に基づく映像は、表示パネル36及び表示パネル63の少なくとも一方に表示される。また、処理部123は、デコーダー121から出力された映像信号を、ビデオコネクター27を介して外部機器(不図示)に出力させる。   In addition, the processing unit 123 supplies the video signal output from the decoder 121 to at least one of the display panel 36 and the display panel 63 via the LCD driver 125. Thereby, the video data is reproduced. That is, the video based on the input video signal is displayed on at least one of the display panel 36 and the display panel 63. In addition, the processing unit 123 causes the video signal output from the decoder 121 to be output to an external device (not shown) via the video connector 27.

また、処理部123は、カメラ64、撮像素子72、及びビデオコネクター27の少なくとも一つから、エンコーダー129を介して供給された映像(画像)データを、BT通信回路130、WiFi通信回路131、及び3G/LTE通信回路138の少なくとも一つを介して、他の機器(不図示)に送信する。   In addition, the processing unit 123 converts video (image) data supplied from at least one of the camera 64, the image sensor 72, and the video connector 27 via the encoder 129 into a BT communication circuit 130, a WiFi communication circuit 131, and The data is transmitted to another device (not shown) via at least one of the 3G / LTE communication circuit 138.

また、処理部123には、ディスプレイ本体20がヘッドバンド40に支持されているか否かを示す信号が、ヘッドバンドセンサー151から入力される。処理部123は、表示パネル36用のバックライト35を、必要に応じて点灯させることにより、表示パネル36に映像(画像)を表示させる。例えば、処理部123は、ディスプレイ本体20がヘッドバンド40に支持されていない場合、表示パネル36に映像(画像)を表示させる。ここで、処理部123は、BLドライバ126に制御信号を供給することにより、BLドライバ126にバックライト35を点灯させる。   In addition, a signal indicating whether the display main body 20 is supported by the headband 40 is input from the headband sensor 151 to the processing unit 123. The processing unit 123 causes the display panel 36 to display a video (image) by turning on the backlight 35 for the display panel 36 as necessary. For example, when the display main body 20 is not supported by the headband 40, the processing unit 123 displays a video (image) on the display panel 36. Here, the processing unit 123 supplies the control signal to the BL driver 126 to cause the BL driver 126 to turn on the backlight 35.

また、処理部123は、表示パネル63用のバックライト62を、必要に応じて点灯させることにより、表示パネル63に映像(画像)を表示させる。例えば、処理部123は、ディスプレイ本体20がヘッドバンド40に支持されている場合、表示パネル63に映像(画像)を表示させる。ここで、処理部123は、BLドライバ126に制御信号を供給することにより、BLドライバ126にバックライト62を点灯させる。   The processing unit 123 causes the display panel 63 to display a video (image) by turning on the backlight 62 for the display panel 63 as necessary. For example, when the display body 20 is supported by the headband 40, the processing unit 123 causes the display panel 63 to display a video (image). Here, the processing unit 123 supplies a control signal to the BL driver 126 to cause the BL driver 126 to turn on the backlight 62.

バイブレーター164は、いわゆるマナーモードに設定された状態で着信があった場合に、処理部123から供給された制御信号に基づいて振動する。これにより、マナーモードに設定された状態でも、着信がユーザーに通知される。   Vibrator 164 vibrates based on a control signal supplied from processing unit 123 when an incoming call is received in a state set to a so-called manner mode. Thereby, even when the manner mode is set, the user is notified of an incoming call.

デコーダー121には、LCDドライバ125、スピーカーアンプ162、ビデオコネクター27及びオーディオコネクター26が接続されている。デコーダー121は、音声データを音声信号にデコード(復号化)し、デコードした音声信号を、スピーカーアンプ162又はオーディオコネクター26に供給する。また、デコーダー121は、映像(画像)データを映像(画像)信号にデコードし、デコードした映像信号を、LCDドライバ125又はビデオコネクター27に供給する。   An LCD driver 125, a speaker amplifier 162, a video connector 27, and an audio connector 26 are connected to the decoder 121. The decoder 121 decodes the audio data into an audio signal, and supplies the decoded audio signal to the speaker amplifier 162 or the audio connector 26. The decoder 121 decodes video (image) data into a video (image) signal, and supplies the decoded video signal to the LCD driver 125 or the video connector 27.

LCDドライバ125は、例えば、液晶パネル用の駆動信号を生成する回路であり、表示パネル36及び表示パネル63に接続されている。LCDドライバ125は、処理部123からデコーダー121を介して供給された映像(画像)信号に基づいて、液晶パネル用の駆動信号を生成し、生成した液晶パネル用の駆動信号を、表示パネル36又は表示パネル63に供給する。   The LCD driver 125 is a circuit that generates a driving signal for a liquid crystal panel, for example, and is connected to the display panel 36 and the display panel 63. The LCD driver 125 generates a drive signal for the liquid crystal panel based on the video (image) signal supplied from the processing unit 123 via the decoder 121, and displays the generated drive signal for the liquid crystal panel on the display panel 36 or This is supplied to the display panel 63.

表示パネル63(表示部)は、例えば、液晶表示パネルであり、LCDドライバ125から供給される駆動信号に基づいて、映像(画像)を表示する。表示パネル63は、例えば、カメラ64によって撮像された画像、及びメニュー画面を表示する。   The display panel 63 (display unit) is, for example, a liquid crystal display panel, and displays a video (image) based on a drive signal supplied from the LCD driver 125. The display panel 63 displays, for example, an image captured by the camera 64 and a menu screen.

BLドライバ126は、例えば、バックライト用の駆動信号を生成する回路であり、バックライト35及びバックライト62に接続されている。BLドライバ126は、処理部123から供給された制御信号に基づいて、バックライト用の駆動信号を生成し、生成したバックライト用の駆動信号を、バックライト35及びバックライト62に供給する。   The BL driver 126 is a circuit that generates a drive signal for backlight, for example, and is connected to the backlight 35 and the backlight 62. The BL driver 126 generates a backlight drive signal based on the control signal supplied from the processing unit 123, and supplies the generated backlight drive signal to the backlight 35 and the backlight 62.

スピーカーアンプ162は、デコーダー121を介して供給された音声信号を増幅し、増幅した音声信号を、耳元スピーカー23及び前方スピーカー70に供給する。ここで、スピーカーアンプ162は、デコーダー121を介して供給された左右の音声信号を合成し、合成した結果としてのモノラル音声信号を、耳元スピーカー23及び前方スピーカー70に供給する。   The speaker amplifier 162 amplifies the audio signal supplied via the decoder 121 and supplies the amplified audio signal to the ear speaker 23 and the front speaker 70. Here, the speaker amplifier 162 synthesizes the left and right audio signals supplied via the decoder 121, and supplies a monaural audio signal as a result of the synthesis to the ear speaker 23 and the front speaker 70.

耳元スピーカー23は、左右の音声信号が合成されたモノラル音声を出力する。
前方スピーカー70は、左右の音声信号が合成されたモノラル音声を出力する。
The ear speaker 23 outputs monaural sound in which left and right sound signals are synthesized.
The front speaker 70 outputs monaural sound in which left and right audio signals are synthesized.

BT通信回路130は、他の機器とのBluetooth(登録商標)通信を行うための通信回路である。
WiFi通信回路131は、他の機器との無線LAN通信(IEEE 802.11)を行うための通信回路である。
3G/LTE通信回路138は、他の機器との移動通信を行うための通信回路である。
BT通信回路130、WiFi通信回路131、及び3G/LTE通信回路138は、他の機器との間で、音声データ及び映像(画像)データなどの情報の送受信を実行する。
The BT communication circuit 130 is a communication circuit for performing Bluetooth (registered trademark) communication with other devices.
The WiFi communication circuit 131 is a communication circuit for performing wireless LAN communication (IEEE 802.11) with other devices.
The 3G / LTE communication circuit 138 is a communication circuit for performing mobile communication with other devices.
The BT communication circuit 130, the WiFi communication circuit 131, and the 3G / LTE communication circuit 138 perform transmission / reception of information such as audio data and video (image) data with other devices.

次に、ヘッドマウントディスプレイの動作手順を説明する。
図9は、ヘッドマウントディスプレイの動作手順を示すフローチャートである。図9では、ディスプレイ本体20を支持(連結)していないヘッドバンド40が、ユーザーの頭部に事前に装着されているものとして説明を続ける。このフローチャートに示す動作手順は、例えば、ディスプレイ本体20への電源投入時に開始される。
Next, the operation procedure of the head mounted display will be described.
FIG. 9 is a flowchart showing an operation procedure of the head mounted display. In FIG. 9, the description will be continued assuming that the headband 40 that does not support (connect) the display main body 20 is attached to the user's head in advance. The operation procedure shown in this flowchart is started when the display main body 20 is powered on, for example.

(ステップS1)処理部123(図8を参照)は、前回の使用時にディスプレイ本体20がユーザーの頭部に装着されていない状態で検出された重力の方向G1を示す情報と、ユーザーの頭部に装着された状態で検出された重力の方向G2を示す情報とを、メモリー127から読み出す。ここで、重力の方向とは、加速度センサー132により検出された加速度の方向である。   (Step S1) The processing unit 123 (see FIG. 8) includes information indicating the direction of gravity G1 detected when the display main body 20 is not attached to the user's head during the previous use, and the user's head. Information indicating the direction of gravity G2 detected in the state of being attached to the memory 127 is read out from the memory 127. Here, the direction of gravity is the direction of acceleration detected by the acceleration sensor 132.

なお、ヘッドマウントディスプレイ1に電源が初めて投入された場合(ユーザーがヘッドマウントディスプレイ1を初めて使用する場合)、工場出荷時にメモリー127に記憶されているデフォルト値が、重力の方向を示す情報として使用されてもよい。このデフォルト値は、重力の方向G1が−Y方向(図1を参照)を示し、重力の方向G2が−Z方向(図1を参照)を示していてもよい。   When the power is first applied to the head mounted display 1 (when the user uses the head mounted display 1 for the first time), the default value stored in the memory 127 at the time of shipment from the factory is used as information indicating the direction of gravity. May be. In this default value, the direction of gravity G1 may indicate the -Y direction (see FIG. 1), and the direction of gravity G2 may indicate the -Z direction (see FIG. 1).

(ステップS2)処理部123は、ユーザーの頭部又はヘッドバンド40(図1を参照)に、ディスプレイ本体20(図1を参照)が装着されているか否かを判定する。ユーザーの頭部又はヘッドバンド40にディスプレイ本体20が装着されている場合(ステップS2:Yes)、処理部123は、ステップS10に処理を進める。一方、ユーザーの頭部又はヘッドバンド40に、ディスプレイ本体20が装着されていない場合(ステップS2:No)、処理部123は、ステップS3に処理を進める。   (Step S2) The processing unit 123 determines whether or not the display main body 20 (see FIG. 1) is attached to the user's head or the headband 40 (see FIG. 1). When the display main body 20 is attached to the user's head or the headband 40 (step S2: Yes), the processing unit 123 advances the process to step S10. On the other hand, when the display main body 20 is not attached to the user's head or the headband 40 (step S2: No), the processing unit 123 advances the processing to step S3.

ここで、例えば、心拍数センサー137によりユーザーの心拍数が測定された場合、処理部123は、ユーザーの頭部にディスプレイ本体20が装着されていると判定する。また、例えば、ディスプレイ本体20がヘッドバンド40に支持されたことが、ヘッドバンドセンサー151により検出された場合、処理部123は、ディスプレイ本体20がヘッドバンド40に支持されたことを以って、ユーザーの頭部にディスプレイ本体20が装着されていると判定する。   Here, for example, when the heart rate of the user is measured by the heart rate sensor 137, the processing unit 123 determines that the display body 20 is mounted on the user's head. Further, for example, when the headband sensor 151 detects that the display body 20 is supported by the headband 40, the processing unit 123 indicates that the display body 20 is supported by the headband 40. It is determined that the display body 20 is mounted on the user's head.

(ステップS3)処理部123は、表示パネル63を照明するためのバックライト62を消灯させる。ユーザーの頭部又はヘッドバンド40にディスプレイ本体20が装着されていない場合、ユーザーは表示部60を覗いていない、と推測できるからである。なお、ユーザーの頭部又はヘッドバンド40にディスプレイ本体20が装着されていない場合、ディスプレイ本体20は、例えば、ユーザーの手に保持されていてもよい。   (Step S3) The processing unit 123 turns off the backlight 62 for illuminating the display panel 63. This is because when the display main body 20 is not attached to the user's head or the headband 40, it can be assumed that the user is not looking into the display unit 60. When the display main body 20 is not attached to the user's head or the headband 40, the display main body 20 may be held in the user's hand, for example.

(ステップS4)処理部123は、表示パネル36の画素数として、640×480画素を示す情報をメモリー127から読み出す。処理部123は、LCDドライバ125のレジスタ(不図示)に、640×480画素を示す情報に基づく値を記憶させる。例えば、処理部123は、LCDドライバ125のレジスタ(不図示)に、表示パネル36のアスペクト比4:3(=640:480)を示す値を記憶させる。   (Step S <b> 4) The processing unit 123 reads information indicating 640 × 480 pixels from the memory 127 as the number of pixels of the display panel 36. The processing unit 123 stores a value based on information indicating 640 × 480 pixels in a register (not shown) of the LCD driver 125. For example, the processing unit 123 stores a value indicating an aspect ratio of 4: 3 (= 640: 480) of the display panel 36 in a register (not shown) of the LCD driver 125.

(ステップS5)加速度センサー132は、重力の方向として、加速度方向を検出する。加速度方向が主にX方向(図1を参照)である場合、表示パネル36がほぼ水平に置かれていると推定されるので、処理部123は、工場出荷時にメモリー127に記憶されている重力の方向G1を、重力方向と定める。一方、加速度方向が主にX方向以外である場合、処理部123は、加速度センサー132が検出した加速度方向を、重力方向と定める。   (Step S5) The acceleration sensor 132 detects the acceleration direction as the direction of gravity. When the acceleration direction is mainly the X direction (see FIG. 1), it is presumed that the display panel 36 is placed almost horizontally, so that the processing unit 123 has the gravity stored in the memory 127 at the time of factory shipment. Is defined as the direction of gravity. On the other hand, when the acceleration direction is mainly other than the X direction, the processing unit 123 determines the acceleration direction detected by the acceleration sensor 132 as the gravity direction.

(ステップS6)処理部123は、ディスプレイ本体20に対して定めた重力方向に基づいて、表示パネル36(図4を参照)に表示される画像の向きを定める。ここで、例えば、ディスプレイ本体20に対して定めた重力方向が、−Z方向(図1を参照)である場合、処理部123は、Z方向が上側、且つ、Y方向(図1を参照)が左側となるように、画像表示方向を定める。また、例えば、ディスプレイ本体20に対して定めた重力方向が、Y方向(図1を参照)である場合、処理部123は、Y方向が下側、且つ、Z方向が左側となるように、画像表示方向を定める。このように、処理部123は、ユーザーにとって正立するように画像の向きを定める。   (Step S <b> 6) The processing unit 123 determines the orientation of the image displayed on the display panel 36 (see FIG. 4) based on the gravity direction determined with respect to the display main body 20. Here, for example, when the gravity direction determined with respect to the display main body 20 is the −Z direction (see FIG. 1), the processing unit 123 has the Z direction on the upper side and the Y direction (see FIG. 1). The image display direction is determined so that is on the left side. Further, for example, when the gravity direction determined with respect to the display main body 20 is the Y direction (see FIG. 1), the processing unit 123 is configured so that the Y direction is on the lower side and the Z direction is on the left side. Determine the image display direction. In this way, the processing unit 123 determines the orientation of the image so that it is upright for the user.

(ステップS7)表示パネル36は、処理部123により定められた画像の向きに基づいて、画像を表示する。
図10は、表示パネル36(第1表示パネル)に表示された画像の向きの第1例を示す図である。この第1例は、処理部123がディスプレイ本体20に対して定めた重力方向が、−Z方向(図1を参照)である場合における、表示パネル36(図4を参照)に表示された画像の向きの例である。
(Step S <b> 7) The display panel 36 displays an image based on the image orientation determined by the processing unit 123.
FIG. 10 is a diagram illustrating a first example of the orientation of an image displayed on the display panel 36 (first display panel). This first example is an image displayed on the display panel 36 (see FIG. 4) when the gravity direction defined by the processing unit 123 with respect to the display main body 20 is the −Z direction (see FIG. 1). This is an example of the direction.

表示パネル36に表示された画像300aには、アイコン画像311〜319が含まれている。図10では、重力方向340(図1では、−Z方向)は、矢印で示されている。   The image 300a displayed on the display panel 36 includes icon images 311 to 319. In FIG. 10, the gravity direction 340 (in FIG. 1, -Z direction) is indicated by an arrow.

アイコン画像311〜319は、表示パネル36のアスペクト比(=4:3)に応じて、ユーザーにとって見やすいように配置される。また、アイコン画像311〜319を構成するは、表示パネル36の画素数に応じて、間引かれてもよい。このように、ディスプレイ本体20(図1を参照)が装着されていない場合、処理部123は、ディスプレイ本体20の姿勢、すなわち、ディスプレイ本体20にかかる重力の方向に応じて、画像の向きを定める。これにより、処理部123は、ユーザーに見やすいように、ユーザーにとって正立した画像を表示させることができる。   The icon images 311 to 319 are arranged so as to be easily seen by the user according to the aspect ratio (= 4: 3) of the display panel 36. The icon images 311 to 319 may be thinned out according to the number of pixels of the display panel 36. Thus, when the display main body 20 (see FIG. 1) is not attached, the processing unit 123 determines the orientation of the image according to the attitude of the display main body 20, that is, the direction of gravity applied to the display main body 20. . Thus, the processing unit 123 can display an image that is upright for the user so that the user can easily see the image.

図11は、表示パネル36(第1表示パネル)に表示された画像の向きの第2例を示す図である。この第2例は、処理部123がディスプレイ本体20に対して定めた重力方向が、Y方向(図1を参照)である場合における、表示パネル36(図4を参照)に表示された画像の向きの例である。   FIG. 11 is a diagram illustrating a second example of the orientation of the image displayed on the display panel 36 (first display panel). In this second example, an image displayed on the display panel 36 (see FIG. 4) when the gravity direction defined by the processing unit 123 with respect to the display main body 20 is the Y direction (see FIG. 1). This is an example of orientation.

表示パネル36に表示された画像300bには、アイコン画像311〜319が含まれている。図11では、重力方向340(図1では、Y方向)は、矢印で示されている。このように、ディスプレイ本体20(図1を参照)が装着されていない場合、ディスプレイ本体20の姿勢、すなわち、ディスプレイ本体20にかかる重力の方向に応じて、画像の向きを定めることにより、処理部123は、定めた画像の向きに基づいて、ユーザーに見やすいように、ユーザーにとって正立した画像を表示させることができる。   The image 300b displayed on the display panel 36 includes icon images 311 to 319. In FIG. 11, the gravity direction 340 (Y direction in FIG. 1) is indicated by an arrow. As described above, when the display main body 20 (see FIG. 1) is not attached, the processing unit determines the orientation of the image according to the orientation of the display main body 20, that is, the direction of gravity applied to the display main body 20. 123 can display an image that is upright for the user based on the determined orientation of the image so that the user can easily see the image.

また、アイコン画像311〜319は、表示パネル36のアスペクト比(=3:4)に応じて、見やすいように配置される。また、アイコン画像311〜319を構成する画素は、表示パネル36の画素数に応じて、間引かれてもよい。   The icon images 311 to 319 are arranged so as to be easy to see according to the aspect ratio (= 3: 4) of the display panel 36. Further, the pixels constituting the icon images 311 to 319 may be thinned out according to the number of pixels of the display panel 36.

なお、表示パネル36に表示された画像と同じ画像は、表示部60の表示パネル63(図4を参照)にも表示される。ここで、表示パネル63は、800×480画素を有するので、表示パネル36よりも画素数が多い。また、表示パネル63のアスペクト比は、5:3(=800:480)であり、表示パネル36のアスペクト比とは異なる。このため、表示パネル63は、表示パネル36用に最適化された画像を、綺麗に表示することができない。この場合、表示パネル63上に綺麗に表示されていない画像は、バックライト62(図4を参照)が消灯されているため、観察されることがない。   The same image as that displayed on the display panel 36 is also displayed on the display panel 63 (see FIG. 4) of the display unit 60. Here, since the display panel 63 has 800 × 480 pixels, the number of pixels is larger than that of the display panel 36. The aspect ratio of the display panel 63 is 5: 3 (= 800: 480), which is different from the aspect ratio of the display panel 36. For this reason, the display panel 63 cannot clearly display the image optimized for the display panel 36. In this case, an image that is not clearly displayed on the display panel 63 is not observed because the backlight 62 (see FIG. 4) is turned off.

図9に戻り、ヘッドマウントディスプレイの動作手順の説明を続ける。
(ステップS8)処理部123は、メインスイッチ28の操作により電源がオフにされたか否かを判定する。電源がオフにされた場合(ステップS8:Yes)、処理部123は、ステップS18に処理を進める。一方、電源がオフにされていない場合(ステップS8:No)、処理部123は、ステップS9に処理を進める。
Returning to FIG. 9, the description of the operation procedure of the head mounted display will be continued.
(Step S <b> 8) The processing unit 123 determines whether the power is turned off by operating the main switch 28. When the power is turned off (step S8: Yes), the processing unit 123 proceeds with the process to step S18. On the other hand, when the power is not turned off (step S8: No), the processing unit 123 advances the processing to step S9.

(ステップS9)処理部123は、ユーザーの頭部又はヘッドバンド40(図1を参照)に、ディスプレイ本体20(図1を参照)が装着されているか否かを判定する。ユーザーの頭部又はヘッドバンド40にディスプレイ本体20が装着されている場合(ステップS9:Yes)、処理部123は、ステップS10に処理を進める。一方、ユーザーの頭部又はヘッドバンド40に、ディスプレイ本体20が装着されていない場合(ステップS9:No)、処理部123は、ステップS5に処理を戻す。   (Step S9) The processing unit 123 determines whether or not the display main body 20 (see FIG. 1) is attached to the user's head or the headband 40 (see FIG. 1). When the display body 20 is attached to the user's head or the headband 40 (step S9: Yes), the processing unit 123 advances the process to step S10. On the other hand, when the display main body 20 is not attached to the user's head or the headband 40 (step S9: No), the processing unit 123 returns the process to step S5.

(ステップS10)処理部123は、表示パネル36を照明するためのバックライト35(図4を参照)を消灯させる。ユーザーの頭部又はヘッドバンド40にディスプレイ本体20が装着されている場合、ユーザーは表示部60を覗いている、と推測できるからである。   (Step S <b> 10) The processing unit 123 turns off the backlight 35 (see FIG. 4) for illuminating the display panel 36. This is because when the display main body 20 is mounted on the user's head or the headband 40, it can be assumed that the user is looking into the display unit 60.

(ステップS11)加速度センサー132は、重力の方向として、加速度方向を検出する。加速度のZ方向(図1を参照)成分の絶対値が所定閾値以上である場合、処理部123は、加速度センサー132が検出した加速度方向(重力方向G2)を、重力方向と定める。   (Step S11) The acceleration sensor 132 detects the acceleration direction as the direction of gravity. When the absolute value of the Z direction component (see FIG. 1) of the acceleration is greater than or equal to a predetermined threshold value, the processing unit 123 determines the acceleration direction (gravity direction G2) detected by the acceleration sensor 132 as the gravity direction.

一方、検出された加速度のZ方向成分の絶対値が、前記所定閾値未満である(値0に近い)場合、処理部123は、表示パネル63(図4を参照)に表示される画像の向きを、検出された加速度方向に基づいて定めることができない。この場合、処理部123は、前回の使用時にメモリー127に記憶され、今回の使用時にステップS1で読み出された重力の方向G2を、重力方向と定める。また、ヘッドマウントディスプレイ1が工場出荷後に初めて使用される場合、処理部123は、工場出荷時にメモリー127に記憶されたデフォルト値を、重力方向と定めてもよい。   On the other hand, when the detected absolute value of the Z-direction component of the acceleration is less than the predetermined threshold value (close to the value 0), the processing unit 123 displays the orientation of the image displayed on the display panel 63 (see FIG. 4). Cannot be determined based on the detected acceleration direction. In this case, the processing unit 123 determines the gravity direction G2 stored in the memory 127 at the previous use and read at step S1 at the current use as the gravity direction. Further, when the head mounted display 1 is used for the first time after factory shipment, the processing unit 123 may determine the default value stored in the memory 127 at the time of factory shipment as the gravity direction.

(ステップS12)処理部123は、ディスプレイ本体20に対して定めた重力方向に基づいて、表示パネル63(図4を参照)に表示される画像の向きを定める。ここで、例えば、ディスプレイ本体20に対して定めた重力方向が、−Z方向(図1を参照)成分を含む場合(図3(A)を参照)、処理部123は、−Z方向が下側となるように、画像の向きを定める。また、例えば、ディスプレイ本体20に対して定めた重力方向が、Z方向(図1を参照)成分を含む場合(図3(B)を参照)、処理部123は、Z方向が下側となるように、画像の向きを定める。このように、処理部123は、ユーザーにとって画像が正立するように、画像の向きを定める。   (Step S <b> 12) The processing unit 123 determines the orientation of the image displayed on the display panel 63 (see FIG. 4) based on the gravity direction determined with respect to the display main body 20. Here, for example, when the gravity direction determined with respect to the display main body 20 includes a component in the −Z direction (see FIG. 1) (see FIG. 3A), the processing unit 123 has the −Z direction downward. Orient the image so that it is on the side. Further, for example, when the gravity direction determined with respect to the display main body 20 includes a Z direction (see FIG. 1) component (see FIG. 3B), the processing unit 123 has the Z direction on the lower side. Thus, the orientation of the image is determined. Thus, the processing unit 123 determines the orientation of the image so that the image is upright for the user.

図12は、横向きに寝た姿勢のユーザーに装着された情報入出力装置にかかる重力方向を示す図である。なお、図12では、ユーザーの頭部の姿勢が枕により水平でないために、重力方向G2(図12では、矢印により示されている)は、加速度のZ方向成分が僅かに(絶対値が前記所定閾値以上)含まれている。   FIG. 12 is a diagram illustrating the direction of gravity applied to the information input / output device mounted on the user in the posture of lying sideways. In FIG. 12, since the posture of the user's head is not horizontal due to the pillow, the gravitational direction G2 (indicated by an arrow in FIG. 12) has a slight Z-direction component of acceleration (the absolute value is Above a predetermined threshold).

図12(A)には、ユーザーが頭部の左側を下にして、右眼で表示部60を見ている状態が示されている。ディスプレイ本体20に対して定めた重力方向が、−Z方向(図1を参照)成分を含むため、処理部123は、−Z方向が下側となるように、画像の向きを定める。   FIG. 12A shows a state where the user looks at the display unit 60 with the right eye with the left side of the head facing down. Since the gravity direction determined with respect to the display main body 20 includes a −Z direction (see FIG. 1) component, the processing unit 123 determines the orientation of the image so that the −Z direction is on the lower side.

図12(B)には、ユーザーが頭部の右側を下にして、左眼で表示部60を見ている状態が示されている。ディスプレイ本体20に対して定めた重力方向が、Z方向(図1を参照)成分を含むため、処理部123は、Z方向が下側となるように、画像の向きを定める。   FIG. 12B shows a state where the user looks at the display unit 60 with the left eye with the right side of the head facing down. Since the gravity direction determined with respect to the display main body 20 includes the Z direction (see FIG. 1) component, the processing unit 123 determines the orientation of the image so that the Z direction is on the lower side.

図9に戻り、ヘッドマウントディスプレイの動作手順の説明を続ける。
(ステップS13)処理部123は、表示パネル63の画素数として、800×480画素を示す情報をメモリー127から読み出す。処理部123は、LCDドライバ125のレジスタ(不図示)に、800×480画素を示す情報に基づく値を記憶させる。例えば、処理部123は、LCDドライバ125のレジスタ(不図示)に、表示パネル63のアスペクト比5:3(=800:480)を示す値を記憶させる。
Returning to FIG. 9, the description of the operation procedure of the head mounted display will be continued.
(Step S <b> 13) The processing unit 123 reads information indicating 800 × 480 pixels from the memory 127 as the number of pixels of the display panel 63. The processing unit 123 stores a value based on information indicating 800 × 480 pixels in a register (not shown) of the LCD driver 125. For example, the processing unit 123 stores a value indicating an aspect ratio of 5: 3 (= 800: 480) of the display panel 63 in a register (not shown) of the LCD driver 125.

(ステップS14)処理部123は、ステレオイヤホン100が接続された場合に第1スピーカー103から右チャンネルの音声を出力させるか否かを、ディスプレイ本体20に対して定めた重力方向に基づいて定める。   (Step S <b> 14) The processing unit 123 determines whether or not to output the right channel sound from the first speaker 103 when the stereo earphone 100 is connected, based on the gravity direction determined for the display main body 20.

ここで、ディスプレイ本体20に対して定めた重力方向が、−Z方向(図1を参照)である場合(図3(A)を参照)、処理部123は、第1スピーカー103から右チャンネルの音声を出力させ、第2スピーカー104から左チャンネルの音声を出力させると定める。一方、ディスプレイ本体20に対して定めた重力方向が、Z方向(図1を参照)である場合(図3(B)を参照)、処理部123は、第1スピーカー103から左チャンネルの音声を出力させ、第2スピーカー104から右チャンネルの音声を出力させると定める。   Here, when the gravity direction determined with respect to the display main body 20 is the −Z direction (see FIG. 1) (see FIG. 3A), the processing unit 123 starts the right channel from the first speaker 103. It is determined that the sound is output and the left channel sound is output from the second speaker 104. On the other hand, when the gravity direction determined with respect to the display main body 20 is the Z direction (see FIG. 1) (see FIG. 3B), the processing unit 123 outputs the left channel sound from the first speaker 103. It is determined that the right channel sound is output from the second speaker 104.

(ステップS15)LCDドライバ125は、そのレジスタ(不図示)に記憶された値(例えば、画像の向き、画素数、アスペクト比)に基づいて、デコーダー121から出力された画像を、表示パネル63に表示させる。   (Step S15) The LCD driver 125 displays the image output from the decoder 121 on the display panel 63 based on the values (eg, image orientation, number of pixels, aspect ratio) stored in the register (not shown). Display.

図13は、表示パネル63(第2表示パネル)に表示された画像の向きの第1例を示す図である。図13では、重力方向340(図1では、−Z方向)は、矢印で示されている。このように、ディスプレイ本体20(図1を参照)が装着された際、処理部123は、ディスプレイ本体20の姿勢、すなわち、ディスプレイ本体20にかかる重力の方向に応じて、画像の向きを定める。これにより、処理部123は、定めた画像の向きに基づいて、ユーザーに見やすいように、ユーザーにとって正立した画像を表示させることができる。   FIG. 13 is a diagram illustrating a first example of the orientation of an image displayed on the display panel 63 (second display panel). In FIG. 13, the gravity direction 340 (in FIG. 1, -Z direction) is indicated by an arrow. As described above, when the display main body 20 (see FIG. 1) is mounted, the processing unit 123 determines the orientation of the image according to the attitude of the display main body 20, that is, the direction of gravity applied to the display main body 20. Accordingly, the processing unit 123 can display an image that is upright for the user so that the user can easily view the image based on the determined orientation of the image.

つまり、ユーザーが右眼で表示部60を見ている状態(図3(A)を参照)では、表示パネル63の−Z方向(図1を参照)が下側となるように画像が表示された場合、ユーザーにとっての上下方向が、表示パネル63における画像の向きと一致する。一方、ユーザーが左眼で表示部60を見ている状態(図3(B)を参照)では、表示パネル63のZ方向(図1を参照)が下側となるように画像が表示された場合、ユーザーにとっての上下方向が、表示パネル63における画像の向きと一致する。また、ディスプレイ本体20を装着した以降、ユーザーが横を向いたり逆立ちをしたりしても、処理部123は、ユーザーにとって正立した画像を表示させることができる。   That is, when the user is viewing the display unit 60 with the right eye (see FIG. 3A), the image is displayed so that the −Z direction (see FIG. 1) of the display panel 63 is on the lower side. In this case, the vertical direction for the user matches the orientation of the image on the display panel 63. On the other hand, when the user is viewing the display unit 60 with the left eye (see FIG. 3B), the image is displayed so that the Z direction (see FIG. 1) of the display panel 63 is on the lower side. In this case, the vertical direction for the user matches the orientation of the image on the display panel 63. In addition, after the display body 20 is mounted, the processing unit 123 can display an image that is upright for the user even if the user turns sideways or performs a handstand.

また、アイコン画像311〜319は、表示パネル63のアスペクト比(=5:3)に応じて、見やすいように配置される。ここで、表示パネル63のアスペクト比(=5:3)は、表示パネル36のアスペクト比(=4:3)とは異なる。また、表示パネル63の画素数(800×480画素)は、表示パネル36の画素数(640×480画素)よりも多い。このため、表示パネル63に表示される画像300cには、表示パネル36に表示される画像300aと比較して、より詳細な情報(例えば、文字列)が付加されてもよい。   The icon images 311 to 319 are arranged so as to be easy to see according to the aspect ratio (= 5: 3) of the display panel 63. Here, the aspect ratio (= 5: 3) of the display panel 63 is different from the aspect ratio (= 4: 3) of the display panel 36. Further, the number of pixels of the display panel 63 (800 × 480 pixels) is larger than the number of pixels of the display panel 36 (640 × 480 pixels). Therefore, more detailed information (for example, a character string) may be added to the image 300c displayed on the display panel 63 as compared to the image 300a displayed on the display panel 36.

なお、表示パネル63に表示された画像と同じ画像は、表示部60の表示パネル36(図4を参照)にも表示される。ここで、表示パネル36は、640×480画素を有するので、表示パネル63よりも画素数が少ない。また、表示パネル36のアスペクト比は、4:3(=640:480)であり、表示パネル63のアスペクト比とは異なる。このため、表示パネル36は、表示パネル63用に最適化された画像を、綺麗に表示することができない。この場合、表示パネル36上に綺麗に表示されていない画像は、バックライト35(図4を参照)が消灯されているため、観察されることがない。   The same image as the image displayed on the display panel 63 is also displayed on the display panel 36 (see FIG. 4) of the display unit 60. Here, since the display panel 36 has 640 × 480 pixels, the number of pixels is smaller than that of the display panel 63. The aspect ratio of the display panel 36 is 4: 3 (= 640: 480), which is different from the aspect ratio of the display panel 63. For this reason, the display panel 36 cannot clearly display the image optimized for the display panel 63. In this case, an image that is not clearly displayed on the display panel 36 is not observed because the backlight 35 (see FIG. 4) is turned off.

(ステップS16)処理部123は、メインスイッチ28の操作により電源がオフにされたか否かを判定する。電源がオフにされた場合(ステップS8:Yes)、処理部123は、ステップS18に処理を進める。一方、電源がオフにされていない場合(ステップS8:No)、処理部123は、ステップS17に処理を進める。   (Step S <b> 16) The processing unit 123 determines whether the power is turned off by operating the main switch 28. When the power is turned off (step S8: Yes), the processing unit 123 proceeds with the process to step S18. On the other hand, when the power is not turned off (step S8: No), the processing unit 123 proceeds with the process to step S17.

(ステップS17)処理部123は、ユーザーの頭部又はヘッドバンド40(図1を参照)に、ディスプレイ本体20(図1を参照)が装着されているか否かを判定する。ユーザーの頭部又はヘッドバンド40にディスプレイ本体20が装着されている場合(ステップS17:Yes)、処理部123は、ステップS15に処理を戻す。一方、ユーザーの頭部又はヘッドバンド40に、ディスプレイ本体20が装着されていない場合(ステップS17:No)、処理部123は、ステップS4に処理を戻す。   (Step S <b> 17) The processing unit 123 determines whether or not the display main body 20 (see FIG. 1) is attached to the user's head or the headband 40 (see FIG. 1). When the display main body 20 is attached to the user's head or the headband 40 (step S17: Yes), the processing unit 123 returns the process to step S15. On the other hand, when the display main body 20 is not attached to the user's head or the headband 40 (step S17: No), the processing unit 123 returns the process to step S4.

(ステップS18)処理部123は、ディスプレイ本体20がユーザーの頭部に装着されていない状態で検出された重力の方向G1を示す情報と、ユーザーの頭部に装着された状態で検出された重力の方向G2を示す情報とを、メモリー127に記憶させる。   (Step S <b> 18) The processing unit 123 includes information indicating the direction of gravity G <b> 1 detected when the display body 20 is not attached to the user's head, and gravity detected when the display body 20 is attached to the user's head. Information indicating the direction G2 of the image is stored in the memory 127.

以上のように、情報入出力装置(ヘッドマウントディスプレイ1)は、加速度を検出する加速度センサー132(図8を参照)と、予め定められた位置に自装置が在るか否かを検出するヘッドバンドセンサー151(図8を参照)、心拍数センサー137(図2を参照)と、前記予め定められた位置に自装置が在ることが検出された際、前記加速度の方向に基づいて、ユーザーにとって正立するように画像の向きを定める処理部123と、前記画像の向きに基づいて、画像を表示する表示パネル36及び表示パネル63と、を備える。
この構成により、処理部123は、予め定められた位置に自装置が在ることが検出された際、ユーザーにとって正立するように画像の向きを定める。表示パネル36及び表示パネル63は、定められた画像の向きに基づいて、画像を表示する。これにより、情報入出力装置(ヘッドマウントディスプレイ1)は、ユーザーにとって使い易くなる。
As described above, the information input / output device (head mounted display 1) includes the acceleration sensor 132 (see FIG. 8) that detects acceleration, and the head that detects whether the device is present at a predetermined position. When the band sensor 151 (see FIG. 8), the heart rate sensor 137 (see FIG. 2), and the presence of the device at the predetermined position are detected, the user is determined based on the direction of the acceleration. A display unit 36 and a display panel 63 for displaying an image based on the orientation of the image.
With this configuration, the processing unit 123 determines the orientation of the image so as to stand upright for the user when it is detected that the apparatus is present at a predetermined position. The display panel 36 and the display panel 63 display an image based on the determined orientation of the image. As a result, the information input / output device (head mounted display 1) is easy to use for the user.

ディスプレイ本体20がユーザーの頭部に装着されてしまうと、ディスプレイ本体20の方向とユーザーの顔の向きとは一致するので、ディスプレイ本体20は、重力方向に応じて画像の向きを変える必要がない。   When the display main body 20 is mounted on the user's head, the direction of the display main body 20 and the orientation of the user's face coincide with each other, and therefore the display main body 20 does not need to change the orientation of the image according to the direction of gravity. .

そこで、ディスプレイ本体20は、ユーザーが頭部にディスプレイ本体20を装着した時点で、ディスプレイ本体20にかかる重力の方向を検出し、その重力の方向に合わせて画像の向き及び解像度(アスペクト比)を維持する。これにより、ヘッドマウントディスプレイ1は、ユーザーにとって正立した画像を表示することができる。ユーザーが頭部にディスプレイ本体20を装着した以降、ユーザーが横を向いたり逆立ちをしたりしても、ユーザーにとっての上下方向と、表示パネル36の上下方向とは、常に一致する。   Therefore, the display main body 20 detects the direction of gravity applied to the display main body 20 when the user wears the display main body 20 on the head, and adjusts the orientation and resolution (aspect ratio) of the image in accordance with the direction of gravity. maintain. Thereby, the head mounted display 1 can display an image upright for the user. After the user mounts the display main body 20 on his / her head, the vertical direction for the user and the vertical direction of the display panel 36 always match even if the user turns sideways or stands upright.

つまり、ユーザーの頭部(ヘッドバンド40)へのディスプレイ本体20の装着が検出された際、情報入出力装置は、その検出された段階で、重力の方向に基づいて画像の向きを定める。これにより、情報入出力装置は、ユーザーの頭部が回転された場合でも、ユーザーにとって正立した画像を表示することができる。   That is, when it is detected that the display main body 20 is attached to the user's head (headband 40), the information input / output device determines the orientation of the image based on the direction of gravity at the detected stage. Thus, the information input / output device can display an image that is upright for the user even when the user's head is rotated.

なお、表示部60を右眼で見ているユーザー(図3(A)を参照)は、ディスプレイ本体20が支持されたままのヘッドバンド40を、左右の向きを入れ替えて頭部に装着し直し、ディスプレイ本体20の姿勢を反転させれば、表示部60を左眼で見ることができる(図3(B)を参照)。一方、表示部60を左眼で見ているユーザーは、同様にして、表示部60を右眼で見ることができる。これらの場合、処理部123は、図9に示したフローチャートのステップS15〜ステップS17において、ディスプレイ本体20にかかる重力の方向(図12を参照)に応じて画像の向きを更新する。これにより、処理部123は、表示パネル63に表示された画像のアスペクト比(例えば、図13を参照)を保つことができる。   Note that a user (see FIG. 3A) viewing the display unit 60 with his / her right eye remounts the headband 40 with the display main body 20 supported on the head while switching the left and right directions. If the posture of the display body 20 is reversed, the display unit 60 can be seen with the left eye (see FIG. 3B). On the other hand, the user viewing the display unit 60 with the left eye can similarly view the display unit 60 with the right eye. In these cases, the processing unit 123 updates the orientation of the image according to the direction of gravity applied to the display main body 20 (see FIG. 12) in step S15 to step S17 in the flowchart shown in FIG. Thereby, the processing unit 123 can maintain the aspect ratio of the image displayed on the display panel 63 (see, for example, FIG. 13).

また、情報入出力装置は、コストパフォーマンスに優れる。また、情報入出力装置は、ヘッドバンド40によりユーザーの頭部にディスプレイ本体20が装着された状態と、ヘッドバンド40に装着されていないディスプレイ本体20を使用する状態とのいずれでも、ユーザーにとって使い易くなる。   Moreover, the information input / output device is excellent in cost performance. In addition, the information input / output device is used for the user both in a state in which the display main body 20 is mounted on the user's head by the headband 40 and in a state in which the display main body 20 is not mounted on the headband 40. It becomes easy.

また、処理部123は、前記加速度の方向に基づいて、画像の解像度を定め、表示パネル36及び表示パネル63は、前記画像の解像度に基づいて、画像を表示する。
また、複数の前記表示部として、表示パネル36及び表示パネル63を備え、処理部123は、前記予め定められた位置に自装置が在るか否かに基づいて、前記複数の表示部のうちから表示部を選択し、選択した表示部に画像を表示させる。
The processing unit 123 determines the resolution of the image based on the direction of the acceleration, and the display panel 36 and the display panel 63 display the image based on the resolution of the image.
In addition, the display unit includes a display panel 36 and a display panel 63 as the plurality of display units, and the processing unit 123 determines whether the own device is present at the predetermined position. A display unit is selected from the above, and an image is displayed on the selected display unit.

また、心拍数センサー137及び撮像素子72は、前記予め定められた位置としてのユーザーの頭部の近傍に、自装置が在るか否かを検出する。
また、ヘッドバンドセンサー151は、前記予め定められた位置としてのヘッドバンドの装着部(例えば、連結ピン41)に、自装置が在るか否かを検出する。
In addition, the heart rate sensor 137 and the image sensor 72 detect whether or not the device is in the vicinity of the user's head as the predetermined position.
Further, the headband sensor 151 detects whether or not the own device is present in a headband mounting portion (for example, the connecting pin 41) as the predetermined position.

また、情報入出力プログラムは、コンピュータに、予め定められた位置に自装置が在ることが検出された際、検出された加速度の方向に基づいて、ユーザーにとって正立するように画像の向きを定める手順と、前記画像の向きに基づいて、画像を表示する手順と、を実行させる。   In addition, the information input / output program sets the image orientation so that the user stands upright based on the detected direction of acceleration when the computer detects the presence of the device at a predetermined position. And a procedure for displaying an image based on the orientation of the image.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

例えば、ディスプレイ本体20は、ヘルメット(防護具)に装着されてもよい。また、例えば、表示される画像の向きは、タッチスイッチ34(図1を参照)などを介した操作入力に基づいて、変更されてもよい。   For example, the display main body 20 may be attached to a helmet (protective equipment). Further, for example, the orientation of the displayed image may be changed based on an operation input via the touch switch 34 (see FIG. 1) or the like.

また、例えば、撮像素子72(目元カメラ)が撮像したユーザーの目元の画像(眼の周辺画像)に基づいて、画像の向きが定められてもよい。例えば、ユーザーが右眼で表示部60を見ている状態(図3(A)を参照)と、ユーザーが左眼で表示部60を見ている状態(図3(B)を参照)とでは、撮像素子72が撮像したユーザーの目元の画像において、ユーザーの眼と眉との位置関係は上下が逆になる。処理部123は、ユーザーが右眼で表示部60を見ているか、又は、ユーザーが左眼で表示部60を見ているかを、例えば、ユーザーの眼と眉との位置関係に基づいて判定する。処理部123は、この判定結果に基づいて、ユーザーにとって画像が正立するように画像の向きを定め、定めた画像の向きに基づいて、表示パネル63に画像を表示させる。   In addition, for example, the orientation of the image may be determined based on an image of the user's eyes (eye surrounding image) captured by the image sensor 72 (eye camera). For example, in a state where the user is viewing the display unit 60 with the right eye (see FIG. 3A) and a state where the user is viewing the display unit 60 with the left eye (see FIG. 3B). In the user's eye image captured by the image sensor 72, the positional relationship between the user's eyes and eyebrows is upside down. The processing unit 123 determines whether the user is viewing the display unit 60 with the right eye or the user is viewing the display unit 60 with the left eye based on, for example, the positional relationship between the user's eyes and eyebrows. . Based on the determination result, the processing unit 123 determines the orientation of the image so that the image stands upright for the user, and causes the display panel 63 to display the image based on the determined orientation of the image.

また、上記に説明した情報入出力装置を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、実行処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。   Further, an execution process is performed by recording a program for realizing the information input / output device described above on a computer-readable recording medium, causing the computer system to read and execute the program recorded on the recording medium. May be performed. Here, the “computer system” may include an OS and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリー等の書き込み可能な不揮発性メモリー、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリー(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Random Access Memory)) that holds a program for a certain period of time is also included.
The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
The program may be for realizing a part of the functions described above.
Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

1…ヘッドマウントディスプレイ、20…ディスプレイ本体、21…装置本体部、21A…筐体(装置本体部)、23…耳元スピーカー、24…集音マイク、25…USBコネクター、26…オーディオコネクター、27…ビデオコネクター、28…メインスイッチ、29…回路基板、30…操作スイッチ、31…連結孔、32…ヘッドバンドヒンジ、33…バッテリー、34…タッチスイッチ、35…バックライト(本体)、36…表示パネル(本体)、37…通話マイク、40…ヘッドバンド(装着部)、41…ピン、43…第1ヘッドバンド、43a…ジョイント部、43b…軸受部、43c…軸受部、43d…軸受部、43e…軸受部、44…第2ヘッドバンド、46…ヘッドパット、46a…支持板、46b…弾性部材、47…ヘッドパット、48…バネ部材、49…標章表示部、56…回動機構、57…回動機構、60…表示部、61…ディスプレイヒンジ、62…バックライト(表示部)、63…表示パネル(表示部)、64…カメラ、65…プリズム、66…反射ミラー、67…ファインダー開口部、68…前方ライト、70…前方スピーカー、71…結像レンズ、72…撮像素子(撮像部)、73…レーザー発振器、100…ステレオイヤホン、101…オーディオコネクター、102…ケーブル、103…第1スピーカー、104…第2スピーカー、105…集音マイク、106…クリップ、120…電源回路、121…デコーダー、122…フラッシュメモリー、123…処理部、125…LCDドライバ、126…BLドライバ、127…メモリー、128…メインスイッチ、129…エンコーダー、130…BT通信回路、131…WiFi通信回路、132…加速度センサー、133…地磁気センサー、134…角速度センサー、135…GPSセンサー、136…温湿度センサー、137…心拍数センサー、138…3G/LTE通信回路、140…リモコン、141…タッチパッド、147…操作スイッチ、142…USBコネクター、143a,143b,143c…インジケーター、144…取付クリップ、147…操作スイッチ、148…USBケーブル、149…クリップ、150…インジケータースイッチ、151…ヘッドバンドセンサー、162…スピーカーアンプ DESCRIPTION OF SYMBOLS 1 ... Head mounted display, 20 ... Display main body, 21 ... Apparatus main body part, 21A ... Case (apparatus main body part), 23 ... Ear speaker, 24 ... Sound collecting microphone, 25 ... USB connector, 26 ... Audio connector, 27 ... Video connector, 28 ... main switch, 29 ... circuit board, 30 ... operation switch, 31 ... connecting hole, 32 ... headband hinge, 33 ... battery, 34 ... touch switch, 35 ... backlight (main unit), 36 ... display panel (Main body), 37 ... telephone microphone, 40 ... headband (mounting part), 41 ... pin, 43 ... first headband, 43a ... joint part, 43b ... bearing part, 43c ... bearing part, 43d ... bearing part, 43e ... bearing part, 44 ... second headband, 46 ... head pad, 46a ... support plate, 46b ... elastic member, 47 ... f Dopat, 48 ... Spring member, 49 ... Mark display section, 56 ... Rotating mechanism, 57 ... Rotating mechanism, 60 ... Display section, 61 ... Display hinge, 62 ... Backlight (display section), 63 ... Display panel ( Display unit), 64 ... Camera, 65 ... Prism, 66 ... Reflection mirror, 67 ... Viewfinder opening, 68 ... Front light, 70 ... Front speaker, 71 ... Imaging lens, 72 ... Imaging element (imaging unit), 73 ... Laser oscillator, 100 ... stereo earphone, 101 ... audio connector, 102 ... cable, 103 ... first speaker, 104 ... second speaker, 105 ... sound collecting microphone, 106 ... clip, 120 ... power supply circuit, 121 ... decoder, 122 ... Flash memory, 123 ... processing unit, 125 ... LCD driver, 126 ... BL driver, 127 ... memory, 12 ... main switch, 129 ... encoder, 130 ... BT communication circuit, 131 ... WiFi communication circuit, 132 ... acceleration sensor, 133 ... geomagnetic sensor, 134 ... angular velocity sensor, 135 ... GPS sensor, 136 ... temperature / humidity sensor, 137 ... heart rate Sensor, 138 ... 3G / LTE communication circuit, 140 ... remote control, 141 ... touch pad, 147 ... operation switch, 142 ... USB connector, 143a, 143b, 143c ... indicator, 144 ... mounting clip, 147 ... operation switch, 148 ... USB Cable, 149 ... Clip, 150 ... Indicator switch, 151 ... Headband sensor, 162 ... Speaker amplifier

Claims (6)

加速度を検出する加速度センサーと、
予め定められた位置に自装置が在るか否かを検出する検出部と、
前記予め定められた位置に自装置が在ることが検出された際、前記加速度の方向に基づいて、ユーザーにとって正立するように画像の向きを定める処理部と、
前記画像の向きに基づいて、画像を表示する表示部と、
を備えることを特徴とする情報入出力装置。
An acceleration sensor that detects acceleration;
A detection unit for detecting whether or not the device is present at a predetermined position;
A processing unit that determines the orientation of the image so as to stand upright for a user based on the direction of the acceleration when it is detected that the device is present at the predetermined position;
A display unit for displaying an image based on the orientation of the image;
An information input / output device comprising:
前記処理部は、前記加速度の方向に基づいて、画像の解像度を定め、
前記表示部は、前記画像の解像度に基づいて、画像を表示することを特徴とする請求項1に記載の情報入出力装置。
The processing unit determines an image resolution based on the direction of the acceleration,
The information input / output apparatus according to claim 1, wherein the display unit displays an image based on a resolution of the image.
複数の前記表示部
を備え、
前記処理部は、前記予め定められた位置に自装置が在るか否かに基づいて、前記複数の表示部のうちから表示部を選択し、選択した表示部に画像を表示させることを特徴とする請求項1又は請求項2に記載の情報入出力装置。
A plurality of the display units,
The processing unit selects a display unit from the plurality of display units based on whether or not the device is present at the predetermined position, and displays an image on the selected display unit. The information input / output device according to claim 1 or 2.
前記検出部は、前記予め定められた位置としてのユーザーの頭部の近傍に、自装置が在るか否かを検出することを特徴とする請求項1から請求項3のいずれか一項に記載の情報入出力装置。   The said detection part detects whether the own apparatus exists in the vicinity of the user's head as the said predetermined position, The said any one of Claims 1-3 characterized by the above-mentioned. The information input / output device described. 前記検出部は、前記予め定められた位置としてのヘッドバンドの装着部に、自装置が在るか否かを検出することを特徴とする請求項1から請求項3のいずれか一項に記載の情報入出力装置。   The said detection part detects whether an own apparatus exists in the mounting part of the headband as the said predetermined position, The Claim 1 characterized by the above-mentioned. Information input / output device. コンピュータに、
予め定められた位置に自装置が在ることが検出された際、検出された加速度の方向に基づいて、ユーザーにとって正立するように画像の向きを定める手順と、
前記画像の向きに基づいて、画像を表示する手順と、
を実行させるための情報入出力プログラム。
On the computer,
A procedure for determining the orientation of the image so as to stand upright for the user based on the direction of the detected acceleration when it is detected that the device is present at a predetermined position;
A procedure for displaying an image based on the orientation of the image;
Information input / output program to execute
JP2012125894A 2012-06-01 2012-06-01 Information input output device, and information input output program Pending JP2013250846A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012125894A JP2013250846A (en) 2012-06-01 2012-06-01 Information input output device, and information input output program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012125894A JP2013250846A (en) 2012-06-01 2012-06-01 Information input output device, and information input output program

Publications (1)

Publication Number Publication Date
JP2013250846A true JP2013250846A (en) 2013-12-12

Family

ID=49849443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012125894A Pending JP2013250846A (en) 2012-06-01 2012-06-01 Information input output device, and information input output program

Country Status (1)

Country Link
JP (1) JP2013250846A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017051720A1 (en) * 2015-09-24 2017-03-30 ソニー株式会社 Information processing device, information processing method, and program
JP2018072950A (en) * 2016-10-25 2018-05-10 富士通株式会社 Simulation device and simulation system
JP2021531520A (en) * 2019-06-26 2021-11-18 北京小米移動軟件有限公司Beijing Xiaomi Mobile Software Co., Ltd. Wearable control equipment, virtual / augmented reality systems and control methods

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017051720A1 (en) * 2015-09-24 2017-03-30 ソニー株式会社 Information processing device, information processing method, and program
JP2018072950A (en) * 2016-10-25 2018-05-10 富士通株式会社 Simulation device and simulation system
JP2021531520A (en) * 2019-06-26 2021-11-18 北京小米移動軟件有限公司Beijing Xiaomi Mobile Software Co., Ltd. Wearable control equipment, virtual / augmented reality systems and control methods
JP7189891B2 (en) 2019-06-26 2022-12-14 北京小米移動軟件有限公司 Wearable control device, virtual/augmented reality system and control method

Similar Documents

Publication Publication Date Title
JP6011072B2 (en) Control device and program
JP2013190941A (en) Information input output device, and head-mounted display device
JP6318462B2 (en) Display device
JP2014021707A (en) Information input/output device and information input/output method
JP6123180B2 (en) Display device
JP6136090B2 (en) Electronic device and display device
US10215990B2 (en) Wearable device
JP2019128693A (en) Head-mounted display, and method for controlling head-mounted display
JP2014212473A (en) Communication device and head-mounted display device
JP2014123883A (en) Head-mounted type information input output apparatus, and head-mounted type information input output method
JP2013175947A (en) Head-mounted device
JP2013255012A (en) Head holding member and head-mounted information output device
JP2014044654A (en) Information input and output device
JP2014021272A (en) Information input/output device and information input/output method
JP2013239767A (en) Head-mounted type information input/output device
JP6719418B2 (en) Electronics
JP2013250846A (en) Information input output device, and information input output program
JP6015223B2 (en) Electronic device and display device
JP6074894B2 (en) Information display device
JP2013175909A (en) Head-mounted device
JP2013174730A (en) Information display device
JP2014022937A (en) Head-mounted information input/output device and head-mounted information input/output method
JP2013175945A (en) Head-mounted device
JP2013236223A (en) Head-mounted device and information processing device
JP2014022942A (en) Head-mounted device