JP2013250847A - Information input/output device, and information input/output program - Google Patents

Information input/output device, and information input/output program Download PDF

Info

Publication number
JP2013250847A
JP2013250847A JP2012125895A JP2012125895A JP2013250847A JP 2013250847 A JP2013250847 A JP 2013250847A JP 2012125895 A JP2012125895 A JP 2012125895A JP 2012125895 A JP2012125895 A JP 2012125895A JP 2013250847 A JP2013250847 A JP 2013250847A
Authority
JP
Japan
Prior art keywords
light
unit
image
headband
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012125895A
Other languages
Japanese (ja)
Inventor
Satoshi Ejima
聡 江島
Shigeru Kato
茂 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2012125895A priority Critical patent/JP2013250847A/en
Publication of JP2013250847A publication Critical patent/JP2013250847A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a compact information input/output device, and an information input/output program.SOLUTION: An information input/output device includes: a front light 68 that is turned on and off; a remote controller that has a corner cube returning light made incident from the front light 68 in an incident direction; a camera 64 that photographs the light returned by the corner cube by photographing the remote controller from the vicinity of the front light 68; and a processing unit 123 that detects a position of the remote controller on the basis of a photographed image of reflected light.

Description

本発明は、情報入出力装置、及び情報入出力プログラムに関する。   The present invention relates to an information input / output device and an information input / output program.

3次元空間における位置を示す情報を電磁波パルスにより送信するポインティングデバイス、及び物体情報センシング装置(情報入出力装置)が、特許文献1に開示されている。   A pointing device that transmits information indicating a position in a three-dimensional space by an electromagnetic wave pulse and an object information sensing device (information input / output device) are disclosed in Patent Document 1.

特開2005−78303号公報JP-A-2005-78303

しかしながら、情報入出力装置は、ポインティングデバイスから送信された電磁波パルスを信号処理する信号処理部を備えることになる。これにより、情報入出力装置は、大型になってしまうという問題がある。   However, the information input / output device includes a signal processing unit that performs signal processing on the electromagnetic wave pulse transmitted from the pointing device. As a result, there is a problem that the information input / output device becomes large.

本発明は、前記の点に鑑みてなされたものであり、小型の情報入出力装置、及び情報入出力プログラムを提供することを目的とする。   The present invention has been made in view of the above points, and an object thereof is to provide a small information input / output device and an information input / output program.

本発明は、上記の課題を解決するためになされたものであり、点灯又は消灯する点灯部と、前記点灯部から入射された光を、入射方向に折り返す反射体を有する指示部と、前記点灯部の近傍から前記指示部を撮像することにより、前記反射体により折り返された光を撮像する撮像部と、前記折り返された光が撮像された画像に基づいて、前記指示部の位置を検出する処理部と、を備えることを特徴とする情報入出力装置である。   The present invention has been made to solve the above-described problems, and includes a lighting unit that is turned on or off, a pointing unit that includes a reflector that folds light incident from the lighting unit in an incident direction, and the lighting By picking up an image of the pointing unit from the vicinity of the unit, the position of the pointing unit is detected based on an imaging unit that captures the light reflected by the reflector and an image obtained by capturing the folded light An information input / output device comprising: a processing unit.

また、本発明は、コンピュータに、入射された光を入射方向に折り返す反射体を有する指示部を撮像することにより、前記反射体により折り返された光を撮像する手順と、前記折り返された光が撮像された画像に基づいて、前記指示部の位置を検出する手順と、を実行させるための情報入出力プログラムである。   In addition, the present invention provides a computer that images a pointing unit having a reflector that folds incident light in an incident direction, thereby imaging the light folded by the reflector, and the folded light includes: An information input / output program for executing a procedure for detecting the position of the instruction unit based on a captured image.

本発明によれば、情報入出力装置は、小型である。   According to the present invention, the information input / output device is small.

本発明の第1実施形態における、ヘッドマウントディスプレイの斜視図である。It is a perspective view of a head mount display in a 1st embodiment of the present invention. 本発明の第1実施形態における、ヘッドマウントディスプレイの背面側の斜視図である。It is a perspective view by the side of the back of a head mount display in a 1st embodiment of the present invention. 本発明の第1実施形態における、ヘッドマウントディスプレイの装着形態を示す図である。It is a figure which shows the mounting form of the head mounted display in 1st Embodiment of this invention. 本発明の第1実施形態における、ディスプレイ本体の水平断面図である。It is a horizontal sectional view of a display main part in a 1st embodiment of the present invention. 本発明の第1実施形態における、ヘッドバンドの斜視図である。It is a perspective view of a headband in a 1st embodiment of the present invention. 本発明の第1実施形態における、ポインティングデバイスとしてのリモコンの斜視図である。It is a perspective view of the remote control as a pointing device in a 1st embodiment of the present invention. 本発明の第1実施形態における、コーナーキューブによる反射を説明するための図である。It is a figure for demonstrating the reflection by a corner cube in 1st Embodiment of this invention. 本発明の第1実施形態における、ステレオイヤホンの斜視図である。1 is a perspective view of a stereo earphone according to a first embodiment of the present invention. 本発明の第1実施形態における、ヘッドマウントディスプレイの構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the head mounted display in 1st Embodiment of this invention. 本発明の第1実施形態における、ヘッドマウントディスプレイの動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure of the head mounted display in 1st Embodiment of this invention. 本発明の第1実施形態における、表示パネルに表示された画像の例を示す図である。It is a figure which shows the example of the image displayed on the display panel in 1st Embodiment of this invention. 本発明の第2実施形態における、ポインティングデバイスとしてのリモコンの斜視図である。It is a perspective view of the remote control as a pointing device in 2nd Embodiment of this invention. 本発明の第2実施形態における、ヘッドマウントディスプレイの動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure of the head mounted display in 2nd Embodiment of this invention. 本発明の第3実施形態における、ヘッドマウントディスプレイの動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure of the head mounted display in 3rd Embodiment of this invention.

[第1実施形態]
本発明の第1実施形態について図面を参照して詳細に説明する。以下の説明においては、XYZ直交座標系を必要に応じて設定し、設定したXYZ直交座標系を参照しつつ、各部の位置関係について説明する。
[First Embodiment]
A first embodiment of the present invention will be described in detail with reference to the drawings. In the following description, an XYZ rectangular coordinate system is set as necessary, and the positional relationship of each part will be described with reference to the set XYZ rectangular coordinate system.

以下では、水平面内の所定方向をX軸方向と称し、水平面内においてX軸方向と直交する方向をY軸方向と称し、X軸方向及びY軸方向と直交する鉛直方向をZ軸方向と称する。また、X軸、Y軸、及びZ軸まわりの回転(傾斜)方向をそれぞれ、θX、θY、及びθZ方向と称する。   Hereinafter, a predetermined direction in the horizontal plane is referred to as an X-axis direction, a direction orthogonal to the X-axis direction in the horizontal plane is referred to as a Y-axis direction, and a vertical direction orthogonal to the X-axis direction and the Y-axis direction is referred to as a Z-axis direction. . In addition, the rotation (inclination) directions around the X axis, Y axis, and Z axis are referred to as θX, θY, and θZ directions, respectively.

図1は、ヘッドマウントディスプレイ(Head Mounted Display:HMD)(情報入出力装置)の斜視図である。図1では、ディスプレイ本体20の長手方向をY軸方向と称し、ヘッドバンド40がユーザーの頭部を挟持する方向をX軸方向と称する。   FIG. 1 is a perspective view of a head mounted display (HMD) (information input / output device). In FIG. 1, the longitudinal direction of the display main body 20 is referred to as a Y-axis direction, and the direction in which the headband 40 holds the user's head is referred to as an X-axis direction.

まず、ヘッドマウントディスプレイ1の各部の構成について説明する。
ヘッドマウントディスプレイ1は、単眼式のヘッドマウントディスプレイであり、ユーザーの頭部に装着される。ヘッドマウントディスプレイ1は、ディスプレイ本体20と、ヘッドバンド40(装着部)とを備える。
First, the configuration of each part of the head mounted display 1 will be described.
The head mounted display 1 is a monocular head mounted display and is mounted on the user's head. The head mounted display 1 includes a display main body 20 and a headband 40 (mounting unit).

ヘッドバンド40は、ディスプレイ本体20を着脱可能に支持する。
ディスプレイ本体20は、装置本体部21と、表示部60とを有する。装置本体部21は、主要回路を内蔵するとともに、操作部及び各種インターフェースを有する。
The headband 40 detachably supports the display main body 20.
The display main body 20 includes an apparatus main body portion 21 and a display portion 60. The apparatus main body 21 incorporates main circuits and has an operation unit and various interfaces.

以下では、装置本体部21においてヘッドバンド40により支持される側の端部(+Y側の端部)を基端部と称し、この基端部に対して反対側の端部(−Y側の端部)を先端部と称する。また、ヘッドバンド40に装置本体部21が支持されている状態において、装置本体部21のヘッドバンド40側(+X側)を内側と称し、ヘッドバンド40に対して反対側(−X側)を外側と称する。   Hereinafter, the end (+ Y side end) of the apparatus main body 21 supported by the headband 40 is referred to as a base end, and the opposite end (−Y side end) with respect to the base end. The end) is referred to as the tip. In the state where the apparatus main body 21 is supported by the headband 40, the headband 40 side (+ X side) of the apparatus main body 21 is referred to as the inner side, and the opposite side (−X side) with respect to the headband 40 is referred to. Called the outside.

表示部60は、装置本体部21の先端部に連結される。
装置本体部21は、概略板状の筐体を有する。装置本体部21の筐体の外面には、メインスイッチ28と、タッチスイッチ34と、集音マイク24とが、装置本体部21の長手方向に沿って配置されている。
The display unit 60 is connected to the distal end portion of the apparatus main body unit 21.
The apparatus main body 21 has a substantially plate-shaped housing. A main switch 28, a touch switch 34, and a sound collecting microphone 24 are arranged along the longitudinal direction of the apparatus main body 21 on the outer surface of the casing of the apparatus main body 21.

メインスイッチ28は、ディスプレイ本体20の電源のオンオフ操作を行うスイッチである。また、タッチスイッチ34は、ユーザーが手指等で触れることにより、ヘッドマウントディスプレイ1の各種操作を行うことができるタッチパネルである。また、集音マイク24は、環境音を集め、収音する外部マイクである。   The main switch 28 is a switch for performing an on / off operation of the display main body 20. The touch switch 34 is a touch panel that can perform various operations of the head mounted display 1 when the user touches with a finger or the like. The sound collection microphone 24 is an external microphone that collects and collects environmental sounds.

図2は、ヘッドマウントディスプレイの背面側の斜視図である。図2では、ディスプレイ本体20の長手方向をY軸方向と称し、ヘッドバンド40がユーザーの頭部を挟持する方向をX軸方向と称する。   FIG. 2 is a rear perspective view of the head mounted display. In FIG. 2, the longitudinal direction of the display body 20 is referred to as a Y-axis direction, and the direction in which the headband 40 clamps the user's head is referred to as an X-axis direction.

耳元スピーカー23は、音声を出力する。耳元スピーカー23は、装置本体部21の基端部の内側に設けられている。耳元スピーカー23は、ディスプレイ本体20がヘッドバンド40に支持されている場合、ユーザーの耳の近傍に配置される。
オーディオコネクター26は、音声入出力端子である。オーディオコネクター26には、ステレオイヤホンが接続される。
The ear speaker 23 outputs sound. The ear speaker 23 is provided inside the base end portion of the apparatus main body 21. The ear speaker 23 is disposed in the vicinity of the user's ear when the display body 20 is supported by the headband 40.
The audio connector 26 is an audio input / output terminal. A stereo earphone is connected to the audio connector 26.

通話マイク37は、装置本体部21の先端部の内側に設けられている。通話マイク37は、ユーザーの音声を収音する。
ヘッドバンドヒンジ32は、ヘッドバンド40とのジョイント部である。ヘッドバンドヒンジ32は、連結孔31を有する。
The call microphone 37 is provided on the inner side of the distal end portion of the apparatus main body 21. The call microphone 37 collects the user's voice.
The headband hinge 32 is a joint part with the headband 40. The headband hinge 32 has a connecting hole 31.

心拍数センサー137は、発光部と、受光部とを有する。心拍数センサー137の発光部は、例えば、発光ダイオードである。また、心拍数センサー137の受光部は、ユーザーの皮膚の内部で反射された光を検知する。心拍数センサー137は、装置本体部21内面の中央部に設けられ、ユーザーの顔の表面に接触することで、ユーザーの心拍数を測定する。より具体的には、心拍数センサー137は、ユーザーの顔の血流の変化による反射光量の変化を検出することで、そのユーザーの心拍数を測定する。   The heart rate sensor 137 includes a light emitting unit and a light receiving unit. The light emitting unit of the heart rate sensor 137 is, for example, a light emitting diode. The light receiving unit of the heart rate sensor 137 detects light reflected inside the user's skin. The heart rate sensor 137 is provided at the center of the inner surface of the apparatus main body 21 and measures the user's heart rate by contacting the surface of the user's face. More specifically, the heart rate sensor 137 measures the user's heart rate by detecting a change in the amount of reflected light due to a change in the blood flow of the user's face.

心拍数センサー137は、ディスプレイ本体20がヘッドバンド40に支持されている場合、ユーザーの眼の近傍に配置されることがある。この場合でも、心拍数センサー137は、その発光部から赤外域の光を射出させることにより、ユーザーにまぶしさを感じさせることなく、ユーザーの心拍数をカウントすることができる。   The heart rate sensor 137 may be disposed in the vicinity of the user's eyes when the display body 20 is supported by the headband 40. Even in this case, the heart rate sensor 137 can count the user's heart rate without causing the user to feel glare by emitting light in the infrared region from the light emitting unit.

USBコネクター25は、装置本体部21の基端部の側端面に設けられる。USBコネクター25は、USB(Universal Serial Bus)デバイスの接続端子である。
ビデオコネクター27は、映像入出力端子である。ビデオコネクター27は、装置本体部21の基端部の側端面に設けられる。
The USB connector 25 is provided on the side end surface of the base end portion of the apparatus main body 21. The USB connector 25 is a connection terminal of a USB (Universal Serial Bus) device.
The video connector 27 is a video input / output terminal. The video connector 27 is provided on the side end surface of the base end portion of the apparatus main body 21.

操作スイッチ30(操作部)は、例えば、トラックボール及びスティックなどのポインティングデバイスである。操作スイッチ30は、装置本体部21の基端部の側端面、すなわち、表示部60の画面に正対する位置に設けられる。これにより、操作スイッチ30を介した操作の左右方向と、表示部60の画面の左右方向とが一致するので、ユーザーは、画面を見ながら、操作スイッチ30を直感的に操作することができる。   The operation switch 30 (operation unit) is, for example, a pointing device such as a trackball and a stick. The operation switch 30 is provided at a position facing the side end surface of the base end portion of the apparatus main body 21, that is, the screen of the display unit 60. As a result, the left-right direction of the operation via the operation switch 30 matches the left-right direction of the screen of the display unit 60, so that the user can intuitively operate the operation switch 30 while looking at the screen.

ヘッドバンド40は、ディスプレイ本体20を、ユーザーの頭部に装着させることができる。また、ユーザーは、ヘッドバンド40により装着されていないディスプレイ本体20を、手に持った状態でも使用することができる。つまり、ユーザーは、ディスプレイ本体20をヘッドバンド40から必要に応じて外すことで、ディスプレイ本体20を、小型軽量な状態で可搬することができる。   The headband 40 can attach the display body 20 to the user's head. Further, the user can use the display main body 20 that is not worn by the headband 40 even when the display main body 20 is held in the hand. That is, the user can carry the display body 20 in a small and light state by removing the display body 20 from the headband 40 as necessary.

ヘッドバンド40は、ヘッドパット(装着部材)46と、ヘッドパット(装着部材)47と、第1ヘッドバンド43と、第2ヘッドバンド44と、回動機構56と、回動機構57と、連結ピン41とを有する。ヘッドバンド40は、ユーザーの頭部を挟持することができる。   The headband 40 includes a head pad (mounting member) 46, a head pad (mounting member) 47, a first headband 43, a second headband 44, a rotation mechanism 56, and a rotation mechanism 57. And a pin 41. The headband 40 can hold the user's head.

第1ヘッドバンド43は、全体として円弧状を成す弾性部材である。第1ヘッドバンド43の頂部には、第1ヘッドバンド43を折り曲げるためのジョイント部43aが設けられている。
また、第1ヘッドバンド43の一端には、回動機構56を構成する軸受部43bが設けられている。また、第1ヘッドバンド43の他端には、回動機構57を構成する軸受部43cが設けられている。
The first headband 43 is an elastic member having an arc shape as a whole. A joint portion 43 a for bending the first headband 43 is provided on the top of the first headband 43.
Further, a bearing portion 43 b constituting the rotation mechanism 56 is provided at one end of the first headband 43. The other end of the first headband 43 is provided with a bearing portion 43 c that constitutes a rotation mechanism 57.

軸受部43bよりも更にバンド先端側には、ヘッドパット46が接続される軸受部43dが設けられている。また、軸受部43cよりも更にバンド先端側には、ヘッドパット47が接続される軸受部43eが設けられている。   A bearing portion 43d to which the head pad 46 is connected is provided further on the front end side of the band than the bearing portion 43b. Further, a bearing portion 43e to which the head pad 47 is connected is provided further on the band tip side than the bearing portion 43c.

第2ヘッドバンド44は、全体として円弧状を成す弾性部材である。第2ヘッドバンド44の頂部には、第2ヘッドバンド44を折り曲げるためのジョイント部44aが設けられている。また、第2ヘッドバンド44の一端には、回動機構56を構成する軸部材44bが設けられている。また、第2ヘッドバンド44の他端には、回動機構57を構成する軸部材44cが設けられている。   The second headband 44 is an elastic member having an arc shape as a whole. A joint portion 44 a for bending the second headband 44 is provided on the top of the second headband 44. In addition, a shaft member 44 b constituting the rotation mechanism 56 is provided at one end of the second headband 44. A shaft member 44 c that constitutes a rotation mechanism 57 is provided at the other end of the second headband 44.

また、第2ヘッドバンド44は、ステンレス等の金属からなるバネ部材48の表面が、樹脂等の柔軟な材料により被覆された構成を有する。ユーザーの頭部を挟持するバネ力は、第2ヘッドバンド44のバネ部材48により発生する。また、第2ヘッドバンド44は、第1ヘッドバンド43と比較して、広い幅に形成されている。これにより、ジョイント部44aの形成部分は、他のバンド部分よりも更に広く形成された標章表示部49を有している。標章表示部49には、シール又は印刷による製品タグ等が付される。なお、第2ヘッドバンド44の全体は、金属で形成されていてもよい。   The second headband 44 has a configuration in which the surface of a spring member 48 made of a metal such as stainless steel is covered with a flexible material such as a resin. The spring force for clamping the user's head is generated by the spring member 48 of the second headband 44. Further, the second headband 44 is formed with a wider width than the first headband 43. Thereby, the formation part of the joint part 44a has the mark display part 49 formed wider than other band parts. The mark display unit 49 is attached with a product tag by sticker or printing. The entire second headband 44 may be made of metal.

ヘッドパット46は、ヘッドバンド40の一端に設けられている。ヘッドパット46は、板状の支持板46aと、弾性部材46bとを有する。弾性部材46bは、支持板46aの一面側に設けられ、断面アーチ状で比較的硬度の高い部材である。   The head pad 46 is provided at one end of the headband 40. The head pad 46 includes a plate-like support plate 46a and an elastic member 46b. The elastic member 46b is a member that is provided on one surface side of the support plate 46a, has a cross-sectional arch shape, and has a relatively high hardness.

連結ピン41は、概略六角柱状である。連結ピン41は、第1ヘッドバンド43の一端に設けられた軸受部43dに、軸支されている。連結ピン41は、支持板46aの弾性部材46bに対して反対側の面に、垂直な姿勢で立設されている。これにより、連結ピン41は、ヘッドパット46を回転可能に支持する。   The connecting pin 41 has a substantially hexagonal column shape. The connecting pin 41 is pivotally supported by a bearing portion 43 d provided at one end of the first headband 43. The connecting pin 41 is erected in a vertical posture on the surface of the support plate 46a opposite to the elastic member 46b. Thereby, the connection pin 41 supports the head pad 46 rotatably.

ヘッドパット47は、ヘッドバンド40の他端に設けられている。ヘッドパット47は、板状の支持板47aと、弾性部材47bとを有する。弾性部材47bは、支持板47aの一面側に設けられ、断面アーチ状で比較的硬度の高い部材である。   The head pad 47 is provided at the other end of the headband 40. The head pad 47 includes a plate-like support plate 47a and an elastic member 47b. The elastic member 47b is a member that is provided on one surface side of the support plate 47a, has a cross-sectional arch shape, and has a relatively high hardness.

回動機構56は、第2ヘッドバンド44を第1ヘッドバンド43から離す方向に付勢する付勢機構である。また、回動機構57は、第2ヘッドバンド44の回動可能な角度範囲を規制する規制機構である。この構成により、第2ヘッドバンド44は、回動機構56により第1ヘッドバンド43から離れる方向に回動付勢され、且つ、回動機構57により第1ヘッドバンド43に対して所定角度以内の範囲に回動規制される。これにより、第2ヘッドバンド44は、第1ヘッドバンド43に対して任意の角度で保持される。したがって、回動機構56及び回動機構57は、ヘッドバンド40における角度保持機構として機能する。   The rotation mechanism 56 is a biasing mechanism that biases the second headband 44 in a direction away from the first headband 43. The rotation mechanism 57 is a restriction mechanism that restricts an angle range in which the second headband 44 can be turned. With this configuration, the second headband 44 is urged to rotate away from the first headband 43 by the rotation mechanism 56, and is within a predetermined angle with respect to the first headband 43 by the rotation mechanism 57. The rotation is restricted to the range. As a result, the second headband 44 is held at an arbitrary angle with respect to the first headband 43. Therefore, the rotation mechanism 56 and the rotation mechanism 57 function as an angle holding mechanism in the headband 40.

図3は、ヘッドマウントディスプレイの装着形態を示す図である。ディスプレイ本体20は、ヘッドバンド40により、ユーザーの頭部に装着される。連結孔31(図2を参照)に連結ピン41(図2を参照)が挿入される際、ディスプレイ本体20の向きが反転されても、ヘッドバンド40がディスプレイ本体20を支持することができるので、ヘッドマウントディスプレイ1は、ユーザーの頭部の左右どちらにディスプレイ本体20が装着されても使用可能である。   FIG. 3 is a diagram illustrating a mounting form of the head mounted display. The display main body 20 is attached to the user's head by the headband 40. When the connection pin 41 (see FIG. 2) is inserted into the connection hole 31 (see FIG. 2), the headband 40 can support the display body 20 even if the orientation of the display body 20 is reversed. The head mounted display 1 can be used regardless of whether the display body 20 is mounted on the left or right side of the user's head.

図3(A)には、ユーザーが右眼(右目)で表示部60を見ている状態が示されている。一方、図3(B)には、ユーザーが左眼(左目)で表示部60を見ている状態が示されている。ユーザーが右眼で表示部60を見ている状態と、ユーザーが左眼で表示部60を見ている状態とでは、ヘッドバンド40に支持される装置本体部21の向きは、反転されている。   FIG. 3A shows a state where the user is viewing the display unit 60 with the right eye (right eye). On the other hand, FIG. 3B shows a state where the user is viewing the display unit 60 with the left eye (left eye). The orientation of the device main body 21 supported by the headband 40 is reversed between the state where the user is viewing the display unit 60 with the right eye and the state where the user is viewing the display unit 60 with the left eye. .

図4は、ディスプレイ本体20の水平断面図である。図4では、表示部60のヘッドバンド40側を内側と称し、ヘッドバンド40側に対して反対側を外側と称する。図4(A)には、表示部60が収容されていない状態が示されている。一方、図4(B)には、表示部60が収容されている状態が示されている。   FIG. 4 is a horizontal sectional view of the display body 20. In FIG. 4, the headband 40 side of the display unit 60 is referred to as an inner side, and the opposite side to the headband 40 side is referred to as an outer side. FIG. 4A shows a state where the display unit 60 is not accommodated. On the other hand, FIG. 4B shows a state in which the display unit 60 is accommodated.

装置本体部21には、筐体21Aの長手方向に沿って延びる板状の回路基板29と、バッテリー33とが内蔵されている。また、回路基板29には、制御回路(不図示)と、電源回路等(不図示)とが実装されている。また、ディスプレイ本体20の各部は、配線(不図示)を介して電気的に接続されている。   The apparatus body 21 incorporates a plate-like circuit board 29 extending along the longitudinal direction of the housing 21 </ b> A and a battery 33. In addition, a control circuit (not shown), a power supply circuit and the like (not shown) are mounted on the circuit board 29. Moreover, each part of the display main body 20 is electrically connected via wiring (not shown).

タッチスイッチ34は、装置本体部21の外面に露出するよう配置されている。また、タッチスイッチ34の内側には、表示パネル36と、バックライト35とが配置されている。表示パネル36は、640×480画素を有する表示部である。表示パネル36に表示される画像は、タッチスイッチ34を透過して表示される。表示パネル36及びバックライト35は、例えば、液晶パネル、有機EL(Electro Luminescence)パネル、又は電気泳動パネルである。   The touch switch 34 is disposed so as to be exposed on the outer surface of the apparatus main body 21. Further, a display panel 36 and a backlight 35 are disposed inside the touch switch 34. The display panel 36 is a display unit having 640 × 480 pixels. An image displayed on the display panel 36 is displayed through the touch switch 34. The display panel 36 and the backlight 35 are, for example, a liquid crystal panel, an organic EL (Electro Luminescence) panel, or an electrophoresis panel.

ヘッドバンドヒンジ32は、筐体21Aに設けられた凹曲面状の収容部32aと、収容部32aに嵌合された球状部32bとから成るボールジョイントである。球状部32bは、球面状の側面部と、この側面部を挟むように互いに平行に形成された二つの平面部を有する。連結孔31は、この二つの平面部を垂直に貫くように形成されている。また、連結孔31は、軸方向視で六角形状(図2を参照)に形成されている。連結孔31には、ヘッドバンド40の連結ピン41が挿入される。これにより、ヘッドバンド40は、ディスプレイ本体20を支持することができる。   The headband hinge 32 is a ball joint composed of a concavely curved accommodation portion 32a provided in the housing 21A and a spherical portion 32b fitted to the accommodation portion 32a. The spherical portion 32b has a spherical side surface portion and two plane portions formed in parallel to each other so as to sandwich the side surface portion. The connecting hole 31 is formed so as to penetrate the two flat portions vertically. The connecting hole 31 is formed in a hexagonal shape (see FIG. 2) when viewed in the axial direction. The connection pin 41 of the headband 40 is inserted into the connection hole 31. Thereby, the headband 40 can support the display main body 20.

ヘッドバンドヒンジ32は、連結孔31を中心とするX軸回り(図1では、A方向)に回動可能に、ヘッドバンド40にディスプレイ本体20を支持させることができる。ヘッドバンド40に支持されているディスプレイ本体20の回動可能範囲は、例えば、270[度]である。ユーザーが右眼(右目)で表示部60を見ている状態(図3(A)を参照)と、ユーザーが左眼(左目)で表示部60を見ている状態(図3(B)を参照)との切り替えは、ユーザーによる回動操作により実現される。   The headband hinge 32 can support the display main body 20 on the headband 40 so as to be rotatable about the X axis (A direction in FIG. 1) around the connection hole 31. The rotatable range of the display main body 20 supported by the headband 40 is, for example, 270 [degrees]. A state where the user is viewing the display unit 60 with the right eye (right eye) (see FIG. 3A) and a state where the user is viewing the display unit 60 with the left eye (left eye) (FIG. 3B). Switching to (see) is realized by a turning operation by the user.

また、ヘッドバンドヒンジ32は、ボールジョイントであるため、連結孔31を中心とするZ軸回り(図1では、B方向)に揺動可能である。ヘッドバンドヒンジ32は、ディスプレイ本体20と、ユーザーの眼及び耳との相対位置を、揺動操作によりユーザーに調整させることができる。   Further, since the headband hinge 32 is a ball joint, the headband hinge 32 can swing around the Z-axis (the B direction in FIG. 1) with the connecting hole 31 as the center. The headband hinge 32 allows the user to adjust the relative position of the display main body 20 and the user's eyes and ears by a swing operation.

心拍数センサー137は、装置本体部21の内面から突出するように設けられる。これにより、心拍数センサー137は、ヘッドマウントディスプレイ1が装着された際に、ユーザーの顔の表面に当接可能である。バッテリー33は、一次電池、及び二次電池のいずれでもよい。   The heart rate sensor 137 is provided so as to protrude from the inner surface of the apparatus main body 21. Thereby, the heart rate sensor 137 can contact the surface of the user's face when the head mounted display 1 is worn. The battery 33 may be either a primary battery or a secondary battery.

表示部60は、装置本体部21の先端部に連結されている。表示部60は、上面視(Z軸視)において湾曲した形状を有するアーム部材であり、装置本体部21との連結部から先端側へ向かうに従い、内側に湾曲する形状を有する。表示部60の内面には、ファインダー開口部67が設けられている。また、表示部60の外面には、カメラ64が設けられている。   The display unit 60 is connected to the distal end portion of the apparatus main body unit 21. The display unit 60 is an arm member having a curved shape in a top view (Z-axis view), and has a shape that curves inward as it goes from the connecting portion with the apparatus main body 21 toward the distal end side. A finder opening 67 is provided on the inner surface of the display unit 60. A camera 64 is provided on the outer surface of the display unit 60.

表示部60は、ディスプレイヒンジ61を介して、装置本体部21と連結されている。ディスプレイヒンジ61は、表示部60の筐体60Aに形成された凹曲面状の収容部61aと、装置本体部21に形成され収容部61aに嵌合された球状部61bとからなるボールジョイントである。   The display unit 60 is connected to the apparatus main body unit 21 via a display hinge 61. The display hinge 61 is a ball joint composed of a concave curved housing 61a formed in the housing 60A of the display 60 and a spherical portion 61b formed in the apparatus main body 21 and fitted in the housing 61a. .

ディスプレイヒンジ61の球状部61bは、装置本体部21の外面の先端部に形成された傾斜面21aに設けられている。ここで、ディスプレイヒンジ61の球状部61bは、筐体21Aの長手方向に対して斜めに延びる傾斜面21aの法線方向(Y’軸方向)に突出するように、設けられている。これにより、表示部60は、ディスプレイヒンジ61の球状部61bに対してY’軸回りに、自由に回転可能である。   The spherical portion 61 b of the display hinge 61 is provided on an inclined surface 21 a formed at the distal end portion of the outer surface of the apparatus main body portion 21. Here, the spherical portion 61b of the display hinge 61 is provided so as to protrude in the normal direction (Y′-axis direction) of the inclined surface 21a extending obliquely with respect to the longitudinal direction of the housing 21A. Accordingly, the display unit 60 can freely rotate around the Y ′ axis with respect to the spherical portion 61 b of the display hinge 61.

ディスプレイヒンジ61の球状部61bには、球状部61bを高さ方向(Y’軸方向)に貫通する貫通孔61cが形成されている。表示部60の内部と装置本体部21の内部とは、貫通孔61cを介して連通されている。また、貫通孔61cには、ケーブル(不図示)が挿通される。回路基板29と表示部60の各部とは、この挿通されたケーブルを介して、電気的に接続される。   The spherical portion 61b of the display hinge 61 is formed with a through hole 61c that penetrates the spherical portion 61b in the height direction (Y′-axis direction). The inside of the display part 60 and the inside of the apparatus main body part 21 are connected via the through-hole 61c. A cable (not shown) is inserted through the through hole 61c. The circuit board 29 and each part of the display unit 60 are electrically connected via the inserted cable.

この構成により、表示部60の各部は、回路基板29の近傍に配置される。これにより、表示部の位置をY方向(図2を参照)に調整可能とする機構を、表示部60に設けずに済む。また、表示部60では、映像信号のケーブルが長く引き回されることがない。したがって、表示部60は、映像信号にノイズが混入する可能性、及び、不要輻射が発せられる可能性を、極めて低く抑えることができる。   With this configuration, each part of the display unit 60 is disposed in the vicinity of the circuit board 29. This eliminates the need to provide the display unit 60 with a mechanism that allows the position of the display unit to be adjusted in the Y direction (see FIG. 2). Further, in the display unit 60, the video signal cable is not routed for a long time. Therefore, the display unit 60 can suppress the possibility that noise is mixed in the video signal and the possibility that unnecessary radiation is emitted.

表示部60は、バックライト62と、表示パネル63と、カメラ64と、プリズム65と、反射ミラー66と、前方ライト68と、前方スピーカー70と、結像レンズ71と、撮像素子72とを備える。   The display unit 60 includes a backlight 62, a display panel 63, a camera 64, a prism 65, a reflection mirror 66, a front light 68, a front speaker 70, an imaging lens 71, and an image sensor 72. .

プリズム65は、上面視(Z軸視)で略三角形状の第1プリズム65aと、上面視(Z軸視)で略三角形状の第2プリズム65bとが、互いの面で貼り合わされた構成を有する。表示パネル63は、第1プリズム65aにおいて貼り合わされていない二面のうち、一方の面に対向する位置に設けられる。表示パネル63は、800×480画素を有する表示部である。表示パネル63は、例えば、液晶パネルである。また、表示パネル63の背面には、表示パネル63を透過照明するためのバックライト62が配置される。また、第1プリズム65aにおいて貼り合わされていない他方の面に対向する位置には、反射ミラー66が配置される。ここで、反射ミラー66は、ファインダー開口部67のほぼ正面の位置に配置される。   The prism 65 has a configuration in which a first prism 65a having a substantially triangular shape in a top view (Z-axis view) and a second prism 65b having a substantially triangular shape in a top view (Z-axis view) are bonded to each other. Have. The display panel 63 is provided at a position facing one of the two surfaces not bonded to each other in the first prism 65a. The display panel 63 is a display unit having 800 × 480 pixels. The display panel 63 is, for example, a liquid crystal panel. In addition, a backlight 62 for transmitting and illuminating the display panel 63 is disposed on the back surface of the display panel 63. A reflection mirror 66 is disposed at a position facing the other surface of the first prism 65a that is not bonded. Here, the reflection mirror 66 is arranged at a position substantially in front of the finder opening 67.

第2プリズム65bにおいて貼り合わされていない二面のうち、一方の面は、ファインダー開口部67のファインダー接眼面となる。また、第2プリズム65bにおいて貼り合わされていない他方の面に対向する位置には、結像レンズ71及び撮像素子72が対向配置される。   Of the two surfaces that are not bonded to each other in the second prism 65 b, one surface is a finder eyepiece surface of the finder opening 67. In addition, the imaging lens 71 and the imaging element 72 are arranged to face each other at a position facing the other surface not bonded to the second prism 65b.

表示部60において、表示パネル63に表示された画像は、その光学像が、第1プリズム65a、反射ミラー66、及び第2プリズム65bを介して、ファインダー開口部67から射出されることで、ユーザーに観察される。   In the display unit 60, the optical image displayed on the display panel 63 is emitted from the viewfinder opening 67 through the first prism 65a, the reflection mirror 66, and the second prism 65b, so that the user Observed.

撮像素子72は、ファインダー開口部67を介して表示パネル63を見ているユーザーの目元を、第2プリズム65b及び結像レンズ71を介して撮像する。撮像された目元の画像は、ユーザーの視線方向、目の瞬き、及び表情を解析する際に用いられる。すなわち、撮像素子72は、ユーザーの目元を撮像する撮像部として機能する。ここで、バックライト62は、撮像素子72がユーザーの目元を撮像する際に、そのユーザーの目元を照明するための照明装置としても利用される。   The image sensor 72 images the eye of the user who is looking at the display panel 63 through the finder opening 67 through the second prism 65 b and the imaging lens 71. The captured image of the eye is used when analyzing the user's line-of-sight direction, eye blink, and facial expression. That is, the imaging element 72 functions as an imaging unit that images the user's eyes. Here, the backlight 62 is also used as an illuminating device for illuminating the eyes of the user when the image sensor 72 images the eyes of the user.

カメラ64(撮像部)は、例えば、500万画素〜1000万画素の撮像素子を有し、オートフォーカス動作が可能である。また、カメラ64の撮像方向は、ユーザーの視線方向と一致するように設定される。これにより、カメラ64は、ヘッドマウントディスプレイ1を装着したユーザーの視線方向の映像を、撮像することができる。   The camera 64 (imaging unit) has, for example, an image sensor with 5 to 10 million pixels and can perform an autofocus operation. The imaging direction of the camera 64 is set so as to coincide with the user's line-of-sight direction. Thereby, the camera 64 can capture an image in the line of sight of the user wearing the head mounted display 1.

ここで、カメラ64の撮像方向と、ユーザーの視線方向との一致調整は、機械的に行ってもよいが、画像処理により行われてもよい。例えば、ユーザーの目元を広角撮像した画像から、ユーザーの視線方向の情報が画像処理により取得されることで、ユーザーの視線方向の映像は、カメラ64が撮像した映像から抜き出されてもよい。これにより、表示パネル63は、その抜き出された映像を表示することができる。つまり、ユーザーの視線方向の映像は、カメラ64に調整機構を設けることなく、撮像及び表示されることが可能となる。   Here, the matching adjustment between the imaging direction of the camera 64 and the user's line-of-sight direction may be performed mechanically or may be performed by image processing. For example, the image of the user's line-of-sight direction may be extracted from the image captured by the camera 64 by acquiring information on the user's line-of-sight direction from an image obtained by wide-angle imaging of the user's eyes. Thereby, the display panel 63 can display the extracted video. That is, the image in the user's line-of-sight direction can be captured and displayed without providing the camera 64 with an adjustment mechanism.

前方ライト68は、例えば、LED(Light Emitting Diode)ライトである。前方ライト68は、赤、緑、青の各色の発光素子を有し、任意の色を任意のタイミングで発光(点灯)させることが可能である。例えば、前方ライト68は、発光色及び発光タイミングにより、外部に対して情報を表示する装置として用いられる。また、例えば、前方ライト68は、カメラ64が撮像する際に、照明装置として用いられてもよい。   The front light 68 is, for example, an LED (Light Emitting Diode) light. The front light 68 has light emitting elements of red, green, and blue colors, and can emit (light) any color at an arbitrary timing. For example, the front light 68 is used as a device that displays information to the outside based on the emission color and the emission timing. For example, the front light 68 may be used as a lighting device when the camera 64 captures an image.

図5は、ヘッドバンドの斜視図である。図5(A)は、開いた状態のヘッドバンド40の斜視図である。ここで、円弧高さr1は、同軸に配置された回動機構56及び回動機構57の回転軸Lの中央位置Cから、第1ヘッドバンド43までの距離の最大値である。また、円弧高さr2は、回転軸Lの中央位置Cから、第2ヘッドバンド44までの距離の最大値である。第1ヘッドバンド43の円弧高さr1は、第2ヘッドバンド44の円弧高さr2よりも低い。これにより、第1ヘッドバンド43と第2ヘッドバンド44とが交差するように移動されても、第1ヘッドバンド43と第2ヘッドバンド44とは、互いに干渉することなく、その位置の前後関係が入れ替わる。   FIG. 5 is a perspective view of the headband. FIG. 5A is a perspective view of the headband 40 in an open state. Here, the arc height r <b> 1 is the maximum value of the distance from the center position C of the rotation axis L of the rotation mechanism 56 and the rotation mechanism 57 arranged coaxially to the first headband 43. The arc height r2 is the maximum value of the distance from the center position C of the rotation axis L to the second headband 44. The arc height r1 of the first headband 43 is lower than the arc height r2 of the second headband 44. As a result, even if the first headband 43 and the second headband 44 are moved so as to cross each other, the first headband 43 and the second headband 44 do not interfere with each other, and the positional relationship between the first headband 43 and the second headband 44 Will be replaced.

なお、ヘッドバンド40は、第1ヘッドバンド43の円弧高さr1を、第2ヘッドバンド44の円弧高さr2よりも長くすることにより、第2ヘッドバンド44を第1ヘッドバンド43の内側で揺動させる構成とされてもよい。   Note that the headband 40 has the second headband 44 inside the first headband 43 by making the arc height r1 of the first headband 43 longer than the arc height r2 of the second headband 44. It may be configured to swing.

また、第1ヘッドバンド43及び第2ヘッドバンド44は、折り畳み(開閉)可能な構成を有する。図5(B)は、わずかに開いた状態(折り畳み途中状態)のヘッドバンド40の斜視図である。また、図5(C)は、閉じた状態(折り畳み状態)のヘッドバンド40の斜視図である。   The first headband 43 and the second headband 44 have a configuration that can be folded (opened and closed). FIG. 5B is a perspective view of the headband 40 in a slightly opened state (in the middle of folding). FIG. 5C is a perspective view of the headband 40 in a closed state (folded state).

ジョイント部43aは、第1ヘッドバンド43の中央から、ヘッドパット47寄りの位置に設けられている。また、ジョイント部44aは、第2ヘッドバンド44の中央から、ヘッドパット47寄りの位置に設けられている。また、第1ヘッドバンド43又は第2ヘッドバンド44のうち、ヘッドパット47に接続される側のバンドが内側になるように、ジョイント部43a及びジョイント部44aのヒンジが連結されている。   The joint portion 43 a is provided at a position near the head pad 47 from the center of the first headband 43. The joint portion 44 a is provided at a position near the head pad 47 from the center of the second headband 44. Further, the hinges of the joint portion 43a and the joint portion 44a are coupled so that the band on the side connected to the head pad 47 of the first headband 43 or the second headband 44 is inside.

この構成により、閉じた状態(折り畳み状態)において、ヘッドパット46の内側(弾性部材46b側)に、ヘッドパット47が配置される。これにより、ヘッドパット46に突設された連結ピン41が邪魔にならないようコンパクトに、ヘッドバンド40は折り畳まれることができる。   With this configuration, the head pad 47 is arranged inside the head pad 46 (on the elastic member 46b side) in the closed state (folded state). Accordingly, the headband 40 can be folded in a compact manner so that the connecting pin 41 protruding from the head pad 46 does not get in the way.

ヘッドバンド40を折り畳むには、まず、ユーザーは、開いた状態(図5(A)を参照)から、第2ヘッドバンド44を第1ヘッドバンド43に近づけるように移動させる。次に、ユーザーは、第1ヘッドバンド43に設けられたジョイント部43a、及び第2ヘッドバンド44に設けられたジョイント部44aを、それぞれ折り曲げることで、ヘッドパット47をヘッドパット46側へ移動させ、わずかに開いた状態(図5(B)を参照)にする。さらに、ユーザーは、ジョイント部43a及びジョイント部44aを折り曲げることで、ヘッドパット46及びヘッドパット47が重なる位置(閉じた状態(図5(C)を参照)まで、ヘッドバンド40を折り畳むことが可能である。   To fold the headband 40, first, the user moves the second headband 44 from the open state (see FIG. 5A) so as to approach the first headband 43. Next, the user moves the head pad 47 toward the head pad 46 by bending the joint part 43a provided on the first headband 43 and the joint part 44a provided on the second headband 44, respectively. , Slightly open (see FIG. 5B). Furthermore, the user can fold the headband 40 until the head pad 46 and the head pad 47 overlap each other (see FIG. 5C) by folding the joint part 43a and the joint part 44a. It is.

一方、閉じた状態(折り畳み状態)から、開いた状態にヘッドバンド40を戻すには、ユーザーは、閉じた状態(折り畳み状態)から、わずかに開いた状態に、ヘッドバンド40の状態を移行させるだけでよい。第2ヘッドバンド44は、第1ヘッドバンド43から離れる方向に、回動機構56により付勢されている。このため、ヘッドバンド40は、わずかに開いた状態(図5(B)を参照)に戻されるだけで、ジョイント部43a及びジョイント部44aが開く方向に付勢力が作用し、開いた状態に復元される。さらに、ヘッドバンド40は、回動機構56の付勢力によって、第2ヘッドバンド44が揺動され、開いた状態(図5(A)を参照)から、ユーザーの頭部への装着が可能な状態(図2を参照)(以下、「展開状態」という)に展開される。   On the other hand, in order to return the headband 40 from the closed state (folded state) to the open state, the user shifts the state of the headband 40 from the closed state (folded state) to the slightly opened state. Just do it. The second headband 44 is urged by a rotation mechanism 56 in a direction away from the first headband 43. For this reason, the headband 40 is restored to the open state by applying a biasing force in the direction in which the joint portion 43a and the joint portion 44a are opened only by returning the headband 40 slightly to the open state (see FIG. 5B). Is done. Further, the headband 40 can be mounted on the user's head from the state where the second headband 44 is swung by the urging force of the rotation mechanism 56 and is opened (see FIG. 5A). It is expanded to a state (see FIG. 2) (hereinafter referred to as “deployed state”).

ここで、第2ヘッドバンド44に付勢力を作用させる回動機構56は、第1ヘッドバンド43に対して、前後両方向に付勢力を作用させるトグル構造を有している。回動機構56の付勢方向を切り替えるには、第1ヘッドバンド43と第2ヘッドバンド44との位置の前後関係は、入れ替えられる必要がある。一方、ユーザーは、開いた状態(図5(A)を参照)から閉じた状態(図5(C)を参照)に、ヘッドバンド40を移行させる際、第1ヘッドバンド43と第2ヘッドバンド44との位置の前後関係を、入れ替える必要がない。つまり、ユーザーは、第1ヘッドバンド43と第2ヘッドバンド44を近づけて、ジョイント部43a及びジョイント部44aを折り曲げるだけで、わずかに開いた状態(図5(B)を参照)に、ヘッドバンド40を移行させることができる。   Here, the rotation mechanism 56 that applies an urging force to the second headband 44 has a toggle structure that applies an urging force to the first headband 43 in both the front and rear directions. In order to switch the urging direction of the rotation mechanism 56, the front-rear relationship between the positions of the first headband 43 and the second headband 44 needs to be switched. On the other hand, when the user shifts the headband 40 from the open state (see FIG. 5A) to the closed state (see FIG. 5C), the first headband 43 and the second headband. It is not necessary to change the position relationship with 44. That is, the user brings the first headband 43 and the second headband 44 close to each other, and bends the joint portion 43a and the joint portion 44a, so that the headband is slightly opened (see FIG. 5B). 40 can be migrated.

そのため、ヘッドバンド40が展開状態から折り畳まれ、再び展開状態に戻された場合、回動機構56の付勢方向が切り替わることは、ほとんど無い。したがって、ヘッドバンド40が展開状態から折り畳まれ、再び展開状態に戻された場合、第1ヘッドバンド43と第2ヘッドバンド44との位置の前後関係が入れ替わってしまうことは、ほとんど無い。例えば、ユーザーが、右眼で表示部60を見ている状態(図3(A)を参照)から、ヘッドバンド40を頭部から外し(図1を参照)、展開状態から折り畳んで、再び展開状態に戻せば、ヘッドバンド40は、ユーザーが右眼で表示部60を見ることができる状態(図1を参照)に戻る。   Therefore, when the headband 40 is folded from the unfolded state and returned to the unfolded state, the urging direction of the rotating mechanism 56 is hardly switched. Therefore, when the headband 40 is folded from the unfolded state and returned to the unfolded state, the positional relationship between the first headband 43 and the second headband 44 is hardly changed. For example, from a state where the user is viewing the display unit 60 with the right eye (see FIG. 3A), the headband 40 is removed from the head (see FIG. 1), folded from the unfolded state, and unfolded again. If it returns to a state, the headband 40 will return to the state (refer FIG. 1) in which a user can see the display part 60 with a right eye.

図6は、ポインティングデバイスとしてのリモコンの斜視図である。ユーザーは、ポインティングデバイスとしてのリモコン140を手に持って移動させることで、3次元空間における位置(ポインティングされた位置)を、リモコン140の位置により示すことができる。   FIG. 6 is a perspective view of a remote controller as a pointing device. The user can indicate the position (pointed position) in the three-dimensional space by the position of the remote control 140 by holding the remote control 140 as a pointing device and moving it.

リモコン140は、筐体140Aと、タッチパッド141と、USBコネクター142と、インジケーター143と、取付クリップ144と、操作スイッチ147と、インジケータースイッチ150a〜150bと、コーナーキューブ151a〜151bとを備える。また、リモコン140は、リモコン140を総合的に制御するリモコン処理部(不図示)を備える。   The remote controller 140 includes a housing 140A, a touch pad 141, a USB connector 142, an indicator 143, a mounting clip 144, an operation switch 147, indicator switches 150a to 150b, and corner cubes 151a to 151b. In addition, the remote control 140 includes a remote control processing unit (not shown) that comprehensively controls the remote control 140.

USBケーブル148の一方の端子がUSBコネクター142に接続され、且つ、USBケーブル148の他方の端子が、装置本体部21のUSBコネクター25(図2を参照)に接続されることで、リモコン140は、装置本体部21と電気的に接続される。USBケーブル148は、USB規格に準拠しているケーブルである。USBケーブル148の途中には、複数のクリップ149が設けられている。複数のクリップ149は、例えば、USBケーブル148を第2ヘッドバンド44(図2を参照)に沿わせた状態で固定するために用いられる。   One terminal of the USB cable 148 is connected to the USB connector 142, and the other terminal of the USB cable 148 is connected to the USB connector 25 (see FIG. 2) of the device main body 21, so that the remote controller 140 is The device main body 21 is electrically connected. The USB cable 148 is a cable compliant with the USB standard. A plurality of clips 149 are provided in the middle of the USB cable 148. The plurality of clips 149 are used, for example, to fix the USB cable 148 along the second headband 44 (see FIG. 2).

リモコン140には、ディスプレイ本体20などの他の電子機器と無線通信を行うための通信回路が内蔵されている。この通信方式としては、例えば、Bluetooth(登録商標)、無線LAN、赤外線通信、UWB(Ultra Wide Band)、「Transfer Jet」などが用いられる。これにより、リモコン140は、USBケーブル148が接続されていなくても、ディスプレイ本体20と通信することができる。   The remote control 140 incorporates a communication circuit for performing wireless communication with other electronic devices such as the display body 20. As this communication method, for example, Bluetooth (registered trademark), wireless LAN, infrared communication, UWB (Ultra Wide Band), “Transfer Jet”, or the like is used. Thereby, the remote controller 140 can communicate with the display main body 20 even if the USB cable 148 is not connected.

リモコン140には、加速度センサー(Gセンサー)、角速度センサー、及び、方位センサーが内蔵されていてもよい。これらのセンサーに検出された情報は、通信回路を介して、ディスプレイ本体20に通信可能である。   The remote control 140 may incorporate an acceleration sensor (G sensor), an angular velocity sensor, and an orientation sensor. Information detected by these sensors can be communicated to the display body 20 via a communication circuit.

タッチパッド141は、筐体140Aの一方の主面としての筐体面152aに設けられている。タッチパッド141は、ユーザーがタッチすることにより、ユーザーがディスプレイ本体20を操作するための操作部である。また、筐体140Aの内部における、タッチパッド141の背面側には、装置本体部21のタッチスイッチ34(図4を参照)と同様に、表示パネル及びバックライトが設けられてもよい。   The touch pad 141 is provided on the housing surface 152a as one main surface of the housing 140A. The touch pad 141 is an operation unit for the user to operate the display main body 20 by touching the user. In addition, a display panel and a backlight may be provided on the back side of the touch pad 141 inside the housing 140A, similarly to the touch switch 34 (see FIG. 4) of the apparatus main body 21.

USBコネクター142は、装置本体部21と電気的に接続されるほか、パーソナルコンピュータ(PC)と電気的に接続される。また、USBコネクター142は、リモコン140が充電式のバッテリーを内蔵している場合、そのバッテリーに充電するための充電端子となる。また、USBコネクター142は、リモコン140が充電式のバッテリーを内蔵している場合、そのバッテリーから装置本体部21に給電するための給電端子となる。リモコン140から装置本体部21に給電可能にすることで、装置本体部21は、バッテリー容量が小さくてもよいので、小型軽量化される。   The USB connector 142 is electrically connected to the apparatus main body 21 and is also electrically connected to a personal computer (PC). In addition, when the remote control 140 has a built-in rechargeable battery, the USB connector 142 serves as a charging terminal for charging the battery. Further, the USB connector 142 serves as a power supply terminal for supplying power to the apparatus main body 21 from the battery when the remote control 140 has a built-in rechargeable battery. By enabling power supply from the remote controller 140 to the apparatus main body 21, the apparatus main body 21 may be small and light because the battery capacity may be small.

操作スイッチ147は、リモコン140及びディスプレイ本体20を手動操作するためのスイッチである。なお、操作スイッチ147は、必須構成ではない。
取付クリップ144は、タッチパッド141に対して筐体140Aを挟んだ反対側の面に設けられている。取付クリップ144は、一端を筐体140Aに固定された側面視S形のバネ板部材である。取付クリップ144は、ユーザーの衣服又はベルト等に、リモコン140を装着させる。
The operation switch 147 is a switch for manually operating the remote controller 140 and the display main body 20. The operation switch 147 is not an essential configuration.
The attachment clip 144 is provided on the opposite surface of the touch pad 141 with the housing 140A interposed therebetween. The mounting clip 144 is an S-shaped spring plate member having one end fixed to the housing 140A. The attachment clip 144 attaches the remote controller 140 to a user's clothes or belt.

インジケータースイッチ150aは、インジケーター143の所定動作(例えば、青色のパターン発光)を行わせるためのスイッチである。インジケータースイッチ150aは、筐体140Aの筐体面152bに設けられる。   The indicator switch 150a is a switch for causing the indicator 143 to perform a predetermined operation (for example, blue pattern light emission). The indicator switch 150a is provided on the housing surface 152b of the housing 140A.

インジケータースイッチ150bは、インジケーター143の所定動作(例えば、赤色のパターン発光)を行わせるためのスイッチである。インジケータースイッチ150bは、筐体面152bとは反対側の筐体面に設けられる。   The indicator switch 150b is a switch for causing the indicator 143 to perform a predetermined operation (for example, red pattern light emission). The indicator switch 150b is provided on the housing surface opposite to the housing surface 152b.

インジケーター143は、コーナーキューブ151の近傍に配置されている。図6では、インジケーター143は、タッチパッド141の一辺に沿う位置に配置されている。インジケーター143は、LED等の発光素子を備える。インジケーター143は、例えば、赤色、青色及び緑色の発光素子を備える。   The indicator 143 is disposed in the vicinity of the corner cube 151. In FIG. 6, the indicator 143 is disposed at a position along one side of the touch pad 141. The indicator 143 includes a light emitting element such as an LED. The indicator 143 includes, for example, red, blue, and green light emitting elements.

インジケーター143は、リモコン処理部(不図示)により制御されたタイミングパターンで、パターン発光する。インジケーター143は、インジケータースイッチ150aが操作されることにより(パーソナルコンピュータでいうマウス操作の左クリックに相当)、パターン発光(例えば、青色の点滅)がオンオフされる。また、インジケーター143は、インジケータースイッチ150bが操作されることにより(パーソナルコンピュータでいうマウス操作の右クリックに相当)、パターン発光(例えば、赤色の点滅)がオンオフされる。   The indicator 143 emits a pattern with a timing pattern controlled by a remote control processing unit (not shown). When the indicator switch 150a is operated (corresponding to a left click of a mouse operation in a personal computer), the indicator 143 turns on / off pattern light emission (for example, blinking blue). The indicator 143 is turned on / off by the operation of the indicator switch 150b (corresponding to a right click of a mouse operation in a personal computer).

これらのパターン発光は、リモコン140の状態を示す。ここで、リモコン140の状態とは、例えば、左クリック操作された状態、又は、右クリック操作された状態である。これらのパターン発光が装置本体部21のカメラ64により撮像され、撮像されたパターン発光が装置本体部21に解析されることにより、リモコン140の状態を示す情報は、装置本体部21に伝達される。パターン発光を利用した情報伝達により、リモコン140は、無線通信を用いた場合と比較して、消費電力を抑えることができる。右クリック又は左クリックは、瞬間的な動作であるため、リモコン140の消費電力への影響がほとんどない。また、インジケーター143がパターン発光するので、単に発光する場合と比較して、インジケーター143の位置は検出され易い。   These pattern emissions indicate the state of the remote controller 140. Here, the state of the remote controller 140 is, for example, a state where a left click operation is performed or a state where a right click operation is performed. The pattern light emission is picked up by the camera 64 of the apparatus main body 21, and the imaged pattern light emission is analyzed by the device main body part 21, whereby information indicating the state of the remote control 140 is transmitted to the device main body part 21. . By transmitting information using the pattern light emission, the remote controller 140 can suppress power consumption compared to the case of using wireless communication. Since the right click or the left click is an instantaneous operation, there is almost no influence on the power consumption of the remote controller 140. Further, since the indicator 143 emits light in a pattern, the position of the indicator 143 is easily detected as compared with the case where light is simply emitted.

コーナーキューブ151aは、互いに直交する3枚の鏡面を有するプリズムである。コーナーキューブ151aは、これらの鏡面による光の全反射により、入射光を180[度]折返すことができる。コーナーキューブ151aは、筐体面152aの法線に対して45[度]以内から入射した光を、180[度]折返すことができる。   The corner cube 151a is a prism having three mirror surfaces that are orthogonal to each other. The corner cube 151a can return the incident light by 180 [degrees] by total reflection of light by these mirror surfaces. The corner cube 151a can fold the light incident from within 45 [degrees] with respect to the normal line of the casing surface 152a by 180 [degrees].

また、コーナーキューブ151bは、互いに直交する3枚の鏡面を有するプリズムである。コーナーキューブ151bは、これらの鏡面による光の全反射により、入射光を180[度]折返すことができる。コーナーキューブ151bは、筐体面152bの法線に対して45[度]以内から入射した光を、180[度]折返すことができる。   The corner cube 151b is a prism having three mirror surfaces that are orthogonal to each other. The corner cube 151b can return the incident light by 180 [degrees] due to total reflection of light by these mirror surfaces. The corner cube 151b can return 180 [deg] of light incident from within 45 [deg.] With respect to the normal line of the casing surface 152b.

図7は、コーナーキューブによる反射を説明するための図である。コーナーキューブ151a及びコーナーキューブ151bは、同構成を有するので、図7では、コーナーキューブ151aについてのみ説明する。   FIG. 7 is a diagram for explaining reflection by a corner cube. Since the corner cube 151a and the corner cube 151b have the same configuration, only the corner cube 151a will be described in FIG.

カメラ64及び前方ライト68は、互いに近接して配置されている(図4を参照)。図7(A)は、カメラ64及び前方ライト68に対して傾いていないコーナーキューブ151aによる反射を説明するための図である。前方ライト68は、処理部123による制御に応じて点灯する。前方ライト68からコーナーキューブ151aに入射された光は、コーナーキューブ151aにより180[度]折返される。また、カメラ64は、コーナーキューブ151aにより180[度]折返された光を撮像する。   The camera 64 and the front light 68 are arranged close to each other (see FIG. 4). FIG. 7A is a diagram for explaining the reflection by the corner cube 151 a that is not inclined with respect to the camera 64 and the front light 68. The front light 68 is lit according to control by the processing unit 123. The light incident on the corner cube 151a from the front light 68 is turned back 180 [deg.] By the corner cube 151a. In addition, the camera 64 captures the light that is turned 180 [deg.] By the corner cube 151a.

一方、図7(B)は、カメラ64及び前方ライト68に対して傾いているコーナーキューブ151aによる反射を説明するための図である。前方ライト68は、処理部123による制御に応じて点灯する。前方ライト68からコーナーキューブ151aに入射された光は、カメラ64及び前方ライト68に対して傾いているコーナーキューブ151aにより180[度]折返される。カメラ64は、コーナーキューブ151aにより180[度]折返された光を撮像する。   On the other hand, FIG. 7B is a diagram for explaining the reflection by the corner cube 151 a inclined with respect to the camera 64 and the front light 68. The front light 68 is lit according to control by the processing unit 123. Light incident on the corner cube 151 a from the front light 68 is turned back 180 degrees by the corner cube 151 a inclined with respect to the camera 64 and the front light 68. The camera 64 images the light that is turned 180 [deg.] By the corner cube 151a.

図8は、ステレオイヤホンを示す斜視図である。ステレオイヤホン100は、コネクター101と、ケーブル102と、第1スピーカー103と、第2スピーカー104と、集音マイク105と、複数のクリップ106とを有する。   FIG. 8 is a perspective view showing a stereo earphone. Stereo earphone 100 includes a connector 101, a cable 102, a first speaker 103, a second speaker 104, a sound collecting microphone 105, and a plurality of clips 106.

コネクター101は、ケーブル102の一方の端部に設けられている。コネクター101は、例えば、4極φ3.5mmのミニプラグである。ここで、4極の内訳は、集音マイク105、第1スピーカー103、第2スピーカー104、及び、グランド(GND)である。ケーブル102は、コネクター101の近傍において二分岐されている。ケーブル102の一方の端部には、第1スピーカー103が設けられている。また、ケーブル102の他方の端部には、第2スピーカー104が設けられている。また、複数のクリップ106は、ケーブル102上に、所定の間隔で配置されている。   The connector 101 is provided at one end of the cable 102. The connector 101 is, for example, a 4-pole φ3.5 mm mini plug. Here, the breakdown of the four poles is the sound collection microphone 105, the first speaker 103, the second speaker 104, and the ground (GND). The cable 102 is bifurcated in the vicinity of the connector 101. A first speaker 103 is provided at one end of the cable 102. A second speaker 104 is provided at the other end of the cable 102. Further, the plurality of clips 106 are arranged on the cable 102 at a predetermined interval.

ステレオイヤホン100は、ディスプレイ本体20のオーディオコネクター26(図2を参照)に、コネクター101が接続された状態で使用される。オーディオコネクター26にコネクター101が接続された場合、第1スピーカー103、第2スピーカー104、及び集音マイク105は、有効化される。   The stereo earphone 100 is used in a state where the connector 101 is connected to the audio connector 26 (see FIG. 2) of the display body 20. When the connector 101 is connected to the audio connector 26, the first speaker 103, the second speaker 104, and the sound collecting microphone 105 are activated.

また、オーディオコネクター26にコネクター101が接続された場合、ディスプレイ本体20の耳元スピーカー23(図2を参照)、及び、表示部60の通話マイク37(図4を参照)は、無効化される。ここで、表示部60の前方スピーカー70(図4を参照)は、必要に応じて無効化される。   When the connector 101 is connected to the audio connector 26, the ear speaker 23 (see FIG. 2) of the display body 20 and the call microphone 37 (see FIG. 4) of the display unit 60 are invalidated. Here, the front speaker 70 (see FIG. 4) of the display unit 60 is invalidated as necessary.

第1スピーカー103は、ディスプレイ本体20が配置された側のユーザーの耳に装着される。一方、第2スピーカー104は、第1スピーカー103とは反対側の耳に装着される。ここで、ケーブル102は、クリップ106により、第2ヘッドバンド44に固定されてもよい。   The first speaker 103 is attached to the ear of the user on the side where the display body 20 is disposed. On the other hand, the second speaker 104 is attached to the ear on the opposite side to the first speaker 103. Here, the cable 102 may be fixed to the second headband 44 by the clip 106.

また、集音マイク105と、ディスプレイ本体20の集音マイク24(図1を参照)とにより、ステレオ録音が可能である。ユーザーが右眼で表示部60を見ている場合(図3(A)を参照)、集音マイク24がユーザーの右側から収音し、左耳に装着されている集音マイク105がユーザーの左側から収音することにより、ステレオ録音は可能である。この場合、第1スピーカー103は、右チャンネルの音声を出力する。また、第2スピーカー104は、左チャンネルの音声を出力する。   Further, stereo recording can be performed by the sound collecting microphone 105 and the sound collecting microphone 24 (see FIG. 1) of the display main body 20. When the user is viewing the display unit 60 with the right eye (see FIG. 3A), the sound collection microphone 24 picks up sound from the right side of the user, and the sound collection microphone 105 attached to the left ear is the user's right. Stereo recording is possible by collecting sound from the left side. In this case, the first speaker 103 outputs the right channel sound. The second speaker 104 outputs left channel sound.

一方、ユーザーが左眼で表示部60を見ている場合(図3(B)を参照)、集音マイク24がユーザーの左側から収音し、右耳に装着されている集音マイク105がユーザーの右側から収音することにより、ステレオ録音は可能である。この場合、第1スピーカー103は、左チャンネルの音声を出力する。また、第2スピーカー104は、右チャンネルの音声を出力する。   On the other hand, when the user is viewing the display unit 60 with the left eye (see FIG. 3B), the sound collecting microphone 24 picks up sound from the left side of the user and the sound collecting microphone 105 attached to the right ear is Stereo recording is possible by collecting sound from the right side of the user. In this case, the first speaker 103 outputs the left channel sound. The second speaker 104 outputs right channel sound.

また、集音マイク24及び集音マイク105は、いずれもユーザーの耳の近傍に配置されるため、バイノーラル録音のような臨場感のある録音が可能である。なお、集音マイク24の特性と集音マイク105の特性とが近い場合、右チャンネルの音声と、左チャンネルの音声との差異は小さくなる。   Further, since both the sound collecting microphone 24 and the sound collecting microphone 105 are arranged in the vicinity of the user's ear, recording with a sense of reality such as binaural recording is possible. When the characteristics of the sound collecting microphone 24 and the characteristics of the sound collecting microphone 105 are close, the difference between the right channel sound and the left channel sound becomes small.

図9は、ヘッドマウントディスプレイの機能ブロック図である。ヘッドマウントディスプレイ1(ディスプレイ本体20)は、バックライト35と、バックライト62と、バッテリー33と、BLドライバ126と、電源回路120と、表示パネル36と、表示パネル63と、LCDドライバ125と、耳元スピーカー23と、スピーカーアンプ162と、前方スピーカー70と、ビデオコネクター27と、デコーダー121と、カメラ64と、撮像素子72と、集音マイク24と、通話マイク37と、オーディオコネクター26と、レーザー発振器73と、角速度センサー134と、GPSセンサー135と、温湿度センサー136と、心拍数センサー137と、メモリー127と、メインスイッチ28と、タッチスイッチ34と、エンコーダー129と、3G/LTE通信回路138と、前方ライト68と、地磁気センサー133と、加速度センサー132と、WiFi通信回路131と、BT通信回路130と、フラッシュメモリー122と、操作スイッチ30と、処理部123と、を備える。   FIG. 9 is a functional block diagram of the head mounted display. The head mounted display 1 (display main body 20) includes a backlight 35, a backlight 62, a battery 33, a BL driver 126, a power supply circuit 120, a display panel 36, a display panel 63, an LCD driver 125, Ear speaker 23, speaker amplifier 162, front speaker 70, video connector 27, decoder 121, camera 64, image sensor 72, sound collecting microphone 24, call microphone 37, audio connector 26, laser Oscillator 73, angular velocity sensor 134, GPS sensor 135, temperature / humidity sensor 136, heart rate sensor 137, memory 127, main switch 28, touch switch 34, encoder 129, and 3G / LTE communication circuit 138 And front light 6 When provided with a geomagnetic sensor 133, an acceleration sensor 132, a WiFi communication circuit 131, and BT communication circuit 130, a flash memory 122, an operation switch 30, a processing unit 123, a.

バッテリー33は、電源回路120を介して、ヘッドマウントディスプレイ1の各部に電力を供給する。
電源回路120は、バッテリー33から供給された電力の制御(例えば、電圧の変換、供給オンオフ)を、処理部123から供給される制御信号に基づいて実行する。
The battery 33 supplies power to each part of the head mounted display 1 via the power supply circuit 120.
The power supply circuit 120 executes control of power supplied from the battery 33 (for example, voltage conversion, supply on / off) based on a control signal supplied from the processing unit 123.

メモリー127は、処理部123が実行する制御プログラムを、予め記憶する。
メインスイッチ28は、装置全体の電源のオンオフを行うためのスイッチであり、ユーザーが操作することにより、その操作に基づく制御信号を処理部123に供給する。
操作スイッチ30は、画面内でのポインティング操作を行うためのスイッチであり、ユーザーが操作することにより、その操作に基づく制御信号を処理部123に供給する。
タッチスイッチ34は、タッチ操作により各種の操作入力を行うスイッチであり、操作入力に基づく制御信号を処理部123に供給する。
The memory 127 stores a control program executed by the processing unit 123 in advance.
The main switch 28 is a switch for turning on and off the power supply of the entire apparatus, and supplies a control signal based on the operation to the processing unit 123 when operated by a user.
The operation switch 30 is a switch for performing a pointing operation on the screen, and supplies a control signal based on the operation to the processing unit 123 when operated by a user.
The touch switch 34 is a switch for performing various operation inputs by a touch operation, and supplies a control signal based on the operation input to the processing unit 123.

なお、ディスプレイ本体20は、ユーザーの右側又は左側のいずれに装着された場合でも(図3を参照)、メインスイッチ28、操作スイッチ30、及びタッチスイッチ34を介した操作入力により操作可能である。   Note that the display main body 20 can be operated by an operation input via the main switch 28, the operation switch 30, and the touch switch 34 regardless of whether the display body 20 is mounted on the right side or the left side of the user (see FIG. 3).

加速度センサー132(Gセンサー)は、加速度の方向(例えば、重力方向)を検出し、検出した加速度の方向の情報(以下、「加速度情報」という)を処理部123に供給する。供給された加速度情報は、ヘッドマウントディスプレイ1の姿勢(傾き)を検出するために用いられる。   The acceleration sensor 132 (G sensor) detects the direction of acceleration (for example, the direction of gravity), and supplies information on the detected direction of acceleration (hereinafter referred to as “acceleration information”) to the processing unit 123. The supplied acceleration information is used to detect the posture (tilt) of the head mounted display 1.

地磁気センサー133は、地磁気に基づいて方位情報を検出し、検出した方位情報を処理部123に供給する。検出した方位情報は、ヘッドマウントディスプレイ1が向いている方位の検出に用いられる。   The geomagnetic sensor 133 detects azimuth information based on geomagnetism, and supplies the detected azimuth information to the processing unit 123. The detected orientation information is used to detect the orientation in which the head mounted display 1 is facing.

角速度センサー134(ジャイロセンサー)は、角速度を検出し、検出した角速度を処理部123に供給する。検出した角速度は、ヘッドマウントディスプレイ1の回転検出に用いられる。
GPSセンサー135は、GPSを利用した測位により、ヘッドマウントディスプレイ1の緯度、経度及び高度を測定し、測定した緯度、経度及び高度を、処理部123に供給する。
The angular velocity sensor 134 (gyro sensor) detects the angular velocity and supplies the detected angular velocity to the processing unit 123. The detected angular velocity is used for detecting the rotation of the head mounted display 1.
The GPS sensor 135 measures the latitude, longitude, and altitude of the head mounted display 1 by positioning using GPS, and supplies the measured latitude, longitude, and altitude to the processing unit 123.

温湿度センサー136は、環境の温度、及び湿度を検出する。温湿度センサー136は、検出した環境の温度、及び湿度を処理部123に供給する。
レーザー発振器73は、表示パネル63に表示された画像内の所定の位置に対応するターゲット(対象物)に、レーザー光(スポット光)を照射する。
The temperature / humidity sensor 136 detects the temperature and humidity of the environment. The temperature / humidity sensor 136 supplies the detected temperature and humidity of the environment to the processing unit 123.
The laser oscillator 73 irradiates a target (object) corresponding to a predetermined position in the image displayed on the display panel 63 with laser light (spot light).

心拍数センサー137は、ユーザーの頬に当接して心拍数を検出し、検出したユーザーの心拍数を処理部123に供給する。これにより、心拍数センサー137は、ヘッドマウントディスプレイ1がユーザーに装着されているか否か、つまり、ユーザーの頭部の近傍にディスプレイ本体20が配置されているか否かを検出することができる。   The heart rate sensor 137 contacts the user's cheek to detect the heart rate, and supplies the detected user's heart rate to the processing unit 123. Thereby, the heart rate sensor 137 can detect whether or not the head mounted display 1 is worn by the user, that is, whether or not the display main body 20 is disposed in the vicinity of the user's head.

カメラ64(撮像部)は、オートフォーカス動作、及び撮像処理を実行する。カメラ64は、光学系と、撮像素子とを備える。カメラ64の光学系は、レンズ群を備える。また、光学系のレンズ群は、カメラ64の撮像素子の受光面に、被写体像(光学像)を結像させる。なお、カメラ64の光学系のレンズは、オートフォーカス動作の際、処理部123から供給される制御信号に基づいて駆動される。   The camera 64 (imaging unit) executes an autofocus operation and an imaging process. The camera 64 includes an optical system and an image sensor. The optical system of the camera 64 includes a lens group. The lens group of the optical system forms a subject image (optical image) on the light receiving surface of the image sensor of the camera 64. The lens of the optical system of the camera 64 is driven based on a control signal supplied from the processing unit 123 during the autofocus operation.

カメラ64の撮像素子は、CCDイメージセンサ(Charge Coupled Device Image Sensor)などの撮像素子である。カメラ64の撮像素子は、受光面に結像された被写体像(光学像)を、撮像処理により電気信号に変換し、さらに画像データに変換してエンコーダー129に出力する。   The imaging device of the camera 64 is an imaging device such as a CCD image sensor (Charge Coupled Device Image Sensor). The imaging element of the camera 64 converts the subject image (optical image) formed on the light receiving surface into an electrical signal by imaging processing, further converts it into image data, and outputs it to the encoder 129.

カメラ64は、比較的深い被写界深度を有し、至近から無限遠方までの範囲を、いわゆるパンフォーカスにより撮像することができる。これにより、カメラ64は、無限遠方に在る被写体の被写体像に合焦させている場合でも、至近に在るユーザーの手の画像に合焦させて、そのユーザーの手を検出することができる。   The camera 64 has a relatively deep depth of field, and can capture a range from close to infinity by so-called pan focus. Thereby, even when the camera 64 is focused on the subject image of a subject located at infinity, the camera 64 can focus on the image of the user's hand that is in the vicinity and detect the user's hand. .

撮像素子72は、その受光面に結像された被写体像(光学像)を、撮像処理により電気信号に変換し、さらに画像データに変換してエンコーダー129に出力する。   The image sensor 72 converts a subject image (optical image) formed on the light receiving surface thereof into an electrical signal by an imaging process, further converts it into image data, and outputs the image data to the encoder 129.

エンコーダー129には、カメラ64、撮像素子72、集音マイク24、通話マイク37、及び、ビデオコネクター27が接続されている。エンコーダー129は、集音マイク24及び通話マイク37から入力された各音声信号を、所定の音声方式の音声データにエンコードする。すなわち、エンコーダー129は、集音マイク24及び通話マイク37からそれぞれ入力された音声信号をエンコード(符号化)し、エンコードした音声信号を処理部123に供給する。   Connected to the encoder 129 are a camera 64, an image sensor 72, a sound collection microphone 24, a call microphone 37, and a video connector 27. The encoder 129 encodes each audio signal input from the sound collection microphone 24 and the call microphone 37 into audio data of a predetermined audio system. That is, the encoder 129 encodes the audio signals input from the sound collection microphone 24 and the call microphone 37 and supplies the encoded audio signals to the processing unit 123.

エンコーダー129は、カメラ64、撮像素子72、及びビデオコネクター27から入力された各映像信号を、所定の映像方式の映像データにエンコードする。すなわち、エンコーダー129は、カメラ64、撮像素子72、及びビデオコネクター27からそれぞれ入力された映像(画像)信号をエンコードし、エンコードした映像(画像)信号を処理部123に供給する。   The encoder 129 encodes each video signal input from the camera 64, the image sensor 72, and the video connector 27 into video data of a predetermined video format. That is, the encoder 129 encodes video (image) signals input from the camera 64, the image sensor 72, and the video connector 27, and supplies the encoded video (image) signals to the processing unit 123.

処理部123は、例えば、CPU(Central Processing Unit)である。処理部123は、ヘッドマウントディスプレイ1の各種回路(機能ブロック)に接続されるとともに、ヘッドマウントディスプレイ1を総合的に制御する。また、処理部123は、操作スイッチ30が受け付けた操作入力に基づいて動作することができる。   The processing unit 123 is, for example, a CPU (Central Processing Unit). The processing unit 123 is connected to various circuits (functional blocks) of the head mounted display 1 and comprehensively controls the head mounted display 1. The processing unit 123 can operate based on the operation input received by the operation switch 30.

処理部123は、集音マイク24及び通話マイク37等からエンコーダー129を介して供給された音声データを、フラッシュメモリー122に記憶させる。また、処理部123は、集音マイク24及び通話マイク37等からエンコーダー129を介して供給された音声データを、BT通信回路130、WiFi通信回路131、及び3G/LTE通信回路138の少なくとも一つを介して、他の機器(不図示)に送信する。また、処理部123は、フラッシュメモリー122に記憶された音声データを、BT通信回路130、WiFi通信回路131、及び3G/LTE通信回路138の少なくとも一つを介して、他の機器(不図示)に送信してもよい。   The processing unit 123 stores the audio data supplied from the sound collection microphone 24 and the call microphone 37 via the encoder 129 in the flash memory 122. Further, the processing unit 123 converts the audio data supplied from the sound collection microphone 24 and the call microphone 37 via the encoder 129 into at least one of the BT communication circuit 130, the WiFi communication circuit 131, and the 3G / LTE communication circuit 138. To other devices (not shown). Further, the processing unit 123 converts the audio data stored in the flash memory 122 into another device (not shown) via at least one of the BT communication circuit 130, the WiFi communication circuit 131, and the 3G / LTE communication circuit 138. May be sent to.

また、処理部123は、カメラ64、撮像素子72、及びビデオコネクター27の少なくとも一つから、エンコーダー129を介して供給された映像(画像)データを、フラッシュメモリー122に記憶させる。また、処理部123は、カメラ64、撮像素子72、及びビデオコネクター27の少なくとも一つから、エンコーダー129を介して供給された映像(画像)データを、デコーダー121及びLCDドライバ125を介して、表示パネル36及び表示パネル63に表示させる。また、処理部123は、フラッシュメモリー122に記憶された映像(画像)データを、デコーダー121及びLCDドライバ125を介して、表示パネル36及び表示パネル63に表示させる。   In addition, the processing unit 123 stores video (image) data supplied from at least one of the camera 64, the image sensor 72, and the video connector 27 via the encoder 129 in the flash memory 122. The processing unit 123 also displays video (image) data supplied from at least one of the camera 64, the imaging device 72, and the video connector 27 via the encoder 129 via the decoder 121 and the LCD driver 125. It is displayed on the panel 36 and the display panel 63. In addition, the processing unit 123 displays the video (image) data stored in the flash memory 122 on the display panel 36 and the display panel 63 via the decoder 121 and the LCD driver 125.

また、処理部123は、デコーダー121から出力された映像信号を、LCDドライバ125を介して、表示パネル36及び表示パネル63の少なくとも一方に供給させる。これにより、映像データが再生される。すなわち、入力された映像信号に基づく映像は、表示パネル36及び表示パネル63の少なくとも一方に表示される。また、処理部123は、デコーダー121から出力された映像信号を、ビデオコネクター27を介して外部機器(不図示)に出力させる。   In addition, the processing unit 123 supplies the video signal output from the decoder 121 to at least one of the display panel 36 and the display panel 63 via the LCD driver 125. Thereby, the video data is reproduced. That is, the video based on the input video signal is displayed on at least one of the display panel 36 and the display panel 63. In addition, the processing unit 123 causes the video signal output from the decoder 121 to be output to an external device (not shown) via the video connector 27.

また、処理部123は、カメラ64、撮像素子72、及びビデオコネクター27の少なくとも一つから、エンコーダー129を介して供給された映像(画像)データを、BT通信回路130、WiFi通信回路131、及び3G/LTE通信回路138の少なくとも一つを介して、他の機器(不図示)に送信する。   In addition, the processing unit 123 converts video (image) data supplied from at least one of the camera 64, the image sensor 72, and the video connector 27 via the encoder 129 into a BT communication circuit 130, a WiFi communication circuit 131, and The data is transmitted to another device (not shown) via at least one of the 3G / LTE communication circuit 138.

また、処理部123は、表示パネル36用のバックライト35を、必要に応じて点灯させることにより、表示パネル36に映像(画像)を表示させる。例えば、処理部123は、ディスプレイ本体20がヘッドバンド40に支持されていない場合、表示パネル36に映像(画像)を表示させる。ここで、処理部123は、BLドライバ126に制御信号を供給することにより、BLドライバ126にバックライト35を点灯させる。   The processing unit 123 causes the display panel 36 to display a video (image) by turning on the backlight 35 for the display panel 36 as necessary. For example, when the display main body 20 is not supported by the headband 40, the processing unit 123 displays a video (image) on the display panel 36. Here, the processing unit 123 supplies the control signal to the BL driver 126 to cause the BL driver 126 to turn on the backlight 35.

また、処理部123は、表示パネル63用のバックライト62を、必要に応じて点灯させることにより、表示パネル63に映像(画像)を表示させる。例えば、処理部123は、ディスプレイ本体20がヘッドバンド40に支持されている場合、表示パネル63に映像(画像)を表示させる。ここで、処理部123は、BLドライバ126に制御信号を供給することにより、BLドライバ126にバックライト62を点灯させる。   The processing unit 123 causes the display panel 63 to display a video (image) by turning on the backlight 62 for the display panel 63 as necessary. For example, when the display body 20 is supported by the headband 40, the processing unit 123 causes the display panel 63 to display a video (image). Here, the processing unit 123 supplies a control signal to the BL driver 126 to cause the BL driver 126 to turn on the backlight 62.

また、処理部123は、カメラ64により撮像された画像から、コーナーキューブ151a及びコーナーキューブ151bによる輝点(ポインティングされた位置)を検出し、検出した輝点の座標(X,Y)を算出する。また、処理部123は、表示パネル63における座標(X,Y)に、例えば、カーソル画像を表示させる。処理部123の動作については、例えば、図10を用いて後述する。   Further, the processing unit 123 detects the bright spot (pointed position) by the corner cube 151a and the corner cube 151b from the image captured by the camera 64, and calculates the coordinates (X, Y) of the detected bright spot. . Further, the processing unit 123 displays, for example, a cursor image at the coordinates (X, Y) on the display panel 63. The operation of the processing unit 123 will be described later with reference to FIG.

バイブレーター164は、いわゆるマナーモードに設定された状態で着信があった場合に、処理部123から供給された制御信号に基づいて振動する。これにより、マナーモードに設定された状態でも、着信がユーザーに通知される。   Vibrator 164 vibrates based on a control signal supplied from processing unit 123 when an incoming call is received in a state set to a so-called manner mode. Thereby, even when the manner mode is set, the user is notified of an incoming call.

デコーダー121には、LCDドライバ125、スピーカーアンプ162、ビデオコネクター27及びオーディオコネクター26が接続されている。デコーダー121は、音声データを音声信号にデコード(復号化)し、デコードした音声信号を、スピーカーアンプ162又はオーディオコネクター26に供給する。また、デコーダー121は、映像(画像)データを映像(画像)信号にデコードし、デコードした映像信号を、LCDドライバ125又はビデオコネクター27に供給する。   An LCD driver 125, a speaker amplifier 162, a video connector 27, and an audio connector 26 are connected to the decoder 121. The decoder 121 decodes the audio data into an audio signal, and supplies the decoded audio signal to the speaker amplifier 162 or the audio connector 26. The decoder 121 decodes video (image) data into a video (image) signal, and supplies the decoded video signal to the LCD driver 125 or the video connector 27.

LCDドライバ125は、例えば、液晶パネル用の駆動信号を生成する回路であり、表示パネル36及び表示パネル63に接続されている。LCDドライバ125は、処理部123からデコーダー121を介して供給された映像(画像)信号に基づいて、液晶パネル用の駆動信号を生成し、生成した液晶パネル用の駆動信号を、表示パネル36又は表示パネル63に供給する。   The LCD driver 125 is a circuit that generates a driving signal for a liquid crystal panel, for example, and is connected to the display panel 36 and the display panel 63. The LCD driver 125 generates a drive signal for the liquid crystal panel based on the video (image) signal supplied from the processing unit 123 via the decoder 121, and displays the generated drive signal for the liquid crystal panel on the display panel 36 or This is supplied to the display panel 63.

表示パネル63(表示部)は、例えば、液晶表示パネルであり、LCDドライバ125から供給される駆動信号に基づいて、映像(画像)を表示する。表示パネル63は、例えば、カメラ64によって撮像された画像、及びメニュー画面を表示する。   The display panel 63 (display unit) is, for example, a liquid crystal display panel, and displays a video (image) based on a drive signal supplied from the LCD driver 125. The display panel 63 displays, for example, an image captured by the camera 64 and a menu screen.

BLドライバ126は、例えば、バックライト用の駆動信号を生成する回路であり、バックライト35及びバックライト62に接続されている。BLドライバ126は、処理部123から供給された制御信号に基づいて、バックライト用の駆動信号を生成し、生成したバックライト用の駆動信号を、バックライト35及びバックライト62に供給する。   The BL driver 126 is a circuit that generates a drive signal for backlight, for example, and is connected to the backlight 35 and the backlight 62. The BL driver 126 generates a backlight drive signal based on the control signal supplied from the processing unit 123, and supplies the generated backlight drive signal to the backlight 35 and the backlight 62.

スピーカーアンプ162は、デコーダー121を介して供給された音声信号を増幅し、増幅した音声信号を、耳元スピーカー23及び前方スピーカー70に供給する。ここで、スピーカーアンプ162は、デコーダー121を介して供給された左右の音声信号を合成し、合成した結果としてのモノラル音声信号を、耳元スピーカー23及び前方スピーカー70に供給する。   The speaker amplifier 162 amplifies the audio signal supplied via the decoder 121 and supplies the amplified audio signal to the ear speaker 23 and the front speaker 70. Here, the speaker amplifier 162 synthesizes the left and right audio signals supplied via the decoder 121, and supplies a monaural audio signal as a result of the synthesis to the ear speaker 23 and the front speaker 70.

耳元スピーカー23は、左右の音声信号が合成されたモノラル音声を出力する。
前方スピーカー70は、左右の音声信号が合成されたモノラル音声を出力する。
The ear speaker 23 outputs monaural sound in which left and right sound signals are synthesized.
The front speaker 70 outputs monaural sound in which left and right audio signals are synthesized.

BT通信回路130は、他の機器とのBluetooth(登録商標)通信を行うための通信回路である。
WiFi通信回路131は、他の機器との無線LAN通信(IEEE 802.11)を行うための通信回路である。
3G/LTE通信回路138は、他の機器との移動通信を行うための通信回路である。
BT通信回路130、WiFi通信回路131、及び3G/LTE通信回路138は、他の機器との間で、音声データ及び映像(画像)データなどの情報の送受信を実行する。
The BT communication circuit 130 is a communication circuit for performing Bluetooth (registered trademark) communication with other devices.
The WiFi communication circuit 131 is a communication circuit for performing wireless LAN communication (IEEE 802.11) with other devices.
The 3G / LTE communication circuit 138 is a communication circuit for performing mobile communication with other devices.
The BT communication circuit 130, the WiFi communication circuit 131, and the 3G / LTE communication circuit 138 perform transmission / reception of information such as audio data and video (image) data with other devices.

次に、ヘッドマウントディスプレイの動作手順を説明する。
図10は、ヘッドマウントディスプレイの動作手順を示すフローチャートである。
以下、第1実施形態では、ユーザーがインジケータースイッチ150aを操作した場合、インジケーター143は、青色でパターン発光するものとする。また、ユーザーがインジケータースイッチ150bを操作した場合、インジケーター143は、赤色でパターン発光するものとする。
Next, the operation procedure of the head mounted display will be described.
FIG. 10 is a flowchart showing an operation procedure of the head mounted display.
Hereinafter, in the first embodiment, it is assumed that when the user operates the indicator switch 150a, the indicator 143 emits pattern light in blue. When the user operates the indicator switch 150b, the indicator 143 emits a pattern light in red.

(ステップS1)処理部123は、前方ライト68を点灯させる。
(ステップS2)前方ライト68からコーナーキューブ151aに入射された光は、コーナーキューブ151aにより180[度]折返される。カメラ64は、コーナーキューブ151aにより180[度]折返された光を撮像する。コーナーキューブ151bについても同様である。処理部123は、カメラ64により撮像されたリモコン140の画像P1を取り込む。
(Step S1) The processing unit 123 turns on the front light 68.
(Step S2) The light incident on the corner cube 151a from the front light 68 is turned back 180 [deg.] By the corner cube 151a. The camera 64 images the light that is turned 180 [deg.] By the corner cube 151a. The same applies to the corner cube 151b. The processing unit 123 captures the image P1 of the remote controller 140 captured by the camera 64.

(ステップS3)処理部123は、前方ライト68を消灯させる。
(ステップS4)処理部123は、カメラ64により撮像されたリモコン140の画像P2を取り込む。なお、ステップS2からステップS4までの時間は、充分に短い時間(例えば、1/30[秒])であるものとする。この場合、画像P1及び画像P2の画像としての差分は、コーナーキューブ151a及びコーナーキューブ151bが点灯しているか否かという差分が支配的であり、その他の差分は無視することができる。
(Step S3) The processing unit 123 turns off the front light 68.
(Step S <b> 4) The processing unit 123 captures the image P <b> 2 of the remote control 140 captured by the camera 64. It is assumed that the time from step S2 to step S4 is a sufficiently short time (for example, 1/30 [second]). In this case, the difference between the image P1 and the image P2 as the image is dominant because of whether or not the corner cube 151a and the corner cube 151b are lit, and other differences can be ignored.

(ステップS5)処理部123は、画像P1から画像P2を減算することにより、画像P1及び画像P2の差分画像を生成する。コーナーキューブ151a及びコーナーキューブ151bがカメラ64により撮像されている場合、この差分画像には、コーナーキューブ151a及びコーナーキューブ151bによる輝点のみが検出されることになる。   (Step S5) The processing unit 123 generates a difference image between the image P1 and the image P2 by subtracting the image P2 from the image P1. When the corner cube 151a and the corner cube 151b are picked up by the camera 64, only the bright spots by the corner cube 151a and the corner cube 151b are detected in this difference image.

(ステップS6)処理部123は、撮像されたリモコン140の画像に、コーナーキューブ151a及びコーナーキューブ151bが撮像されているか否か、すなわち、差分画像に輝点があるか否かを判定する。ここで、処理部123は、例えば、画像P1に検出された輝度と、画像P2に検出された輝度との輝度差(例えば、最大差)が、予め定められた輝度差(例えば、256段階のうち50)以上ある場合に、その輝度差を有する画素の集合を輝点と判定する。差分画像に輝点がある場合(ステップS6:Yes)、処理部123は、ステップS7に処理を進める。一方、差分画像に輝点がない場合(ステップS6:No)、処理部123は、ステップS1に処理を戻す。   (Step S6) The processing unit 123 determines whether or not the corner cube 151a and the corner cube 151b are captured in the captured image of the remote controller 140, that is, whether or not there is a bright spot in the difference image. Here, for example, the processing unit 123 determines that the luminance difference (for example, the maximum difference) between the luminance detected in the image P1 and the luminance detected in the image P2 is a predetermined luminance difference (for example, 256 levels). If there are 50) or more, a set of pixels having the luminance difference is determined as a bright spot. When there is a bright spot in the difference image (step S6: Yes), the processing unit 123 proceeds with the process to step S7. On the other hand, when there is no bright spot in the difference image (step S6: No), the processing unit 123 returns the process to step S1.

このように、処理部123は、前方ライト68を短時間に点滅させることで、輝度差のある被写体を認識することができる。また、処理部123は、特定の画像パターンに基づいて画像を認識(画像マッチング)する場合と比較して、短時間で容易に、輝度差のある被写体を認識することができる。したがって、処理部123は必ずしも高性能である必要がない(小型及び省電力でよい)というメリットがある。   In this way, the processing unit 123 can recognize a subject having a luminance difference by blinking the front light 68 in a short time. Further, the processing unit 123 can easily recognize a subject having a luminance difference in a short time as compared with a case where an image is recognized (image matching) based on a specific image pattern. Therefore, there is an advantage that the processing unit 123 is not necessarily required to have high performance (small size and power saving are sufficient).

(ステップS7)処理部123は、差分画像における輝点の座標(X,Y)を検出する。
(ステップS8)処理部123は、表示パネル63における座標(X,Y)に、カーソル画像を表示させる。
(Step S7) The processing unit 123 detects the coordinates (X, Y) of the bright spot in the difference image.
(Step S <b> 8) The processing unit 123 displays a cursor image at coordinates (X, Y) on the display panel 63.

図11は、表示パネルに表示された画像の例を示す図である。表示パネル63に表示されたメニュー画面330cには、アイコン画像311から319と、カーソル画像320とが含まれている。ユーザーは、リモコン140(図6を参照)を手に持って移動させることで、カーソル画像320を移動させることができる。また、ユーザーは、インジケータースイッチ150a又はインジケータースイッチ150bを操作することにより、アイコン画像を選択し、その選択したアイコン画像に対応する各種機能を呼び出すことができる。   FIG. 11 is a diagram illustrating an example of an image displayed on the display panel. The menu screen 330 c displayed on the display panel 63 includes icon images 311 to 319 and a cursor image 320. The user can move the cursor image 320 by holding and moving the remote control 140 (see FIG. 6). Further, the user can select an icon image by operating the indicator switch 150a or the indicator switch 150b, and can call various functions corresponding to the selected icon image.

なお、ユーザーは、操作スイッチ30(図2を参照)を操作してカーソル画像320を移動させ、アイコン画像を選択することにより、その選択したアイコン画像に対応する各種機能を呼び出してもよい。   Note that the user may call various functions corresponding to the selected icon image by operating the operation switch 30 (see FIG. 2) to move the cursor image 320 and selecting the icon image.

図10に戻り、ヘッドマウントディスプレイの動作手順の説明を続ける。
(ステップS9)処理部123は、差分画像における座標(X,Y)の近傍に、青色でパターン発光(点滅)しているインジケーター143(図6を参照)が撮像されているか否かを判定する。青色でパターン発光しているインジケーター143が撮像されている場合(ステップS9:Yes)、処理部123は、ステップS10に処理を進める。一方、青色でパターン発光しているインジケーター143が撮像されていない場合(ステップS9:No)、処理部123は、ステップS11に処理を進める。
Returning to FIG. 10, the description of the operation procedure of the head mounted display will be continued.
(Step S <b> 9) The processing unit 123 determines whether or not the indicator 143 (see FIG. 6) that emits a blue pattern (flashes) is captured in the vicinity of the coordinates (X, Y) in the difference image. . When the indicator 143 emitting the pattern light in blue is imaged (step S9: Yes), the processing unit 123 proceeds with the process to step S10. On the other hand, when the indicator 143 emitting the pattern light in blue is not imaged (step S9: No), the processing unit 123 advances the processing to step S11.

(ステップS10)処理部123は、ユーザーがインジケータースイッチ150aを操作した、すなわち、ユーザーがマウス操作の左クリックに相当する操作をしたと判定し、左クリックに予め対応づけられた処理を実行する。 (Step S10) The processing unit 123 determines that the user has operated the indicator switch 150a, that is, the user has performed an operation corresponding to the left click of the mouse operation, and executes a process associated with the left click in advance.

(ステップS11)処理部123は、差分画像における座標(X,Y)の近傍に、赤色でパターン発光(点滅)しているインジケーター143(図6を参照)が撮像されているか否かを判定する。 (Step S <b> 11) The processing unit 123 determines whether or not the indicator 143 (see FIG. 6) that emits a red pattern (see blinking) is captured in the vicinity of the coordinates (X, Y) in the difference image. .

赤色でパターン発光しているインジケーター143が撮像されている場合(ステップS11:Yes)、処理部123は、ステップS12に処理を進める。一方、赤色でパターン発光しているインジケーター143が撮像されていない場合(ステップS11:No)、処理部123は、ステップS13に処理を進める。   When the indicator 143 emitting pattern light in red is imaged (step S11: Yes), the processing unit 123 advances the processing to step S12. On the other hand, when the indicator 143 emitting the pattern light in red is not imaged (step S11: No), the processing unit 123 advances the process to step S13.

(ステップS12)処理部123は、ユーザーがインジケータースイッチ150bを操作した、すなわち、ユーザーがマウス操作の右クリックに相当する操作をしたと判定し、右クリックに予め対応づけられた処理を実行する。 (Step S12) The processing unit 123 determines that the user has operated the indicator switch 150b, that is, the user has performed an operation corresponding to the right click of the mouse operation, and executes a process associated with the right click in advance.

(ステップS13)処理部123は、ユーザーがメインスイッチ28(図1を参照)を操作したか否か、すなわち、電源オフが指示されたか否かを判定する。電源オフが指示された場合(ステップS13:Yes)、処理部123は、全てのシーケンスを終了する。一方、電源オフが指示されていない場合(ステップS13:No)、処理部123は、ステップS1に処理を戻す。 (Step S13) The processing unit 123 determines whether or not the user has operated the main switch 28 (see FIG. 1), that is, whether or not power-off has been instructed. When power-off is instructed (step S13: Yes), the processing unit 123 ends all sequences. On the other hand, when the power-off is not instructed (step S13: No), the processing unit 123 returns the process to step S1.

以上のように、情報入出力装置(ヘッドマウントディスプレイ1)は、点灯又は消灯する前方ライト68と、前方ライト68から入射された光を、入射方向に折り返すコーナーキューブ151a〜151bを有するリモコン140と、前方ライト68の近傍(予め定められた距離内)からリモコン140を撮像することにより、コーナーキューブ151a〜151bにより折り返された光を撮像するカメラ64と(図7を参照)、前記折り返された光が撮像された画像に基づいて、リモコン140の位置を検出する処理部123と、を備える。
この構成により、リモコン140は、前方ライト68から入射された光を、入射方向に折り返すコーナーキューブ151a〜151bを有する。これにより、情報入出力装置は、小型になる。
As described above, the information input / output device (head mounted display 1) includes the front light 68 that is turned on or off, and the remote controller 140 that includes the corner cubes 151a to 151b that fold light incident from the front light 68 in the incident direction. The camera 64 for imaging the light reflected by the corner cubes 151a to 151b by imaging the remote controller 140 from the vicinity of the front light 68 (within a predetermined distance) (see FIG. 7), and the folded And a processing unit 123 that detects the position of the remote controller 140 based on an image obtained by imaging light.
With this configuration, the remote controller 140 includes corner cubes 151a to 151b that fold light incident from the front light 68 in the incident direction. As a result, the information input / output device is reduced in size.

また、情報入出力装置は、リモコン140を発光させることなく、ディスプレイ本体20の前方ライト68を発光させることにより、ポインティングデバイスとしてのリモコン140の位置を検出するので、リモコン140を小型、省電力、及びワイヤレスにすることができる。また、情報入出力装置は、ポインティングデバイスとしてのリモコン140の位置を、高い精度で検出することができる。   Further, the information input / output device detects the position of the remote controller 140 as a pointing device by causing the front light 68 of the display body 20 to emit light without causing the remote controller 140 to emit light. And can be wireless. In addition, the information input / output device can detect the position of the remote controller 140 as a pointing device with high accuracy.

また、カメラ64は、前方ライト68が点灯した状態と、前方ライト68が消灯した状態とで、リモコン140を撮像し、処理部123は、前方ライト68が点灯した状態で撮像された画像と、前方ライト68が消灯した状態で撮像された画像と、の差分画像を生成し、前記差分画像に撮像されたコーナーキューブ151a〜151bによる輝点に基づいて、リモコン140の位置を検出する。
この構成により、処理部123は、前方ライト68が点灯した状態で撮像された画像と、前方ライト68が消灯した状態で撮像された画像と、の差分画像を生成する。これにより、情報入出力装置は、前記差分画像に撮像されたコーナーキューブ151a〜151bによる輝点に基づいて、ポインティングデバイスとしてのリモコン140の位置を、高い精度で検出することができる。
The camera 64 images the remote controller 140 when the front light 68 is turned on and when the front light 68 is turned off, and the processing unit 123 captures an image captured when the front light 68 is turned on, A difference image between the image captured with the front light 68 turned off is generated, and the position of the remote controller 140 is detected based on the bright spots of the corner cubes 151a to 151b captured in the difference image.
With this configuration, the processing unit 123 generates a difference image between an image captured with the front light 68 on and an image captured with the front light 68 off. Thereby, the information input / output device can detect the position of the remote controller 140 as the pointing device with high accuracy based on the bright spots by the corner cubes 151a to 151b captured in the difference image.

また、リモコン140は、異なる色(例えば、赤、緑、青)で発光するインジケーター143を有し、カメラ64は、インジケーター143を撮像し、処理部123は、カメラ64により撮像されたインジケーター143の色を検出し、検出した色に対応付けられた処理(例えば、左クリックに対応付けられた処理)を実行する。
この構成により、情報入出力装置は、右クリック及び左クリックなど発生頻度が低い操作についてのみ、インジケーター143を発光させればよい。これにより、情報入出力装置は、ポインティングデバイスとしてのリモコン140の消費電力を抑えることができる。
また、前方ライト68は、点灯した際、可視光及び赤外光の少なくとも一方を射出する。
The remote controller 140 has an indicator 143 that emits light of different colors (for example, red, green, and blue), the camera 64 captures the indicator 143, and the processing unit 123 captures the indicator 143 captured by the camera 64. A color is detected, and a process associated with the detected color (for example, a process associated with a left click) is executed.
With this configuration, the information input / output device only needs to cause the indicator 143 to emit light only for operations with low occurrence frequency such as right click and left click. Thereby, the information input / output device can suppress the power consumption of the remote controller 140 as a pointing device.
The front light 68 emits at least one of visible light and infrared light when turned on.

また、情報入出力装置は、画像を表示する表示パネル63を備え、処理部123は、リモコン140の位置に応じて、表示パネル63に画像(例えば、カーソル画像320)を表示させる(図11を参照)。
この構成により、情報入出力装置は、ポインティングデバイスとしてのリモコン140により反射された光に基づいて、リモコン140の位置を把握する。これにより、情報入出力装置は、カーソル画像320の座標を所定周期で更新する場合でも、リモコン140の消費電力を抑えることができる。
Further, the information input / output device includes a display panel 63 that displays an image, and the processing unit 123 displays an image (for example, a cursor image 320) on the display panel 63 according to the position of the remote controller 140 (see FIG. 11). reference).
With this configuration, the information input / output device grasps the position of the remote controller 140 based on the light reflected by the remote controller 140 as a pointing device. Thereby, the information input / output device can suppress the power consumption of the remote controller 140 even when the coordinates of the cursor image 320 are updated at a predetermined cycle.

また、情報入出力プログラムは、コンピュータに、入射された光を入射方向に折り返すコーナーキューブ151a〜151bを有するリモコン140を撮像することにより、コーナーキューブ151a〜151bにより折り返された光を撮像する手順と、前記折り返された光が撮像された画像に基づいて、リモコン140の位置を検出する手順と、を実行させる。   The information input / output program captures the light reflected by the corner cubes 151a to 151b by imaging the remote controller 140 having the corner cubes 151a to 151b that folds the incident light in the incident direction on the computer. And a procedure for detecting the position of the remote controller 140 based on an image obtained by imaging the folded light.

なお、リモコン140の先端部には、タッチスイッチ(不図示)が備えられてもよい。このタッチスイッチが机などに接触した際、インジケーター143は、青色でパターン発光してもよい。また、リモコン140には、加速度センサー(不図示)が備えられてもよい。この加速度センサーが所定以上の加速度変化を検出した際、インジケーター143は、青色でパターン発光してもよい。   Note that a touch switch (not shown) may be provided at the tip of the remote controller 140. When the touch switch comes into contact with a desk or the like, the indicator 143 may emit a pattern light in blue. Further, the remote control 140 may be provided with an acceleration sensor (not shown). When this acceleration sensor detects a change in acceleration of a predetermined value or more, the indicator 143 may emit a pattern light in blue.

また、リモコン140は、電源及び回路と、コーナーキューブ151a及び151bに液晶シャッターとを備えてもよい。この液晶シャッターのオンオフによる、コーナーキューブ151a及び151bのパターン発光(採光又は遮光)は、インジケーター143のパターン発光の代わりになる。   The remote controller 140 may include a power source and a circuit, and liquid crystal shutters in the corner cubes 151a and 151b. The pattern light emission (lighting or shading) of the corner cubes 151a and 151b by the on / off of the liquid crystal shutter replaces the pattern light emission of the indicator 143.

また、リモコン140の無線通信回路(不図示)は、インジケータースイッチ150aが操作された際、インジケータースイッチ150aが操作されたことを示す信号を、WiFi通信回路131(図9を参照)又はBT通信回路130に無線送信してもよい。インジケータースイッチ150bについても同様である。   In addition, when the indicator switch 150a is operated, a wireless communication circuit (not shown) of the remote controller 140 sends a signal indicating that the indicator switch 150a is operated to a WiFi communication circuit 131 (see FIG. 9) or a BT communication circuit. 130 may be wirelessly transmitted. The same applies to the indicator switch 150b.

また、前方ライト68(図4を参照)から射出される光は、可視光でなくても、例えば、赤外光(赤外線)でもよい。また、ユーザーの手に持って使用されるリモコン140から、前方ライト68までの距離が、最大でも1[m]程度であるため、前方ライト68から射出される光は、強い光である必要はない。   Further, the light emitted from the front light 68 (see FIG. 4) may not be visible light, but may be infrared light (infrared light), for example. Further, since the distance from the remote controller 140 used in the user's hand to the front light 68 is about 1 [m] at the maximum, the light emitted from the front light 68 needs to be strong light. Absent.

[第2実施形態]
第2実施形態では、リモコンに電源及び回路が不要である点が、第1実施形態と相違する。以下では、第1実施形態との相違点についてのみ説明する。
[Second Embodiment]
The second embodiment is different from the first embodiment in that a power source and a circuit are not required for the remote controller. Only the differences from the first embodiment will be described below.

図12は、ポインティングデバイスとしてのリモコンの斜視図である。リモコン160は、円筒状フード161と、ノブ164と、コーナーキューブ163と、ラッチ機構(不図示)と、バネ(不図示)とを備える。コーナーキューブ163は、円筒状フード161の内部に、スライド可能に備えられる。また、コーナーキューブ163は、ほぼ全方向の入射光をその入射方向に折り返すことができるように、立方体の6面の各々に配置されている。   FIG. 12 is a perspective view of a remote controller as a pointing device. The remote controller 160 includes a cylindrical hood 161, a knob 164, a corner cube 163, a latch mechanism (not shown), and a spring (not shown). The corner cube 163 is slidably provided inside the cylindrical hood 161. The corner cube 163 is arranged on each of the six surfaces of the cube so that incident light in almost all directions can be folded back in the incident direction.

図12(A)には、コーナーキューブ163が円筒状フード161から露出している形態が示されている。ノブ164がユーザーにより軸方向に押し込まれた場合、コーナーキューブ163は、軸の先端方向にスライドして、円筒状フード161から露出する。一方、図12(B)には、コーナーキューブ163が円筒状フード161に収納されている形態が示されている。ノブ164がユーザーにより軸方向に再度押し込まれた場合、コーナーキューブ163は、円筒状フード161の内部のラッチ機構(不図示)及びバネ機構(不図示)により、軸の基端方向にスライドして、円筒状フード161に収納される。   FIG. 12A shows a form in which the corner cube 163 is exposed from the cylindrical hood 161. When the knob 164 is pushed in the axial direction by the user, the corner cube 163 slides in the tip direction of the shaft and is exposed from the cylindrical hood 161. On the other hand, FIG. 12B shows a form in which the corner cube 163 is stored in the cylindrical hood 161. When the knob 164 is pushed again in the axial direction by the user, the corner cube 163 slides in the proximal direction of the shaft by a latch mechanism (not shown) and a spring mechanism (not shown) inside the cylindrical hood 161. The cylindrical hood 161 is housed.

次に、ヘッドマウントディスプレイの動作手順を説明する。
図13は、ヘッドマウントディスプレイの動作手順を示すフローチャートである。以下、リモコン160は、初期状態では、コーナーキューブ163が円筒状フード161から露出している形態(図12(A)を参照)で使用されているものとして説明を続ける。
Next, the operation procedure of the head mounted display will be described.
FIG. 13 is a flowchart showing an operation procedure of the head mounted display. Hereinafter, description will be continued assuming that the remote controller 160 is used in a form in which the corner cube 163 is exposed from the cylindrical hood 161 in the initial state (see FIG. 12A).

ステップSa1〜Sa7は、図10に示したフローチャートのステップS1〜S7と同様である。図13では、ステップSa6において、差分画像の座標(X,Y)に輝点が検出されたものとして説明を続ける。
(ステップSa8)処理部123は、表示パネル63における座標(X,Y)に、カーソル画像を表示させる(図11を参照)。
(ステップSa9)処理部123は、ステップSa1〜Sa7と同様に処理を実行する。
Steps Sa1 to Sa7 are the same as steps S1 to S7 in the flowchart shown in FIG. In FIG. 13, the description will be continued assuming that a bright spot is detected at the coordinates (X, Y) of the difference image in step Sa6.
(Step Sa8) The processing unit 123 displays a cursor image at coordinates (X, Y) on the display panel 63 (see FIG. 11).
(Step Sa9) The processing unit 123 executes the process in the same manner as steps Sa1 to Sa7.

(ステップSa10)処理部123は、撮像されたリモコン160の画像に、コーナーキューブ163が撮像されているか否か、すなわち、差分画像に輝点があるか否かを判定する。差分画像に輝点がある場合(ステップSa10:Yes)、処理部123は、ステップSa8に処理を戻す。一方、差分画像に輝点がない場合(ステップSa10:Yes)、処理部123は、ステップa11に処理を進める。ここで、差分画像に輝点がない場合とは、例えば、ユーザーによりノブ164が軸方向に再度押し込まれたことでラッチ機構(不図示)が外れ、バネ機構(不図示)によりコーナーキューブ163が円筒状フード161に収納された場合である(図12(B)を参照)。   (Step Sa10) The processing unit 123 determines whether or not the corner cube 163 is captured in the captured image of the remote controller 160, that is, whether or not there is a bright spot in the difference image. When there is a bright spot in the difference image (step Sa10: Yes), the processing unit 123 returns the process to step Sa8. On the other hand, when there is no bright spot in the difference image (step Sa10: Yes), the processing unit 123 proceeds with the process to step a11. Here, the case where there is no bright spot in the difference image is, for example, that the latch mechanism (not shown) is released when the knob 164 is pushed again in the axial direction by the user, and the corner cube 163 is released by the spring mechanism (not shown). This is a case where it is housed in a cylindrical hood 161 (see FIG. 12B).

(ステップSa11)処理部123は、ステップSa1〜Sa7と同様に処理を実行する。
(ステップSa12)処理部123は、差分画像の座標(X,Y)の近傍に輝点があるか否か、すなわち、差分画像の座標(X,Y)の近傍にコーナーキューブ163が撮像されているか否かを判定する。差分画像に輝点がある場合(ステップSa12:Yes)、処理部123は、ステップSa1に処理を戻す。ここで、差分画像に輝点がある場合とは、例えば、ノブ164がユーザーにより軸方向に再度押し込まれたことにより、コーナーキューブ163が円筒状フード161から露出した場合である(図12(A)を参照)。一方、差分画像に輝点がない場合(ステップSa12:Yes)、処理部123は、ステップa13に処理を進める。
(Step Sa11) The processing unit 123 executes the process in the same manner as steps Sa1 to Sa7.
(Step Sa12) The processing unit 123 determines whether or not there is a bright spot near the coordinates (X, Y) of the difference image, that is, the corner cube 163 is imaged near the coordinates (X, Y) of the difference image. It is determined whether or not. When there is a bright spot in the difference image (step Sa12: Yes), the processing unit 123 returns the process to step Sa1. Here, the case where the difference image has a bright spot is, for example, a case where the corner cube 163 is exposed from the cylindrical hood 161 when the knob 164 is pushed in again in the axial direction by the user (FIG. 12A). )). On the other hand, when there is no bright spot in the difference image (step Sa12: Yes), the processing unit 123 proceeds with the process to step a13.

(ステップSa13)処理部123は、ステップSa9〜ステップSa12における輝点の消失及び再検出を以って、ユーザーによるノブ164の軸方向への操作、すなわち、ユーザーがマウス操作の左クリックに相当する操作をしたと判定し、左クリックに予め対応づけられた処理を実行する。
(ステップSa14)処理部123は、ユーザーがメインスイッチ28(図1を参照)を操作したか否か、すなわち、電源オフが指示されたか否かを判定する。電源オフが指示された場合(ステップSa14:Yes)、処理部123は、全てのシーケンスを終了する。一方、電源オフが指示されていない場合(ステップSa14:No)、処理部123は、ステップSa1に処理を戻す。
(Step Sa13) The processing unit 123 corresponds to the user's operation in the axial direction of the knob 164 by the disappearance and redetection of the bright spot in steps Sa9 to Sa12, that is, the user performs a left click of the mouse operation. It is determined that an operation has been performed, and a process associated with the left click is executed in advance.
(Step Sa14) The processing unit 123 determines whether or not the user has operated the main switch 28 (see FIG. 1), that is, whether or not power-off has been instructed. When the power-off is instructed (step Sa14: Yes), the processing unit 123 ends all sequences. On the other hand, when power-off is not instructed (step Sa14: No), the processing unit 123 returns the process to step Sa1.

以上のように、情報入出力装置(ヘッドマウントディスプレイ1)は、点灯又は消灯する前方ライト68と、前方ライト68から入射された光を、入射方向に折り返すコーナーキューブ163を有するリモコン160と、前方ライト68の近傍からリモコン140を撮像することにより、コーナーキューブ163により反射された光を撮像するカメラ64と、前記反射された光が撮像された画像に基づいて、リモコン160の位置を検出する処理部123と、を備える。
また、処理部123は、円筒状フード161とコーナーキューブ163との相対的な変位によるコーナーキューブ163の反射状態の切り替わりを検出することで、リモコン160への操作(例えば、左クリックに相当する操作)を検出してもよい。
この構成により、リモコン160は、前方ライト68から入射された光を、入射方向に折り返すコーナーキューブ163を有する。ここで、リモコン160に電源や回路は不要である。これにより、情報入出力装置は、小型になる。また、情報入出力装置は、カーソル画像の表示制御、及び、左クリックに相当する操作を、簡単な構成で実行することができる。
As described above, the information input / output device (head-mounted display 1) includes the front light 68 that is turned on or off, the remote controller 160 that includes the corner cube 163 that turns back the light incident from the front light 68 in the incident direction, By processing the remote controller 140 from the vicinity of the light 68, the camera 64 that captures the light reflected by the corner cube 163, and the process of detecting the position of the remote controller 160 based on the image obtained by capturing the reflected light Unit 123.
Further, the processing unit 123 detects an operation on the remote controller 160 (for example, an operation corresponding to a left click by detecting a change in the reflection state of the corner cube 163 due to a relative displacement between the cylindrical hood 161 and the corner cube 163. ) May be detected.
With this configuration, the remote controller 160 has the corner cube 163 that turns back the light incident from the front light 68 in the incident direction. Here, no power source or circuit is required for the remote controller 160. As a result, the information input / output device is reduced in size. Further, the information input / output device can execute the display control of the cursor image and the operation corresponding to the left click with a simple configuration.

なお、リモコン160には、電源及び回路と、コーナーキューブ163を覆うように設けられた液晶シャッターとが備えられてもよい。この液晶シャッターのオンオフによる、コーナーキューブ163のパターン発光(採光又は遮光)は、コーナーキューブ163を露出又は収納させる代わりとなる。   Note that the remote controller 160 may include a power source and a circuit, and a liquid crystal shutter provided so as to cover the corner cube 163. The pattern light emission (lighting or shading) of the corner cube 163 by turning on and off the liquid crystal shutter is an alternative to exposing or storing the corner cube 163.

[第3実施形態]
第3実施形態では、光量の少ない暗い環境でヘッドマウントディスプレイ1が使用される点が、第1実施形態及び第2実施形態と相違する。以下では、第1実施形態及び第2実施形態との相違点についてのみ説明する。
[Third Embodiment]
The third embodiment differs from the first and second embodiments in that the head mounted display 1 is used in a dark environment with a small amount of light. Hereinafter, only differences from the first embodiment and the second embodiment will be described.

光量の少ない暗い環境では、カメラ64により撮像された画像P2(例えば、図10のステップS4)が、低輝度になってしまう場合がある。この場合、前方ライト68が点灯された状態でカメラ64により撮像された画像P1(例えば、図10のステップS2)と、低輝度になってしまった画像P2とは、差分画像における多くの画素で所定以上の輝度差(例えば、256段階のうち150以上)になるので、コーナーキューブ151a及びコーナーキューブ151bによる輝点は、差分画像に検出され難い。   In a dark environment with a small amount of light, the image P2 (for example, step S4 in FIG. 10) captured by the camera 64 may have low luminance. In this case, the image P1 (for example, step S2 in FIG. 10) captured by the camera 64 with the front light 68 turned on and the image P2 that has become low luminance are many pixels in the difference image. Since the brightness difference exceeds a predetermined value (for example, 150 or more out of 256 steps), the bright spot due to the corner cube 151a and the corner cube 151b is difficult to be detected in the difference image.

以下では、リモコン140(図6を参照)又はリモコン160(図12を参照)のうち、一例として、リモコン140を用いて説明を続ける。リモコン140は、BT通信回路(不図示)を更に備える。このBT通信回路は、パターン発光(点滅)させるための信号を、BT通信回路130(図9を参照)から受信する。リモコン処理部(不図示)は、パターン発光させるための信号に基づくタイミングパターンに応じて、インジケーター143を緑色でパターン発光させる。   Hereinafter, description will be continued using the remote controller 140 as an example of the remote controller 140 (see FIG. 6) or the remote controller 160 (see FIG. 12). The remote controller 140 further includes a BT communication circuit (not shown). The BT communication circuit receives a signal for pattern emission (flashing) from the BT communication circuit 130 (see FIG. 9). A remote control processing unit (not shown) causes the indicator 143 to emit a pattern in green according to a timing pattern based on a signal for pattern emission.

図14は、ヘッドマウントディスプレイの動作手順を示すフローチャートである。
(ステップSb1)処理部123は、カメラ64(図4を参照)により撮像された画像の輝度に基づいて、ヘッドマウントディスプレイ1(図1を参照)の周囲環境の明るさ(光量)を測定する。処理部123は、撮像された画像の輝度が所定の輝度以上であるか否か、すなわち、ヘッドマウントディスプレイ1の周囲環境が明るいか否かを判定する。画像の輝度が所定の輝度以上である場合(ステップSb1:Yes)、処理部123は、ステップSb2に処理を進める。一方、画像の輝度が所定の輝度未満である場合(ステップSb1:No)、処理部123は、ステップSb15に処理を進める。
FIG. 14 is a flowchart showing an operation procedure of the head mounted display.
(Step Sb1) The processing unit 123 measures the brightness (light quantity) of the surrounding environment of the head mounted display 1 (see FIG. 1) based on the luminance of the image captured by the camera 64 (see FIG. 4). . The processing unit 123 determines whether the brightness of the captured image is equal to or higher than a predetermined brightness, that is, whether the surrounding environment of the head mounted display 1 is bright. When the luminance of the image is equal to or higher than the predetermined luminance (step Sb1: Yes), the processing unit 123 proceeds with the process to step Sb2. On the other hand, when the luminance of the image is less than the predetermined luminance (step Sb1: No), the processing unit 123 advances the processing to step Sb15.

ステップSb2〜Sb14は、図10に示したフローチャートのステップS1〜S13と同様である。
(ステップSb15)処理部123は、パターン発光させるための信号を、BT通信回路130を介して、リモコン140に送信する。リモコン140のBT通信回路(不図示)は、パターン発光させるための信号を、ディスプレイ本体20のBT通信回路130から受信する。リモコン処理部(不図示)は、パターン発光させるための信号に基づくタイミングパターン(例えば、30[Hz]の点滅)に応じて、インジケーター143を緑色でパターン発光させる。パターン発光することにより、インジケーター143は、単に発光する場合と比較して、その位置が検出され易くなる。
Steps Sb2 to Sb14 are the same as steps S1 to S13 in the flowchart shown in FIG.
(Step Sb15) The processing unit 123 transmits a signal for pattern emission to the remote controller 140 via the BT communication circuit 130. A BT communication circuit (not shown) of the remote controller 140 receives a signal for causing pattern emission from the BT communication circuit 130 of the display body 20. A remote control processing unit (not shown) causes the indicator 143 to emit a pattern light in green according to a timing pattern (for example, blinking of 30 [Hz]) based on a signal for pattern emission. By emitting the pattern, the position of the indicator 143 can be easily detected as compared with the case where the indicator 143 simply emits light.

(ステップSb16)処理部123は、カメラ64により撮像されたリモコン140の画像P1を取り込む。
(ステップSb17)カメラ64は、画像P1が撮像されてから所定時間(例えば、1/60[秒])が経過した後に、リモコン140を撮像する。処理部123は、この撮像されたリモコン140の画像P2を取り込む。
(ステップSb18)処理部123は、画像P1から画像P2を減算することにより、画像P1及び画像P2の差分画像を生成する。
(Step Sb16) The processing unit 123 captures the image P1 of the remote control 140 captured by the camera 64.
(Step Sb17) The camera 64 images the remote controller 140 after a predetermined time (for example, 1/60 [second]) has elapsed since the image P1 was captured. The processing unit 123 captures the captured image P2 of the remote control 140.
(Step Sb18) The processing unit 123 generates a difference image between the image P1 and the image P2 by subtracting the image P2 from the image P1.

(ステップSb19)処理部123は、撮像されたリモコン140の画像に、インジケーター143による緑色のパターン発光が撮像されているか否か、すなわち、差分画像に輝点があるか否かを判定する。ここで、処理部123は、例えば、画像P1及び画像P2の輝度差(例えば、最大差)が、予め定められた輝度差(例えば、256段階のうち150)以上ある場合に、その輝度差を有する画素を輝点と判定する。差分画像に輝点がある場合(ステップSb19:Yes)、処理部123は、ステップSb20に処理を進める。一方、差分画像に輝点がない場合(ステップSb19:No)、処理部123は、ステップSb1に処理を戻す。   (Step Sb19) The processing unit 123 determines whether or not the captured image of the remote controller 140 captures green pattern light emission by the indicator 143, that is, whether or not there is a bright spot in the difference image. Here, for example, when the luminance difference (for example, the maximum difference) between the images P1 and P2 is greater than or equal to a predetermined luminance difference (for example, 150 out of 256 steps), the processing unit 123 calculates the luminance difference. A pixel having a bright spot is determined. When there is a bright spot in the difference image (step Sb19: Yes), the processing unit 123 proceeds with the process to step Sb20. On the other hand, when there is no bright spot in the difference image (step Sb19: No), the processing unit 123 returns the process to step Sb1.

(ステップSb20)処理部123は、差分画像における輝点の座標(X,Y)を検出する。処理部123は、ステップSb9に処理を進める。   (Step Sb20) The processing unit 123 detects the coordinates (X, Y) of the bright spot in the difference image. The process part 123 advances a process to step Sb9.

なお、リモコン140には、周囲環境の明るさ(光量)を測定する輝度センサーが備えられてもよい。処理部123は、この輝度センサーにより検出された輝度が低輝度である場合、インジケーター143をパターン発光(点滅)させてもよい。   The remote controller 140 may be provided with a luminance sensor that measures the brightness (light quantity) of the surrounding environment. The processing unit 123 may cause the indicator 143 to emit pattern light (flash) when the luminance detected by the luminance sensor is low.

以上のように、インジケーター143は、周囲環境の光量が所定閾値以下である場合、点灯し、カメラ64は、インジケーター143から入射された光を撮像し、処理部123は、インジケーター143から入射された光が撮像された画像に基づいて、リモコン140の位置を検出する。
この構成により、インジケーター143は、周囲環境の光量が所定閾値以下である場合、点灯する。これにより、情報入出力装置は、周囲環境が暗い場合でも、リモコン160の位置を検出することができる。一方、情報入出力装置は、周囲環境が明るい場合、インジケーター143を消灯することで、消費電力を抑えることができる。
As described above, the indicator 143 is turned on when the amount of light in the surrounding environment is equal to or less than the predetermined threshold, the camera 64 images the light incident from the indicator 143, and the processing unit 123 is incident from the indicator 143. The position of the remote controller 140 is detected based on the image obtained by capturing the light.
With this configuration, the indicator 143 lights up when the amount of light in the surrounding environment is equal to or less than a predetermined threshold value. Thereby, the information input / output device can detect the position of the remote controller 160 even when the surrounding environment is dark. On the other hand, the information input / output device can reduce power consumption by turning off the indicator 143 when the surrounding environment is bright.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

また、上記に説明した情報入出力装置を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、実行処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。   Further, an execution process is performed by recording a program for realizing the information input / output device described above on a computer-readable recording medium, causing the computer system to read and execute the program recorded on the recording medium. May be performed. Here, the “computer system” may include an OS and hardware such as peripheral devices.

また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリー等の書き込み可能な不揮発性メモリー、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリー(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。
さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. Random Access Memory)) that holds a program for a certain period of time is also included.
The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
The program may be for realizing a part of the functions described above.
Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

1…ヘッドマウントディスプレイ、20…ディスプレイ本体、21…装置本体部、21A…筐体(装置本体部)、23…耳元スピーカー、24…集音マイク、25…USBコネクター、26…オーディオコネクター、27…ビデオコネクター、28…メインスイッチ、29…回路基板、30…操作スイッチ、31…連結孔、32…ヘッドバンドヒンジ、33…バッテリー、34…タッチスイッチ、35…バックライト(本体)、36…表示パネル(本体)、37…通話マイク、40…ヘッドバンド(装着部)、41…ピン、43…第1ヘッドバンド、43a…ジョイント部、43b…軸受部、43c…軸受部、43d…軸受部、43e…軸受部、44…第2ヘッドバンド、46…ヘッドパット、46a…支持板、46b…弾性部材、47…ヘッドパット、48…バネ部材、49…標章表示部、56…回動機構、57…回動機構、60…表示部、61…ディスプレイヒンジ、62…バックライト(表示部)、63…表示パネル(表示部)、64…カメラ、65…プリズム、66…反射ミラー、67…ファインダー開口部、68…前方ライト(点灯部)、70…前方スピーカー、71…結像レンズ、72…撮像素子(撮像部)、73…レーザー発振器、100…ステレオイヤホン、101…オーディオコネクター、102…ケーブル、103…第1スピーカー、104…第2スピーカー、105…集音マイク、106…クリップ、120…電源回路、121…デコーダー、122…フラッシュメモリー、123…処理部、125…LCDドライバ、126…BLドライバ、127…メモリー、128…メインスイッチ、129…エンコーダー、130…BT通信回路、131…WiFi通信回路、132…加速度センサー、133…地磁気センサー、134…角速度センサー、135…GPSセンサー、136…温湿度センサー、137…心拍数センサー、138…3G/LTE通信回路、140…リモコン(指示部)、141…タッチパッド、147…操作スイッチ、142…USBコネクター、143…インジケーター、144…取付クリップ、147…操作スイッチ、148…USBケーブル、149…クリップ、150a〜150b…インジケータースイッチ、151a〜151b…コーナーキューブ(反射体)、152a〜152b…筐体面、160…リモコン(指示部)、162…スピーカーアンプ DESCRIPTION OF SYMBOLS 1 ... Head mounted display, 20 ... Display main body, 21 ... Apparatus main body part, 21A ... Case (apparatus main body part), 23 ... Ear speaker, 24 ... Sound collecting microphone, 25 ... USB connector, 26 ... Audio connector, 27 ... Video connector, 28 ... main switch, 29 ... circuit board, 30 ... operation switch, 31 ... connecting hole, 32 ... headband hinge, 33 ... battery, 34 ... touch switch, 35 ... backlight (main unit), 36 ... display panel (Main body), 37 ... telephone microphone, 40 ... headband (mounting part), 41 ... pin, 43 ... first headband, 43a ... joint part, 43b ... bearing part, 43c ... bearing part, 43d ... bearing part, 43e ... bearing part, 44 ... second headband, 46 ... head pad, 46a ... support plate, 46b ... elastic member, 47 ... f Dopat, 48 ... Spring member, 49 ... Mark display section, 56 ... Rotating mechanism, 57 ... Rotating mechanism, 60 ... Display section, 61 ... Display hinge, 62 ... Backlight (display section), 63 ... Display panel ( Display unit), 64 ... Camera, 65 ... Prism, 66 ... Reflection mirror, 67 ... Viewfinder opening, 68 ... Front light (lighting unit), 70 ... Front speaker, 71 ... Imaging lens, 72 ... Imaging element (imaging unit) 73 ... Laser oscillator, 100 ... stereo earphone, 101 ... audio connector, 102 ... cable, 103 ... first speaker, 104 ... second speaker, 105 ... sound collecting microphone, 106 ... clip, 120 ... power supply circuit, 121 ... Decoder, 122 ... Flash memory, 123 ... Processing unit, 125 ... LCD driver, 126 ... BL driver, 127 ... Memo -, 128 ... main switch, 129 ... encoder, 130 ... BT communication circuit, 131 ... WiFi communication circuit, 132 ... acceleration sensor, 133 ... geomagnetic sensor, 134 ... angular velocity sensor, 135 ... GPS sensor, 136 ... temperature / humidity sensor, 137 ... heart rate sensor, 138 ... 3G / LTE communication circuit, 140 ... remote control (instruction unit), 141 ... touch pad, 147 ... operation switch, 142 ... USB connector, 143 ... indicator, 144 ... mounting clip, 147 ... operation switch, 148 ... USB cable, 149 ... clip, 150a to 150b ... indicator switch, 151a to 151b ... corner cube (reflector), 152a to 152b ... housing surface, 160 ... remote control (instruction unit), 162 ... speaker amplifier

Claims (7)

点灯又は消灯する点灯部と、
前記点灯部から入射された光を、入射方向に折り返す反射体を有する指示部と、
前記点灯部の近傍から前記指示部を撮像することにより、前記反射体により折り返された光を撮像する撮像部と、
前記折り返された光が撮像された画像に基づいて、前記指示部の位置を検出する処理部と、
を備えることを特徴とする情報入出力装置。
A lighting part to be turned on or off;
An indicator having a reflector for turning back the light incident from the lighting unit in the incident direction;
An imaging unit that images the light reflected by the reflector by imaging the instruction unit from the vicinity of the lighting unit;
A processing unit that detects a position of the instruction unit based on an image obtained by imaging the folded light; and
An information input / output device comprising:
前記撮像部は、前記点灯部が点灯した状態と、前記点灯部が消灯した状態とで、前記指示部を撮像し、
前記処理部は、前記点灯部が点灯した状態で撮像された画像と、前記点灯部が消灯した状態で撮像された画像と、の差分画像を生成し、前記差分画像に撮像された前記反射体による輝点に基づいて、前記指示部の位置を検出することを特徴とする請求項1に記載の情報入出力装置。
The imaging unit images the instruction unit in a state where the lighting unit is lit and a state where the lighting unit is turned off,
The processing unit generates a differential image between an image captured with the lighting unit turned on and an image captured with the lighting unit turned off, and the reflector imaged in the differential image The information input / output device according to claim 1, wherein the position of the instruction unit is detected based on a bright spot by the information.
前記指示部は、異なる色で発光する発光部を有し、
前記撮像部は、前記発光部を撮像し、
前記処理部は、前記撮像部により撮像された前記発光部の色を検出し、検出した色に対応付けられた処理を実行することを特徴とする請求項1又は請求項2に記載の情報入出力装置。
The indicating unit includes a light emitting unit that emits light of different colors,
The imaging unit images the light emitting unit,
The information input according to claim 1, wherein the processing unit detects a color of the light emitting unit imaged by the imaging unit, and executes a process associated with the detected color. Output device.
前記発光部は、周囲環境の光量が所定閾値以下である場合、点灯し、
前記撮像部は、前記発光部から入射された光を撮像し、
前記処理部は、前記発光部から入射された光が撮像された画像に基づいて、前記指示部の位置を検出することを特徴とする請求項1から請求項3のいずれか一項に記載の情報入出力装置。
The light emitting unit is lit when the light amount of the surrounding environment is equal to or less than a predetermined threshold,
The imaging unit images light incident from the light emitting unit,
The said process part detects the position of the said instruction | indication part based on the image by which the light incident from the said light emission part was imaged, The Claim 1 characterized by the above-mentioned. Information input / output device.
前記点灯部は、点灯した際、可視光及び赤外光の少なくとも一方を射出することを特徴とする請求項1から請求項4のいずれか一項に記載の情報入出力装置。   5. The information input / output device according to claim 1, wherein the lighting unit emits at least one of visible light and infrared light when turned on. 画像を表示する表示部
を備え、
前記処理部は、前記指示部の位置に応じて、前記表示部に画像を表示させることを特徴とする請求項1から請求項5のいずれか一項に記載の情報入出力装置。
It has a display that displays images,
The information input / output apparatus according to claim 1, wherein the processing unit displays an image on the display unit according to a position of the instruction unit.
コンピュータに、
入射された光を入射方向に折り返す反射体を有する指示部を撮像することにより、前記反射体により折り返された光を撮像する手順と、
前記折り返された光が撮像された画像に基づいて、前記指示部の位置を検出する手順と、
を実行させるための情報入出力プログラム。
On the computer,
A procedure for imaging the light reflected by the reflector by imaging the indicator having a reflector that folds the incident light in the incident direction;
A procedure for detecting a position of the pointing unit based on an image obtained by imaging the folded light;
Information input / output program to execute
JP2012125895A 2012-06-01 2012-06-01 Information input/output device, and information input/output program Pending JP2013250847A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012125895A JP2013250847A (en) 2012-06-01 2012-06-01 Information input/output device, and information input/output program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012125895A JP2013250847A (en) 2012-06-01 2012-06-01 Information input/output device, and information input/output program

Publications (1)

Publication Number Publication Date
JP2013250847A true JP2013250847A (en) 2013-12-12

Family

ID=49849444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012125895A Pending JP2013250847A (en) 2012-06-01 2012-06-01 Information input/output device, and information input/output program

Country Status (1)

Country Link
JP (1) JP2013250847A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017174693A (en) * 2016-03-24 2017-09-28 キヤノン株式会社 Electronic apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017174693A (en) * 2016-03-24 2017-09-28 キヤノン株式会社 Electronic apparatus

Similar Documents

Publication Publication Date Title
JP6011072B2 (en) Control device and program
JP2013190941A (en) Information input output device, and head-mounted display device
JP6139679B2 (en) Information processing terminal and game device
JP6719418B2 (en) Electronics
JP6123180B2 (en) Display device
JP6318462B2 (en) Display device
JP6397698B2 (en) Information processing terminal, information processing program, information processing terminal system, and information processing method
JP2014021707A (en) Information input/output device and information input/output method
CN111475077A (en) Display control method and electronic equipment
JP6136090B2 (en) Electronic device and display device
JP2019128693A (en) Head-mounted display, and method for controlling head-mounted display
JP2014212473A (en) Communication device and head-mounted display device
JP2013239767A (en) Head-mounted type information input/output device
JP2013175947A (en) Head-mounted device
JP2014044654A (en) Information input and output device
JP2014021272A (en) Information input/output device and information input/output method
JP2014035668A (en) Head-mounted information input/output device and head-mounted information input/output method
JP2013255012A (en) Head holding member and head-mounted information output device
JP2018200415A (en) Head-mounted display device, program, and method for controlling head-mounted display device
JP2013175909A (en) Head-mounted device
JP2013250846A (en) Information input output device, and information input output program
JP2013174730A (en) Information display device
JP2014022937A (en) Head-mounted information input/output device and head-mounted information input/output method
JP2014022942A (en) Head-mounted device
JP2013175945A (en) Head-mounted device