JP2017146715A - Display device, control method of display device, and program - Google Patents

Display device, control method of display device, and program Download PDF

Info

Publication number
JP2017146715A
JP2017146715A JP2016026990A JP2016026990A JP2017146715A JP 2017146715 A JP2017146715 A JP 2017146715A JP 2016026990 A JP2016026990 A JP 2016026990A JP 2016026990 A JP2016026990 A JP 2016026990A JP 2017146715 A JP2017146715 A JP 2017146715A
Authority
JP
Japan
Prior art keywords
display
movement
unit
motion
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016026990A
Other languages
Japanese (ja)
Inventor
和夫 西沢
Kazuo Nishizawa
和夫 西沢
薫 千代
Kaoru Sendai
薫 千代
総志 木村
Fusayuki Kimura
総志 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016026990A priority Critical patent/JP2017146715A/en
Priority to US15/424,110 priority patent/US10296104B2/en
Publication of JP2017146715A publication Critical patent/JP2017146715A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Details Of Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a display device capable of easily changing display in response to an operation and suppressing changes in display which are not intended by a user, a control method of the display device, and a program.SOLUTION: An HMD 100 includes an image display part 20 for visualizing an image for a user, and a control device 10 operable independent from the image display part 20 and having a 6-axis sensor 111 for detecting movement of the control device 10. The HMD 100 executes, as a process on an image displayed by the image display part 20, a first display change in response to the movement in a first movement direction detected by the 6-axis sensor 111 and a second display change in response to the movement in a second movement direction. The HMD 100 starts the first display change when the movement in the first movement direction is detected, and then stops the first display change when the movement in the second direction is detected by the 6-axis sensor 111.SELECTED DRAWING: Figure 4

Description

本発明は、表示装置、表示装置の制御方法、及び、プログラムに関する。   The present invention relates to a display device, a display device control method, and a program.

従来、表示装置に対して、使用者(ユーザー)が手に持って使用する装置により操作を行う例が知られている(例えば、特許文献1参照)。特許文献1記載のリモートコントロール装置はリング形状のハウジングまたはボディーを備え、使用者が握って操作するものであり、リモートコントロール装置の動きが表示に反映される。   2. Description of the Related Art Conventionally, an example is known in which a display device is operated by a device that a user (user) holds and uses (see, for example, Patent Document 1). The remote control device described in Patent Document 1 includes a ring-shaped housing or body and is operated by a user by gripping, and the movement of the remote control device is reflected in the display.

特表2009−500923号公報Special table 2009-500923

特許文献1記載の構成では、リモートコントロール装置の動作が表示に反映される。このように動きに対応して表示を制御する構成では、操作が簡単なため操作性に優れるという利点があるが、使用者の意図に関わらず動きに対応して表示が変化する。このため、使用者が意図しない表示の変化が発生する可能性があった。
本発明は上記事情に鑑みてなされたものであり、操作に対応して容易に表示を変更でき、使用者が意図しない表示の変化を抑制できる表示装置、表示装置の制御方法、及び、プログラムを提供することを目的とする。
In the configuration described in Patent Document 1, the operation of the remote control device is reflected in the display. The configuration for controlling the display in response to the movement in this way has an advantage of excellent operability because the operation is simple, but the display changes in accordance with the movement regardless of the user's intention. For this reason, there is a possibility that a display change unintended by the user may occur.
The present invention has been made in view of the above circumstances. A display device, a display device control method, and a program capable of easily changing a display in response to an operation and suppressing a display change unintended by a user. The purpose is to provide.

上記目的を達成するために、本発明は、使用者に画像を視認させる表示部を有する頭部装着型の表示装置であって、前記表示部と独立して動かすことが可能な操作デバイスであって前記操作デバイスの動きを検出する動き検出部を有する操作デバイスと、前記動き検出部が検出する動きに応じて前記表示部の表示を制御する制御部と、を備え、前記制御部は、前記表示部が表示する画像に対する処理として、前記動き検出部が検出する第1の動き方向の動きに対応する第1の表示変化、及び、前記動き検出部が検出する第2の動き方向の動きに対応する第2の表示変化を実行し、前記第1の動き方向の動きが検出された場合に前記第1の表示変化を開始し、その後、前記動き検出部により前記第2の動き方向の動きが検出された場合に、前記第1の表示変化を停止する、ことを特徴とする。
本発明によれば、操作デバイスを動かす操作により表示部の表示を容易に制御できる。また、操作デバイスの2方向の動きを組み合わせることによって、表示部が表示する画像を所望の位置まで移動させることができる。
In order to achieve the above object, the present invention is a head-mounted display device having a display unit that allows a user to visually recognize an image, and is an operation device that can be moved independently of the display unit. An operation device having a motion detection unit that detects the movement of the operation device, and a control unit that controls display of the display unit according to the motion detected by the motion detection unit, As processing for the image displayed by the display unit, the first display change corresponding to the movement in the first movement direction detected by the movement detection unit and the movement in the second movement direction detected by the movement detection unit. The corresponding second display change is executed, and when the movement in the first movement direction is detected, the first display change is started, and then the movement in the second movement direction is performed by the movement detection unit. Is detected, Stop showing changes in 1, characterized in that.
According to the present invention, display on the display unit can be easily controlled by an operation of moving the operation device. Further, by combining the movements of the operation device in two directions, the image displayed on the display unit can be moved to a desired position.

また、本発明は、上記表示装置において、前記制御部は、前記動き検出部により前記第1の動き方向の動きが検出された場合に前記第1の表示変化を実行し、前記動き検出部により前記第2の動き方向の動きが検出された場合に、前記第2の表示変化を実行すること、を特徴とする。
本発明によれば、操作デバイスを動かすことによって表示部が表示する画像を動かすことができ、画像の動きの方向を、操作デバイスの動き方向により指示できる。
In the display device according to the aspect of the invention, the control unit may execute the first display change when the motion detection unit detects a motion in the first motion direction, and the motion detection unit When the movement in the second movement direction is detected, the second display change is executed.
According to the present invention, the image displayed on the display unit can be moved by moving the operation device, and the direction of movement of the image can be indicated by the movement direction of the operation device.

また、本発明は、上記表示装置において、前記操作デバイスは、操作を受け付ける操作受付部を備え、前記制御部は、前記操作受付部が操作を受け付けている状態で、前記動き検出部が検出する動きに応じて、前記表示部の表示を変化させること、を特徴とする。
本発明によれば、操作受付部の操作状態により、使用者が意図しない表示の変化を防止できる。
Further, according to the present invention, in the display device, the operation device includes an operation reception unit that receives an operation, and the control unit detects the motion detection unit in a state where the operation reception unit receives an operation. The display of the display unit is changed according to movement.
According to the present invention, it is possible to prevent a display change unintended by the user depending on the operation state of the operation reception unit.

また、本発明は、上記表示装置において、前記制御部は、前記操作受付部が操作を受け付けている状態で、前記動き検出部により前記第1の動き方向の動きを検出した場合に、前記第1の表示変化を実行すること、を特徴とする。
本発明によれば、操作受付部の操作状態により、使用者が意図しない表示の変化を防止できる。
Further, the present invention provides the display device, wherein the control unit detects the movement in the first movement direction by the movement detection unit in a state where the operation reception unit receives an operation. 1 display change is executed.
According to the present invention, it is possible to prevent a display change unintended by the user depending on the operation state of the operation reception unit.

また、本発明は、上記表示装置において、前記制御部は、前記動き検出部により前記第1の動き方向の動きが検出された場合に、前記第1の表示変化を開始し、その後、前記操作受付部が操作を受け付けなくなった場合に、前記第1の表示変化を停止すること、を特徴とする。
本発明によれば、操作受付部の操作状態により、使用者が意図しない表示の変化を防止できる。
In the display device according to the aspect of the invention, the control unit starts the first display change when the motion detection unit detects a motion in the first motion direction, and then performs the operation. The first display change is stopped when the accepting unit stops accepting the operation.
According to the present invention, it is possible to prevent a display change unintended by the user depending on the operation state of the operation reception unit.

また、本発明は、上記表示装置において、前記制御部は、前記操作受付部が操作を受け付けている状態で、前記動き検出部により前記第2の動き方向の動きを検出した場合に、前記第2の表示変化を実行すること、を特徴とする。
本発明によれば、操作デバイスを動かすことによって表示部が表示する画像を動かすことができ、画像の動きの方向を、操作デバイスの動き方向により指示できる。
In the display device according to the aspect of the invention, the control unit may detect the movement in the second movement direction when the movement detection unit detects a movement in the second movement direction while the operation reception unit is receiving an operation. The display change of 2 is performed.
According to the present invention, the image displayed on the display unit can be moved by moving the operation device, and the direction of movement of the image can be indicated by the movement direction of the operation device.

また、本発明は、上記表示装置において、前記操作受付部は、前記動き検出部の検出とは異なる操作を受け付けること、を特徴とする。
本発明によれば、動き検出部が検出する動きとは異なる操作によって、操作デバイスの動きにより表示を制御する状態と、表示の制御を行わない状態とを選択できるので、使用者が意図しない表示の変化を、より確実に防止できる。
Moreover, the present invention is characterized in that, in the display device, the operation receiving unit receives an operation different from the detection of the motion detecting unit.
According to the present invention, it is possible to select a state in which the display is controlled by the movement of the operation device and a state in which the display is not controlled by an operation different from the motion detected by the motion detection unit. Can be more reliably prevented.

また、本発明は、上記表示装置において、前記操作デバイスは、前記使用者の身体に装着されるウェアラブルデバイスであること、を特徴とする。
本発明によれば、使用者が身体を動かす操作により表示部の表示を容易に制御できる。また、操作受付部の操作状態により、使用者が意図しない表示の変化を防止できるので、より直感的に、表示を制御する操作を行うことができる。
In the display device according to the present invention, the operation device is a wearable device attached to the body of the user.
ADVANTAGE OF THE INVENTION According to this invention, the display of a display part can be easily controlled by operation which a user moves a body. In addition, since the display state unintended by the user can be prevented depending on the operation state of the operation reception unit, an operation for controlling the display can be performed more intuitively.

また、上記目的を達成するために、本発明は、使用者に画像を視認させる表示部と、前記表示部と独立して動かすことが可能な操作デバイスであって前記操作デバイスの動きを検出する動き検出部を有する操作デバイスと、を備える表示装置を制御して、前記表示部が表示する画像に対する処理として、前記動き検出部が検出する第1の動き方向の動きに対応する第1の表示変化、及び、前記動き検出部が検出する第2の動き方向の動きに対応する第2の表示変化を実行し、前記第1の動き方向の動きが検出された場合に前記第1の表示変化を開始し、その後、前記動き検出部により前記第2の動き方向の動きが検出された場合に、前記第1の表示変化を停止すること、を特徴とする。
本発明によれば、操作デバイスを動かす操作により表示部の表示を容易に制御できる。また、操作デバイスの2方向の動きを組み合わせることによって、表示部が表示する画像を所望の位置まで移動させることができる。
In order to achieve the above object, the present invention provides a display unit that allows a user to visually recognize an image, and an operation device that can be moved independently of the display unit, and detects the movement of the operation device. As a process for an image displayed on the display unit by controlling a display device including an operation device having a motion detection unit, a first display corresponding to the motion in the first motion direction detected by the motion detection unit A second display change corresponding to a change and a movement in the second movement direction detected by the movement detector, and the first display change when the movement in the first movement direction is detected. The first display change is stopped when a motion in the second motion direction is detected by the motion detection unit.
According to the present invention, display on the display unit can be easily controlled by an operation of moving the operation device. Further, by combining the movements of the operation device in two directions, the image displayed on the display unit can be moved to a desired position.

また、上記目的を達成するために、本発明は、使用者に画像を視認させる表示部と、前記表示部と独立して動かすことが可能な操作デバイスであって前記操作デバイスの動きを検出する動き検出部を有する操作デバイスと、を備える表示装置を制御するコンピューターが実行可能なプログラムであって、前記表示部が表示する画像に対する処理として、前記動き検出部が検出する第1の動き方向の動きに対応する第1の表示変化、及び、前記動き検出部が検出する第2の動き方向の動きに対応する第2の表示変化を実行し、前記第1の動き方向の動きが検出された場合に前記第1の表示変化を開始し、その後、前記動き検出部により前記第2の動き方向の動きが検出された場合に、前記第1の表示変化を停止するためのプログラムである。
本発明によれば、操作デバイスを動かす操作により表示部の表示を容易に制御できる。また、操作デバイスの2方向の動きを組み合わせることによって、表示部が表示する画像を所望の位置まで移動させることができる。
In order to achieve the above object, the present invention provides a display unit that allows a user to visually recognize an image, and an operation device that can be moved independently of the display unit, and detects the movement of the operation device. A program that can be executed by a computer that controls a display device including an operation device having a motion detection unit, and as a process for an image displayed by the display unit, the first motion direction detected by the motion detection unit The first display change corresponding to the movement and the second display change corresponding to the movement in the second movement direction detected by the movement detector are executed, and the movement in the first movement direction is detected. In this case, the first display change is started, and when the movement in the second movement direction is detected by the movement detection unit, the first display change is stopped.
According to the present invention, display on the display unit can be easily controlled by an operation of moving the operation device. Further, by combining the movements of the operation device in two directions, the image displayed on the display unit can be moved to a desired position.

本発明は、上述した表示装置、表示装置の制御方法、及びプログラム以外の種々の形態で実現することも可能である。例えば、上記のプログラムを記録した記録媒体、プログラムを配信するサーバー装置、上記プログラムを伝送する伝送媒体、上記プログラムを搬送波内に具現化したデータ信号等の形態で実現できる。   The present invention can also be realized in various forms other than the above-described display device, display device control method, and program. For example, the present invention can be realized in the form of a recording medium that records the program, a server device that distributes the program, a transmission medium that transmits the program, a data signal that embodies the program in a carrier wave, and the like.

HMDの外観構成を示す説明図。Explanatory drawing which shows the external appearance structure of HMD. 画像表示部の光学系の構成を示す図。The figure which shows the structure of the optical system of an image display part. 画像表示部と撮像範囲の対応を示す説明図。Explanatory drawing which shows a response | compatibility with an image display part and an imaging range. HMDを構成する各部のブロック図。The block diagram of each part which comprises HMD. 制御部および記憶部のブロック図。The block diagram of a control part and a memory | storage part. LED表示部の点灯の様子を示す説明図。Explanatory drawing which shows the mode of lighting of a LED display part. 制御装置を用いた操作例を示す説明図。Explanatory drawing which shows the example of operation using a control apparatus. HMDの操作に対応する表示の変化を示す説明図。Explanatory drawing which shows the change of the display corresponding to operation of HMD. HMDの操作に対応する表示の変化を示す説明図。Explanatory drawing which shows the change of the display corresponding to operation of HMD. HMDの操作に対応する表示の変化を示す説明図。Explanatory drawing which shows the change of the display corresponding to operation of HMD. HMDの動作を示すフローチャート。The flowchart which shows operation | movement of HMD. HMDの動作を示すフローチャート。The flowchart which shows operation | movement of HMD. 時計型デバイスの外観図。The external view of a clock-type device. リング型デバイスの外観図。External view of a ring-type device.

図1は、本発明を適用した実施形態に係るHMD(Head Mounted Display:頭部装着型表示装置)100の外観構成を示す説明図である。
HMD100は、使用者(ユーザー)の頭部に装着された状態で使用者に虚像を視認させる画像表示部20(表示部)と、画像表示部20を制御する制御装置10と、を備える表示装置である。制御装置10(操作デバイス)は、図1に示すように、平たい箱形のケース10A(筐体、あるいは本体ともいえる)を備え、ケース10Aに後述する各部を備える。ケース10Aの表面には、使用者の操作を受け付ける各種のボタン11、スイッチ、トラックパッド14等が設けられる。これらを使用者が操作することによって、制御装置10は、HMD100のコントローラーとして機能する。
FIG. 1 is an explanatory diagram showing an external configuration of an HMD (Head Mounted Display) 100 according to an embodiment to which the present invention is applied.
HMD100 is a display apparatus provided with the image display part 20 (display part) which makes a user visually recognize a virtual image in the state with which the user (user) was mounted | worn, and the control apparatus 10 which controls the image display part 20. It is. As shown in FIG. 1, the control device 10 (operation device) includes a flat box-shaped case 10 </ b> A (which can also be referred to as a housing or a main body), and the case 10 </ b> A includes each unit described later. On the surface of the case 10 </ b> A, various buttons 11, switches, track pads 14, and the like that receive user operations are provided. When the user operates these, the control device 10 functions as a controller of the HMD 100.

画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示ユニット22、左表示ユニット24、右導光板26、及び左導光板28を備える。
右保持部21及び左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプル(つる)のように、使用者の頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態において使用者の右側に位置する端部を端部ERとし、使用者の左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、画像表示部20装着状態において使用者の右側頭部に対応する位置まで延伸して設けられる。左保持部23は、端部ELから、画像表示部20の装着状態において使用者の左側頭部に対応する位置まで延伸して設けられる。
The image display unit 20 is a wearing body that is worn on the user's head, and has a glasses shape in the present embodiment. The image display unit 20 includes a right display unit 22, a left display unit 24, a right light guide plate 26, and a left light guide plate 28 in a main body having a right holding unit 21, a left holding unit 23, and a front frame 27. .
Each of the right holding unit 21 and the left holding unit 23 extends rearward from both ends of the front frame 27, and holds the image display unit 20 on the user's head like a temple of glasses. Here, of both ends of the front frame 27, an end located on the right side of the user in the mounted state of the image display unit 20 is defined as an end ER, and an end located on the left side of the user is defined as an end EL. To do. The right holding unit 21 extends from the end ER of the front frame 27 to a position corresponding to the right side of the user when the image display unit 20 is mounted. The left holding unit 23 is provided to extend from the end EL to a position corresponding to the left side of the user when the image display unit 20 is mounted.

右導光板26及び左導光板28は、前部フレーム27に設けられる。右導光板26は、画像表示部20の装着状態において使用者の右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、画像表示部20の装着状態において使用者の左眼の眼前に位置し、左眼に画像を視認させる。   The right light guide plate 26 and the left light guide plate 28 are provided on the front frame 27. The right light guide plate 26 is positioned in front of the right eye of the user when the image display unit 20 is mounted, and causes the right eye to visually recognize the image. The left light guide plate 28 is positioned in front of the left eye of the user when the image display unit 20 is mounted, and causes the left eye to visually recognize the image.

前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有し、この連結位置は、使用者が画像表示部20を装着する装着状態で、使用者の眉間に対応する。前部フレーム27は、右導光板26と左導光板28との連結位置において、画像表示部20の装着状態で使用者の鼻に当接する鼻当て部を設けてもよい。この場合、鼻当て部と右保持部21及び左保持部23とにより画像表示部20を使用者の頭部に保持できる。また、右保持部21及び左保持部23に、画像表示部20の装着状態において使用者の後頭部に接するベルト(図示略)を連結してもよく、この場合、ベルトによって画像表示部20を使用者の頭部に保持できる。   The front frame 27 has a shape in which one end of the right light guide plate 26 and one end of the left light guide plate 28 are connected to each other, and this connection position is in a wearing state in which the user wears the image display unit 20. Corresponding to the eyebrows. The front frame 27 may be provided with a nose pad portion that comes into contact with the user's nose when the image display unit 20 is mounted at a connection position between the right light guide plate 26 and the left light guide plate 28. In this case, the image display unit 20 can be held on the user's head by the nose pad, the right holding unit 21 and the left holding unit 23. Further, a belt (not shown) that contacts the back of the user when the image display unit 20 is mounted may be connected to the right holding unit 21 and the left holding unit 23. In this case, the image display unit 20 is used by the belt. Can be held on the person's head.

右表示ユニット22は、右導光板26による画像の表示に係るユニットであり、右保持部21に設けられ、装着状態において使用者の右側頭部の近傍に位置する。左表示ユニット24は、左導光板28による画像の表示に係るユニットであり、左保持部23に設けられ、装着状態において使用者の左側頭部の近傍に位置する。なお、右表示ユニット22及び左表示ユニット24を総称して単に「表示駆動部」とも呼ぶ。   The right display unit 22 is a unit related to display of an image by the right light guide plate 26 and is provided in the right holding unit 21 and is located in the vicinity of the right side of the user in the mounted state. The left display unit 24 is a unit related to display of an image by the left light guide plate 28 and is provided in the left holding unit 23 and is located in the vicinity of the left head of the user in the mounted state. The right display unit 22 and the left display unit 24 are also collectively referred to simply as a “display driving unit”.

本実施形態の右導光板26及び左導光板28は、光透過性の樹脂等によって形成される光学部であり、例えばプリズムであり、右表示ユニット22及び左表示ユニット24が出力する画像光を、使用者の眼に導く。
また、右導光板26及び左導光板28の表面に、調光板(図示略)を設けてもよい。調光板は、光の波長域により透過率が異なる薄板上の光学素子であり、いわゆる波長フィルターとして機能する。調光板は、例えば、使用者の眼の側とは反対の側である前部フレーム27の表側を覆うように配置される。この調光板の光学特性を適宜選択することにより、可視光、赤外光及び紫外光等の任意の波長域の光の透過率を調整することができ、外部から右導光板26及び左導光板28に入射し、右導光板26及び左導光板28を透過する外光の光量を調整できる。
The right light guide plate 26 and the left light guide plate 28 of the present embodiment are optical units formed of a light-transmitting resin or the like, and are, for example, prisms, and output image light output from the right display unit 22 and the left display unit 24. Lead to the eyes of the user.
A light control plate (not shown) may be provided on the surfaces of the right light guide plate 26 and the left light guide plate 28. The light control plate is an optical element on a thin plate having different transmittance depending on the wavelength region of light, and functions as a so-called wavelength filter. The light control board is arrange | positioned so that the front side of the front frame 27 which is the opposite side to the user's eyes side may be covered, for example. By appropriately selecting the optical characteristics of the light control plate, the transmittance of light in an arbitrary wavelength region such as visible light, infrared light, and ultraviolet light can be adjusted. The amount of external light incident on the light plate 28 and transmitted through the right light guide plate 26 and the left light guide plate 28 can be adjusted.

画像表示部20は、右表示ユニット22及び左表示ユニット24がそれぞれ生成する画像光を、右導光板26及び左導光板28に導き、この画像光によって虚像を使用者に視認させることによって、画像を表示する。使用者の前方から、右導光板26及び左導光板28を透過して外光が使用者の眼に入射する場合、使用者の眼には、虚像を構成する画像光および外光が入射することとなり、虚像の視認性が外光の強さに影響される。このため、例えば前部フレーム27に調光板を装着し、調光板の光学特性を適宜選択あるいは調整することによって、虚像の視認のしやすさを調整できる。典型的な例では、HMD100を装着した使用者が少なくとも外の景色を視認できる程度の光透過性を有する調光板を用いることができる。また、調光板を用いると、右導光板26及び左導光板28を保護し、右導光板26及び左導光板28の損傷や汚れの付着等を抑制する効果が期待できる。調光板は、前部フレーム27、或いは、右導光板26及び左導光板28のそれぞれに対し着脱可能としてもよく、複数種類の調光板を交換して装着可能としてもよく、調光板を省略してもよい。   The image display unit 20 guides the image light generated by the right display unit 22 and the left display unit 24 to the right light guide plate 26 and the left light guide plate 28, respectively, and makes the user visually recognize the virtual image by using the image light, thereby Is displayed. When the external light enters the user's eyes through the right light guide plate 26 and the left light guide plate 28 from the front of the user, the image light and the external light constituting the virtual image enter the user's eyes. In other words, the visibility of the virtual image is affected by the intensity of external light. For this reason, for example, by attaching a light control plate to the front frame 27 and appropriately selecting or adjusting the optical characteristics of the light control plate, the visibility of the virtual image can be adjusted. In a typical example, it is possible to use a light control plate having a light transmittance that allows a user wearing the HMD 100 to visually recognize at least the outside scenery. In addition, when the dimming plate is used, it is possible to protect the right light guide plate 26 and the left light guide plate 28 and to suppress the damage to the right light guide plate 26 and the left light guide plate 28, the adhesion of dirt, and the like. The light control plate may be detachable with respect to the front frame 27 or each of the right light guide plate 26 and the left light guide plate 28, or may be mounted by replacing a plurality of types of light control plates. May be omitted.

カメラ61は、画像表示部20の前部フレーム27に配設される。カメラ61は、使用者が画像表示部20を装着した状態で視認する外景方向を撮像することが望ましく、前部フレーム27の前面において、右導光板26及び左導光板28を透過する外光を遮らない位置に設けられる。図1の例では、カメラ61が前部フレーム27の端部ER側に配置される。カメラ61は、端部EL側に配置されてもよく、右導光板26と左導光板28との連結部に配置されてもよい。   The camera 61 is disposed on the front frame 27 of the image display unit 20. The camera 61 desirably captures an outside scene direction viewed by the user wearing the image display unit 20, and external light transmitted through the right light guide plate 26 and the left light guide plate 28 on the front surface of the front frame 27. It is provided at a position that does not block. In the example of FIG. 1, the camera 61 is disposed on the end ER side of the front frame 27. The camera 61 may be disposed on the end EL side, or may be disposed at a connection portion between the right light guide plate 26 and the left light guide plate 28.

カメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラであり、本実施形態のカメラ61は単眼カメラであるが、ステレオカメラで構成してもよい。カメラ61は、HMD100の表側方向、換言すれば、HMD100を装着した状態における使用者の視界方向の少なくとも一部の外景(実空間)を撮像する。別の表現では、カメラ61は、使用者の視界と重なる範囲または方向を撮像し、使用者が注視する方向を撮像するということもできる。カメラ61の画角の広さは適宜設定可能であるが、本実施形態では、後述するように、使用者が右導光板26及び左導光板28を通して視認する外界を含む。より好ましくは、右導光板26及び左導光板28を透過して視認可能な使用者の視界の全体を撮像できるように、カメラ61の撮像範囲が設定される。
カメラ61は、制御部150(図5)が備える撮像制御部149の制御に従って撮像を実行し、撮像画像データを撮像制御部149に出力する。
The camera 61 is a digital camera that includes an imaging element such as a CCD or CMOS, an imaging lens, and the like. The camera 61 of the present embodiment is a monocular camera, but may be a stereo camera. The camera 61 images at least a part of the outside scene (real space) in the front side direction of the HMD 100, in other words, the user's viewing direction when the HMD 100 is worn. In another expression, the camera 61 captures a range or direction that overlaps the user's field of view, and captures the direction in which the user gazes. Although the angle of view of the camera 61 can be set as appropriate, in the present embodiment, as will be described later, the camera 61 includes the outside world visually recognized through the right light guide plate 26 and the left light guide plate 28. More preferably, the imaging range of the camera 61 is set so that the entire field of view of the user visible through the right light guide plate 26 and the left light guide plate 28 can be imaged.
The camera 61 performs imaging in accordance with the control of the imaging control unit 149 included in the control unit 150 (FIG. 5), and outputs captured image data to the imaging control unit 149.

HMD100は、予め設定された測定方向に位置する測定対象物までの距離を検出する距離センサー(図示略)を備えてもよい。距離センサーは、例えば、前部フレーム27において右導光板26と左導光板28との連結部分に配置できる。この場合、画像表示部20の装着状態において、距離センサーの位置は、水平方向では使用者の両眼のほぼ中間であり、鉛直方向では使用者の両眼より上である。距離センサーの測定方向は、例えば、前部フレーム27の表側方向とすることができ、言い換えればカメラ61の撮像方向と重複する方向である。距離センサーは、例えば、LEDやレーザーダイオード等の光源と、光源が発する光が測定対象物に反射する反射光を受光する受光部とを有する構成とすることができる。距離センサーは、制御部150の制御に従い、三角測距処理や時間差に基づく測距処理を実行すればよい。また、距離センサーは、超音波を発する音源と、測定対象物で反射する超音波を受信する検出部とを備える構成としてもよい。この場合、距離センサーは、制御部150の制御に従い、超音波の反射までの時間差に基づき測距処理を実行すればよい。   The HMD 100 may include a distance sensor (not shown) that detects a distance to a measurement object positioned in a preset measurement direction. The distance sensor can be disposed, for example, at a connection portion between the right light guide plate 26 and the left light guide plate 28 in the front frame 27. In this case, when the image display unit 20 is mounted, the position of the distance sensor is substantially in the middle between the user's eyes in the horizontal direction and above the user's eyes in the vertical direction. The measurement direction of the distance sensor can be, for example, the front side direction of the front frame 27, in other words, the direction overlapping the imaging direction of the camera 61. The distance sensor can be configured to include, for example, a light source such as an LED or a laser diode, and a light receiving unit that receives reflected light that is reflected from the light to be measured. The distance sensor may perform a triangulation process or a distance measurement process based on a time difference in accordance with the control of the control unit 150. The distance sensor may be configured to include a sound source that emits ultrasonic waves and a detection unit that receives ultrasonic waves reflected by the measurement object. In this case, the distance sensor may perform the distance measurement process based on the time difference until the reflection of the ultrasonic wave according to the control of the control unit 150.

図2は、画像表示部20が備える光学系の構成を示す要部平面図である。図2には説明のため使用者の左眼LE及び右眼REを図示する。
図2に示すように、右表示ユニット22と左表示ユニット24とは、左右対称に構成される。使用者の右眼REに画像を視認させる構成として、右表示ユニット22は、画像光を発するOLED(Organic Light Emitting Diode)ユニット221と、OLEDユニット221が発する画像光Lを導くレンズ群等を備えた右光学系251とを備える。画像光Lは、右光学系251により右導光板26に導かれる。
FIG. 2 is a principal plan view showing the configuration of the optical system provided in the image display unit 20. FIG. 2 shows the user's left eye LE and right eye RE for explanation.
As shown in FIG. 2, the right display unit 22 and the left display unit 24 are configured symmetrically. As a configuration for allowing the user's right eye RE to visually recognize an image, the right display unit 22 includes an OLED (Organic Light Emitting Diode) unit 221 that emits image light, a lens group that guides image light L emitted from the OLED unit 221, and the like. Right optical system 251. The image light L is guided to the right light guide plate 26 by the right optical system 251.

OLEDユニット221は、OLEDパネル223と、OLEDパネル223を駆動するOLED駆動回路225とを有する。OLEDパネル223は、有機エレクトロルミネッセンスにより発光してR(赤)、G(緑)、B(青)の色光をそれぞれ発する発光素子を、マトリクス状に配置して構成される、自発光型の表示パネルである。OLEDパネル223は、R、G、Bの素子を1個ずつ含む単位を1画素として、複数の画素を備え、マトリクス状に配置される画素により画像を形成する。OLED駆動回路225は、制御部150(図5)の制御に従って、OLEDパネル223が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル223の発光素子を発光させる。OLED駆動回路225は、OLEDパネル223の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される基板(図示略)に実装されてもよい。この基板には温度センサー217が実装される。
なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成であってもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加え、W(白)の光を発する発光素子を備えるWRGB構成のOLEDパネル223を用いてもよい。
The OLED unit 221 includes an OLED panel 223 and an OLED drive circuit 225 that drives the OLED panel 223. The OLED panel 223 is a self-luminous display configured by arranging light emitting elements that emit light of R (red), G (green), and B (blue) light by organic electroluminescence in a matrix. It is a panel. The OLED panel 223 includes a plurality of pixels, each of which includes one R, G, and B element, and forms an image with pixels arranged in a matrix. The OLED drive circuit 225 selects a light emitting element included in the OLED panel 223 and energizes the light emitting element under the control of the control unit 150 (FIG. 5), and causes the light emitting element of the OLED panel 223 to emit light. The OLED drive circuit 225 is fixed to the back surface of the OLED panel 223, that is, the back surface of the light emitting surface by bonding or the like. The OLED drive circuit 225 may be formed of a semiconductor device that drives the OLED panel 223, for example, and may be mounted on a substrate (not shown) fixed to the back surface of the OLED panel 223. A temperature sensor 217 is mounted on this substrate.
Note that the OLED panel 223 may have a configuration in which light emitting elements that emit white light are arranged in a matrix, and color filters corresponding to R, G, and B colors are stacked. Further, an OLED panel 223 having a WRGB configuration provided with a light emitting element that emits W (white) light in addition to the light emitting elements that respectively emit R, G, and B color light may be used.

右光学系251は、OLEDパネル223から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261(反射面)が形成される。画像光Lは、ハーフミラー261で反射して右眼REに向けて右導光板26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。   The right optical system 251 includes a collimator lens that converts the image light L emitted from the OLED panel 223 into a parallel light flux. The image light L converted into a parallel light beam by the collimator lens enters the right light guide plate 26. A plurality of reflecting surfaces that reflect the image light L are formed in an optical path that guides light inside the right light guide plate 26. The image light L is guided to the right eye RE side through a plurality of reflections inside the right light guide plate 26. A half mirror 261 (reflection surface) located in front of the right eye RE is formed on the right light guide plate 26. The image light L is reflected by the half mirror 261 and emitted from the right light guide plate 26 toward the right eye RE. The image light L forms an image on the retina of the right eye RE, and allows the user to visually recognize the image.

また、使用者の左眼LEに画像を視認させる構成として、左表示ユニット24は、画像光を発するOLEDユニット241と、OLEDユニット241が発する画像光Lを導くレンズ群等を備えた左光学系252とを備える。画像光Lは、左光学系252により左導光板28に導かれる。   In addition, as a configuration for allowing the user's left eye LE to visually recognize an image, the left display unit 24 includes a left optical system including an OLED unit 241 that emits image light, a lens group that guides the image light L emitted from the OLED unit 241, and the like. 252. The image light L is guided to the left light guide plate 28 by the left optical system 252.

OLEDユニット241は、OLEDパネル243と、OLEDパネル243を駆動するOLED駆動回路245とを有する。OLEDパネル243は、OLEDパネル223と同様に構成される自発光型の表示パネルである。OLED駆動回路245は、制御部150(図5)の制御に従って、OLEDパネル243が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル243の発光素子を発光させる。OLED駆動回路245は、OLEDパネル243の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路245は、例えばOLEDパネル243を駆動する半導体デバイスで構成され、OLEDパネル243の裏面に固定される基板(図示略)に実装されてもよい。この基板には、温度センサー239が実装される。   The OLED unit 241 includes an OLED panel 243 and an OLED drive circuit 245 that drives the OLED panel 243. The OLED panel 243 is a self-luminous display panel configured similarly to the OLED panel 223. The OLED driving circuit 245 causes the light emitting elements of the OLED panel 243 to emit light by selecting a light emitting element included in the OLED panel 243 and energizing the light emitting element according to the control of the control unit 150 (FIG. 5). The OLED drive circuit 245 is fixed to the back surface of the OLED panel 243, that is, the back surface of the light emitting surface by bonding or the like. The OLED drive circuit 245 may be configured by a semiconductor device that drives the OLED panel 243, for example, and may be mounted on a substrate (not shown) fixed to the back surface of the OLED panel 243. A temperature sensor 239 is mounted on this substrate.

左光学系252は、OLEDパネル243から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光板28に入射する。左導光板28は、画像光Lを反射する複数の反射面が形成された光学素子であり、例えばプリズムである。画像光Lは、左導光板28の内部で複数回の反射を経て左眼LE側に導かれる。左導光板28には、左眼LEの眼前に位置するハーフミラー281(反射面)が形成される。画像光Lは、ハーフミラー281で反射して左眼LEに向けて左導光板28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。   The left optical system 252 includes a collimating lens that converts the image light L emitted from the OLED panel 243 into a light beam in a parallel state. The image light L converted into a parallel light beam by the collimator lens enters the left light guide plate 28. The left light guide plate 28 is an optical element formed with a plurality of reflecting surfaces that reflect the image light L, and is, for example, a prism. The image light L is guided to the left eye LE side through a plurality of reflections inside the left light guide plate 28. The left light guide plate 28 is formed with a half mirror 281 (reflection surface) located in front of the left eye LE. The image light L is reflected by the half mirror 281 and emitted from the left light guide plate 28 toward the left eye LE. The image light L forms an image on the retina of the left eye LE, and allows the user to visually recognize the image.

この構成によれば、HMD100は、シースルー型の表示装置として機能する。すなわち、使用者の右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。また、左眼LEには、ハーフミラー281で反射した画像光Lと、ハーフミラー281を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては、右導光板26及び左導光板28を透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。
ハーフミラー261、281は、右表示ユニット22及び左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す画像取り出し部であり、表示部ということができる。
According to this configuration, the HMD 100 functions as a see-through display device. That is, the image light L reflected by the half mirror 261 and the external light OL transmitted through the right light guide plate 26 are incident on the user's right eye RE. Further, the image light L reflected by the half mirror 281 and the external light OL transmitted through the half mirror 281 are incident on the left eye LE. In this way, the HMD 100 superimposes the image light L of the internally processed image and the external light OL so as to enter the user's eyes, and for the user, the outside light can be seen through the right light guide plate 26 and the left light guide plate 28. The image by the image light L is visually recognized over the outside scene.
The half mirrors 261 and 281 are image extraction units that extract image by reflecting image light output from the right display unit 22 and the left display unit 24, respectively, and can be called display units.

なお、左光学系252と左導光板28とを総称して「左導光部」とも呼び、右光学系251と右導光板26とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。   The left optical system 252 and the left light guide plate 28 are collectively referred to as a “left light guide”, and the right optical system 251 and the right light guide plate 26 are collectively referred to as a “right light guide”. The configuration of the right light guide and the left light guide is not limited to the above example, and any method can be used as long as a virtual image is formed in front of the user's eyes using image light. It may be used, or a semi-transmissive reflective film may be used.

図1に戻り、制御装置10と画像表示部20とは、接続ケーブル40により接続される。接続ケーブル40は、ケース10Aの下部に設けられるコネクター(図示略)に着脱可能に接続され、左保持部23の先端から、画像表示部20の内部に設けられる各種回路に接続する。接続ケーブル40は、デジタルデータを伝送するメタルケーブルまたは光ファイバーケーブルを有し、アナログ信号を伝送するメタルケーブルを有していてもよい。接続ケーブル40の途中には、コネクター46が設けられる。コネクター46は、ステレオミニプラグを接続するジャックであり、コネクター46と制御装置10とは、例えばアナログ音声信号を伝送するラインで接続される。図1に示す構成例では、ステレオヘッドホンを構成する右イヤホン32と左イヤホン34、及び、マイク63を有するヘッドセット30が、コネクター46に接続される。   Returning to FIG. 1, the control device 10 and the image display unit 20 are connected by a connection cable 40. The connection cable 40 is detachably connected to a connector (not shown) provided at the lower part of the case 10 </ b> A, and is connected to various circuits provided in the image display unit 20 from the tip of the left holding unit 23. The connection cable 40 includes a metal cable or optical fiber cable that transmits digital data, and may include a metal cable that transmits an analog signal. A connector 46 is provided in the middle of the connection cable 40. The connector 46 is a jack for connecting a stereo mini-plug, and the connector 46 and the control device 10 are connected by a line for transmitting an analog audio signal, for example. In the configuration example shown in FIG. 1, a headset 30 having a right earphone 32 and a left earphone 34 and a microphone 63 constituting a stereo headphone is connected to a connector 46.

マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を音声インターフェイス182(図4)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。   For example, as shown in FIG. 1, the microphone 63 is arranged so that the sound collection unit of the microphone 63 faces the user's line of sight, collects sound, and outputs a sound signal to the sound interface 182 (FIG. 4). To do. For example, the microphone 63 may be a monaural microphone or a stereo microphone, may be a directional microphone, or may be an omnidirectional microphone.

制御装置10は、使用者により操作される被操作部として、ボタン11、LEDインジケーター12、トラックパッド14、上下キー15、切替スイッチ16、及び電源スイッチ18を備える。これらの被操作部はケース10Aの表面に配置される。
ボタン11は、制御装置10が実行するオペレーティングシステム143(図5)の操作等を行うためのメニューキー、ホームキー、戻るキー等を含み、特に、これらのキーやスイッチのうち押圧操作により変位するものを含む。LEDインジケーター12は、HMD100の動作状態に対応して点灯し、或いは点滅する。上下キー15は、右イヤホン32及び左イヤホン34から出力する音量の増減の指示入力や、画像表示部20の表示の明るさの増減の指示入力に利用される。切替スイッチ16は、上下キー15の操作に対応する入力を切り替えるスイッチである。電源スイッチ18は、HMD100の電源のオン/オフを切り替えるスイッチであり、例えばスライドスイッチで構成される。
The control device 10 includes a button 11, an LED indicator 12, a track pad 14, an up / down key 15, a changeover switch 16, and a power switch 18 as operated parts operated by a user. These operated parts are arranged on the surface of the case 10A.
The button 11 includes a menu key, a home key, a return key, and the like for operating the operating system 143 (FIG. 5) executed by the control device 10, and in particular, is displaced by a pressing operation of these keys and switches. Including things. The LED indicator 12 lights up or flashes in accordance with the operating state of the HMD 100. The up / down key 15 is used to input an instruction to increase / decrease the volume output from the right earphone 32 and the left earphone 34 and to input an instruction to increase / decrease the display brightness of the image display unit 20. The changeover switch 16 is a switch for changing an input corresponding to the operation of the up / down key 15. The power switch 18 is a switch for switching on / off the power of the HMD 100, and is configured by a slide switch, for example.

トラックパッド14(操作受付部、位置指示操作部)は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式等を採用できる。トラックパッド14への接触(タッチ操作)は、後述するタッチセンサー13(図4)により検出される。
また、図1に破線で示すように、トラックパッド14にはLED表示部17が設置される。LED表示部17は複数のLEDを備え、それぞれのLEDの点灯によりLED表示部17に操作部が視認可能となる。図1の例では、3つの記号△(三角形)、○(丸)、□(四角形)が、LED表示部17のLEDの点灯時に現れる。LED表示部17が消灯している状態では、これらの記号は視認できない状態となる。この構成は、例えば、トラックパッド14を、透光性を有する有色または無色透明の平板で構成し、この平板の直下にLEDを配置することで、実現できる。
The track pad 14 (operation reception unit, position instruction operation unit) has an operation surface for detecting a contact operation, and outputs an operation signal according to an operation on the operation surface. The detection method on the operation surface is not limited, and an electrostatic method, a pressure detection method, an optical method, or the like can be adopted. Contact (touch operation) to the track pad 14 is detected by a touch sensor 13 (FIG. 4) described later.
Further, as indicated by a broken line in FIG. 1, an LED display unit 17 is installed on the track pad 14. The LED display unit 17 includes a plurality of LEDs, and the operation unit can be visually recognized on the LED display unit 17 by lighting each LED. In the example of FIG. 1, three symbols Δ (triangle), ○ (circle), and □ (square) appear when the LED of the LED display unit 17 is turned on. When the LED display unit 17 is turned off, these symbols are not visible. This configuration can be realized, for example, by configuring the track pad 14 as a colored or colorless and transparent flat plate having translucency, and disposing an LED directly under the flat plate.

LED表示部17はソフトウェアボタンとして機能する。例えば、LED表示部17が点灯中においては、記号の点灯位置(表示位置)が、記号に対応する指示を行うボタンとして機能する。図1の例で、記号○(丸)はホームボタンとして機能し、記号○(丸)の位置に接触する操作が行われると、後述する制御部150は、タッチセンサー13の検出値に基づき、ホームボタンの操作を検出する。また、記号□(四角形)は履歴ボタンとして機能する。記号□(四角形)の位置に接触する操作が行われると、後述する制御部150は、タッチセンサー13の検出値に基づき、履歴ボタンの操作を検出する。また、記号△(三角形形)は戻るボタンとして機能する。記号△(三角形)の位置に接触する操作が行われると、後述する制御部150は、タッチセンサー13の検出値に基づき、戻るボタンの操作を検出する。   The LED display unit 17 functions as a software button. For example, when the LED display unit 17 is lit, the lighting position (display position) of the symbol functions as a button for giving an instruction corresponding to the symbol. In the example of FIG. 1, the symbol ○ (circle) functions as a home button, and when an operation of touching the position of the symbol ○ (circle) is performed, the control unit 150 described later is based on the detection value of the touch sensor 13. Detects home button operation. The symbol □ (square) functions as a history button. When an operation of touching the position of the symbol □ (rectangle) is performed, the control unit 150 described later detects the operation of the history button based on the detection value of the touch sensor 13. The symbol Δ (triangle) functions as a return button. When an operation of touching the position of the symbol Δ (triangle) is performed, the control unit 150 described later detects the operation of the return button based on the detection value of the touch sensor 13.

図3は、画像表示部20の要部構成を示す図であり、(A)は画像表示部20を使用者の頭部側から見た要部斜視図、(B)はカメラ61の画角の説明図である。なお、図3(A)では接続ケーブル40の図示を省略する。   3A and 3B are diagrams illustrating a configuration of a main part of the image display unit 20, where FIG. 3A is a main part perspective view of the image display unit 20 viewed from the user's head side, and FIG. 3B is an angle of view of the camera 61. It is explanatory drawing of. Note that the connection cable 40 is not shown in FIG.

図3(A)は、画像表示部20の使用者の頭部に接する側、言い換えれば使用者の右眼RE及び左眼LEに見える側である。別の言い方をすれば、右導光板26及び左導光板28の裏側が見えている。
図3(A)では、使用者の右眼REに画像光を照射するハーフミラー261、及び、左眼LEに画像光を照射するハーフミラー281が、略四角形の領域として見える。また、ハーフミラー261、281を含む右導光板26及び左導光板28の全体が、上述したように外光を透過する。このため、使用者には、右導光板26及び左導光板28の全体を透過して外景が視認され、ハーフミラー261、281の位置に矩形の表示画像が視認される。
FIG. 3A shows the side of the image display unit 20 in contact with the user's head, in other words, the side visible to the user's right eye RE and left eye LE. In other words, the back sides of the right light guide plate 26 and the left light guide plate 28 are visible.
In FIG. 3A, the half mirror 261 that irradiates the user's right eye RE with the image light and the half mirror 281 that irradiates the left eye LE with the image light appear as substantially rectangular areas. Further, the entire right light guide plate 26 and left light guide plate 28 including the half mirrors 261 and 281 transmit external light as described above. For this reason, the user sees the outside scene through the entire right light guide plate 26 and the left light guide plate 28, and sees a rectangular display image at the positions of the half mirrors 261 and 281.

カメラ61は、上記のように画像表示部20において右側の端部に配置され、使用者の両眼が向く方向、すなわち使用者にとって前方を撮像する。図3(B)は、カメラ61の位置を、使用者の右眼RE及び左眼LEとともに平面視で模式的に示す図である。カメラ61の画角(撮像範囲)をCで示す。なお、図3(B)には水平方向の画角Cを示すが、カメラ61の実際の画角は一般的なデジタルカメラと同様に上下方向にも拡がる。   The camera 61 is arranged at the right end of the image display unit 20 as described above, and images the direction in which both eyes of the user face, that is, the front for the user. FIG. 3B is a diagram schematically showing the position of the camera 61 in plan view together with the user's right eye RE and left eye LE. An angle of view (imaging range) of the camera 61 is indicated by C. FIG. 3B shows a horizontal angle of view C, but the actual angle of view of the camera 61 extends in the vertical direction as in a general digital camera.

カメラ61の光軸は、右眼RE及び左眼LEの視線方向を含む方向とされる。使用者がHMD100を装着した状態で視認できる外景は、無限遠とは限らない。例えば図3(B)に示すように、使用者が両眼で対象物OBを注視すると、使用者の視線は、図中符号RD、LDに示すように対象物OBに向けられる。この場合、使用者から対象物OBまでの距離は、30cm〜10m程度であることが多く、1m〜4m程度であることが、より多い。そこで、HMD100について、通常使用時における使用者から対象物OBまでの距離の上限、及び下限の目安を定めてもよい。この目安は調査や実験により求めてもよいし使用者が設定してもよい。カメラ61の光軸、及び画角は、通常使用時における対象物OBまでの距離が、設定された上限の目安に相当する場合、及び、下限の目安に相当する場合に、この対象物OBが画角に含まれるように、設定されることが好ましい。   The optical axis of the camera 61 is a direction including the line-of-sight directions of the right eye RE and the left eye LE. The outside scene that the user can visually recognize in a state where the HMD 100 is worn is not always at infinity. For example, as shown in FIG. 3B, when the user gazes at the object OB with both eyes, the user's line of sight is directed toward the object OB as indicated by reference signs RD and LD in the figure. In this case, the distance from the user to the object OB is often about 30 cm to 10 m, and more often about 1 m to 4 m. Therefore, for the HMD 100, an upper limit and a lower limit guideline for the distance from the user to the object OB during normal use may be set. This standard may be obtained by investigation or experiment, or may be set by the user. The optical axis and the angle of view of the camera 61 are determined when the distance to the object OB during normal use corresponds to the set upper limit guide and when the target OB corresponds to the lower limit guide. It is preferably set so as to be included in the angle of view.

また、一般に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされ、そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。さらに、人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45度〜70度程度とされている。この場合、注視点が、図3(B)の対象物OBであるとき、視線RD、LDを中心として水平方向に30度、垂直方向に20度程度が有効視野である。また、水平方向に60〜90度、垂直方向に45度〜70度程度が安定注視野であり、水平方向に約200度、垂直方向に約125度が視野角となる。さらに、使用者が画像表示部20を透過して右導光板26及び左導光板28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶことができる。図1及び図2に示す本実施形態の構成で、実視野は、右導光板26及び左導光板28を透過して使用者が視認する実際の視野に相当する。実視野は、視野角及び安定注視野より狭いが、有効視野より広い。   In general, the viewing angle of a human is about 200 degrees in the horizontal direction and about 125 degrees in the vertical direction, and of these, the effective field of view with excellent information receiving capability is about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction. Furthermore, the stable gaze field in which the gaze point that the human gazes at appears to be quickly and stably is about 60 to 90 degrees in the horizontal direction and about 45 to 70 degrees in the vertical direction. In this case, when the gazing point is the object OB in FIG. 3B, the effective visual field is about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction around the lines of sight RD and LD. Further, the stable viewing field is about 60 to 90 degrees in the horizontal direction and about 45 to 70 degrees in the vertical direction, and the viewing angle is about 200 degrees in the horizontal direction and about 125 degrees in the vertical direction. Furthermore, the actual field of view that the user perceives through the image display unit 20 and through the right light guide plate 26 and the left light guide plate 28 can be referred to as a real field of view (FOV). In the configuration of the present embodiment shown in FIGS. 1 and 2, the actual visual field corresponds to an actual visual field that is transmitted through the right light guide plate 26 and the left light guide plate 28 and visually recognized by the user. The real field of view is narrower than the viewing angle and stable field of view, but wider than the effective field of view.

カメラ61の画角Cは、使用者の視野よりも広い範囲を撮像可能であることが好ましく、具体的には、画角Cが、少なくとも使用者の有効視野よりも広いことが好ましい。また、画角Cが、使用者の実視野よりも広いことが、より好ましい。さらに好ましくは、画角Cが、使用者の安定注視野よりも広く、最も好ましくは、画角Cが使用者の両眼の視野角よりも広い。   The angle of view C of the camera 61 is preferably capable of capturing a wider range than the user's field of view, and specifically, the angle of view C is preferably at least wider than the effective field of view of the user. Further, it is more preferable that the angle of view C is wider than the actual field of view of the user. More preferably, the angle of view C is wider than the stable viewing field of the user, and most preferably, the angle of view C is wider than the viewing angle of both eyes of the user.

カメラ61が、撮像レンズとして、いわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよいし、単焦点レンズであってもズームレンズであってもよく、複数のレンズからなるレンズ群をカメラ61が備える構成であってもよい。   The camera 61 may include a so-called wide-angle lens as an imaging lens so that a wide angle of view can be captured. The wide-angle lens may include a lens called a super-wide-angle lens or a quasi-wide-angle lens, may be a single focus lens or a zoom lens, and the camera 61 includes a lens group including a plurality of lenses. There may be.

図4は、HMD100を構成する各部の構成を示すブロック図である。
制御装置10は、プログラムを実行してHMD100を制御するメインプロセッサー140を備える。メインプロセッサー140には、メモリー118及び不揮発性記憶部121が接続される。また、メインプロセッサー140には、入力装置としてトラックパッド14及び操作部110が接続される。また、メインプロセッサー140には、センサー類として、6軸センサー111、磁気センサー113、及び、GPS115が接続される。また、メインプロセッサー140には、通信部117、音声コーデック180、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、及び、FPGA194が接続される。これらは外部とのインターフェイスとして機能する。
FIG. 4 is a block diagram illustrating a configuration of each unit included in the HMD 100.
The control device 10 includes a main processor 140 that executes a program and controls the HMD 100. A memory 118 and a non-volatile storage unit 121 are connected to the main processor 140. The main processor 140 is connected to the track pad 14 and the operation unit 110 as input devices. In addition, a six-axis sensor 111, a magnetic sensor 113, and a GPS 115 are connected to the main processor 140 as sensors. The main processor 140 is connected to a communication unit 117, an audio codec 180, an external connector 184, an external memory interface 186, a USB connector 188, a sensor hub 192, and an FPGA 194. These function as an interface with the outside.

メインプロセッサー140は、制御装置10が内蔵するコントローラー基板120に実装される。コントローラー基板120には、メインプロセッサー140に加えて、メモリー118、不揮発性記憶部121等が実装されてもよい。本実施形態では、6軸センサー111、磁気センサー113、GPS115、通信部117、メモリー118、不揮発性記憶部121、音声コーデック180等がコントローラー基板120に実装される。また、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、FPGA194、及びインターフェイス196をコントローラー基板120に実装した構成であってもよい。   The main processor 140 is mounted on the controller board 120 built in the control device 10. In addition to the main processor 140, a memory 118, a nonvolatile storage unit 121, and the like may be mounted on the controller board 120. In the present embodiment, a six-axis sensor 111, a magnetic sensor 113, a GPS 115, a communication unit 117, a memory 118, a nonvolatile storage unit 121, an audio codec 180, and the like are mounted on the controller board 120. Further, the external connector 184, the external memory interface 186, the USB connector 188, the sensor hub 192, the FPGA 194, and the interface 196 may be mounted on the controller board 120.

メモリー118は、メインプロセッサー140がプログラムを実行する場合に、実行されるプログラム、及び、処理されるデータを一時的に記憶するワークエリアを構成する。不揮発性記憶部121は、フラッシュメモリーやeMMC(embedded Multi Media Card)で構成される。不揮発性記憶部121は、メインプロセッサー140が実行するプログラムや、メインプロセッサー140がプログラムを実行して処理する各種データを記憶する。   The memory 118 constitutes a work area that temporarily stores a program to be executed and data to be processed when the main processor 140 executes the program. The nonvolatile storage unit 121 is configured by a flash memory or an eMMC (embedded Multi Media Card). The nonvolatile storage unit 121 stores a program executed by the main processor 140 and various data processed by the main processor 140 executing the program.

メインプロセッサー140は、トラックパッド14から入力される操作信号に基づいて、トラックパッド14の操作面に対する接触操作を検出し、操作位置を取得する。
操作部110は、ボタン11、タッチセンサー13、およびLED表示部17を含む。タッチセンサー13は、トラックパッド14へのタッチ操作を検出し、検出したタッチ操作の操作位置を特定する。ボタン11の操作が行われた場合、及び、タッチセンサー13がタッチ操作を検出した場合、操作部110からメインプロセッサー140に対し、操作信号が出力される。
LED表示部17は、トラックパッド14(図1)の直下に配置されLED(図示略)、及び、このLEDを点灯させる駆動回路を含む。LED表示部17は、メインプロセッサー140の制御に従って、LEDを点灯、点滅、消灯させる。
The main processor 140 detects a touch operation on the operation surface of the track pad 14 based on an operation signal input from the track pad 14 and acquires an operation position.
The operation unit 110 includes a button 11, a touch sensor 13, and an LED display unit 17. The touch sensor 13 detects a touch operation on the track pad 14 and specifies an operation position of the detected touch operation. When the operation of the button 11 is performed and when the touch sensor 13 detects the touch operation, an operation signal is output from the operation unit 110 to the main processor 140.
The LED display unit 17 is disposed immediately below the track pad 14 (FIG. 1) and includes an LED (not shown) and a drive circuit that lights the LED. The LED display unit 17 turns on, blinks, and turns off the LED according to the control of the main processor 140.

LED表示部17のLEDの発光パターンを図6に示す。
図6(A)及び(B)は、LED表示部17のLEDの輝度変化を示すタイミングチャートである。図6(A)に示す発光パターンではLED表示部17がLEDを周期的に点灯させ、LEDの輝度の立ち上がり及び立ち下がりは急峻である。これに対し、図6(B)の点灯パターンではLEDの輝度が緩やかに変化する。LED表示部17は、メインプロセッサー140の制御に従って、図6(A)または(B)に示すパターンでLEDを発光させる。また、LED表示部17は、LEDを常時点灯させてもよい。また、図6(A)または(B)に示すパターンにおいて、LEDが発光する時間T1と消灯する時間T2とは任意であり、例えば時間T1、T2を100ミリ秒以下としてもよい。この場合、LEDが点灯と消灯とを繰り返しても使用者には継続して点灯するように視認できる。また、LED表示部17は、時間T1、T2の比を制御することで、LEDの輝度についてPWM制御を行ってもよい。
The light emission pattern of the LED of the LED display part 17 is shown in FIG.
FIGS. 6A and 6B are timing charts showing changes in the luminance of the LEDs of the LED display unit 17. In the light emission pattern shown in FIG. 6A, the LED display unit 17 periodically turns on the LED, and the rise and fall of the brightness of the LED are steep. On the other hand, in the lighting pattern of FIG. 6B, the luminance of the LED changes gently. The LED display unit 17 causes the LED to emit light according to the pattern shown in FIG. 6A or 6B under the control of the main processor 140. Moreover, the LED display part 17 may light up LED always. In the pattern shown in FIG. 6A or 6B, the time T1 during which the LED emits light and the time T2 during which the LED is turned off are arbitrary. For example, the times T1 and T2 may be 100 milliseconds or less. In this case, even if the LED is repeatedly turned on and off, the user can visually recognize that the light is continuously turned on. Further, the LED display unit 17 may perform PWM control on the luminance of the LED by controlling the ratio between the times T1 and T2.

図4に戻り、6軸センサー111は、3軸加速度センサー、及び、3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー111は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。
磁気センサー113は、例えば、3軸の地磁気センサーである。
GPS(Global Positioning System)115は、図示しないGPSアンテナを備え、GPS衛星から送信される無線信号を受信して、制御装置10の現在位置の座標を検出する。
6軸センサー111、磁気センサー113及びGPS115は、検出値を、予め指定されたサンプリング周期に従ってメインプロセッサー140に出力する。或いは、6軸センサー111、磁気センサー113及びGPS115は、メインプロセッサー140の要求に応じて、メインプロセッサー140により指定されたタイミングで、検出値をメインプロセッサー140に出力する。
Returning to FIG. 4, the 6-axis sensor 111 is a motion sensor (inertial sensor) including a 3-axis acceleration sensor and a 3-axis gyro (angular velocity) sensor. The 6-axis sensor 111 may employ an IMU (Inertial Measurement Unit) in which the above sensors are modularized.
The magnetic sensor 113 is, for example, a triaxial geomagnetic sensor.
A GPS (Global Positioning System) 115 includes a GPS antenna (not shown), receives a radio signal transmitted from a GPS satellite, and detects the coordinates of the current position of the control device 10.
The six-axis sensor 111, the magnetic sensor 113, and the GPS 115 output detection values to the main processor 140 according to a sampling period specified in advance. Alternatively, the six-axis sensor 111, the magnetic sensor 113, and the GPS 115 output detection values to the main processor 140 at a timing designated by the main processor 140 in response to a request from the main processor 140.

通信部117は、外部の機器との間で無線通信を実行する。通信部117は、アンテナ、RF回路、ベースバンド回路、通信制御回路等を備えて構成され、或いはこれらが統合されたデバイスで構成される。通信部117は、例えば、Bluetooth(登録商標)、無線LAN(Wi−Fi(登録商標)を含む)等の規格に準拠した無線通信を行う。
音声インターフェイス182は、音声信号を入出力するインターフェイスである。本実施形態では、音声インターフェイス182は、接続ケーブル40に設けられたコネクター46(図1)を含む。音声コーデック180は、音声インターフェイス182に接続され、音声インターフェイス182を介して入出力される音声信号のエンコード/デコードを行う。また、音声コーデック180はアナログ音声信号からデジタル音声データへの変換を行うA/Dコンバーター、及び、その逆の変換を行うD/Aコンバーターを備えてもよい。例えば、本実施形態のHMD100は、音声を右イヤホン32及び左イヤホン34により出力し、マイク63で集音する。音声コーデック180は、メインプロセッサー140が出力するデジタル音声データをアナログ音声信号に変換して、音声インターフェイス182を介して出力する。また、音声コーデック180は、音声インターフェイス182に入力されるアナログ音声信号をデジタル音声データに変換してメインプロセッサー140に出力する。
The communication unit 117 performs wireless communication with an external device. The communication unit 117 includes an antenna, an RF circuit, a baseband circuit, a communication control circuit, and the like, or a device in which these are integrated. The communication unit 117 performs wireless communication conforming to standards such as Bluetooth (registered trademark) and wireless LAN (including Wi-Fi (registered trademark)).
The audio interface 182 is an interface for inputting and outputting audio signals. In the present embodiment, the audio interface 182 includes a connector 46 (FIG. 1) provided on the connection cable 40. The audio codec 180 is connected to the audio interface 182 and encodes / decodes an audio signal input / output via the audio interface 182. The audio codec 180 may include an A / D converter that converts analog audio signals to digital audio data, and a D / A converter that performs the reverse conversion. For example, the HMD 100 according to the present embodiment outputs sound by the right earphone 32 and the left earphone 34 and collects sound by the microphone 63. The audio codec 180 converts the digital audio data output from the main processor 140 into an analog audio signal and outputs the analog audio signal via the audio interface 182. The audio codec 180 converts an analog audio signal input to the audio interface 182 into digital audio data and outputs the digital audio data to the main processor 140.

外部コネクター184は、メインプロセッサー140と通信する外部の装置を接続するコネクターである。外部コネクター184は、例えば、外部の装置をメインプロセッサー140に接続して、メインプロセッサー140が実行するプログラムのデバッグや、HMD100の動作のログの収集を行う場合に、この外部の装置を接続するインターフェイスである。
外部メモリーインターフェイス186は、可搬型のメモリーデバイスを接続可能なインターフェイスであり、例えば、カード型記録媒体を装着してデータの読取が可能なメモリーカードスロットとインターフェイス回路とを含む。この場合のカード型記録媒体のサイズ、形状、規格は制限されず、適宜に変更可能である。
USB(Universal Serial Bus)コネクター188は、USB規格に準拠したコネクターとインターフェイス回路とを備え、USBメモリーデバイス、スマートフォン、コンピューター等を接続できる。USBコネクター188のサイズや形状、適合するUSB規格のバージョンは適宜に選択、変更可能である。
The external connector 184 is a connector that connects an external device that communicates with the main processor 140. The external connector 184 is an interface for connecting an external device when, for example, an external device is connected to the main processor 140 to debug a program executed by the main processor 140 or collect a log of the operation of the HMD 100. It is.
The external memory interface 186 is an interface to which a portable memory device can be connected. For example, the external memory interface 186 includes a memory card slot in which a card type recording medium is mounted and data can be read and an interface circuit. In this case, the size, shape and standard of the card type recording medium are not limited and can be changed as appropriate.
A USB (Universal Serial Bus) connector 188 includes a connector conforming to the USB standard and an interface circuit, and can connect a USB memory device, a smartphone, a computer, and the like. The size and shape of the USB connector 188 and the compatible USB standard version can be appropriately selected and changed.

また、HMD100は、バイブレーター19を備える。バイブレーター19は、モーター(図示略)、偏心した回転子(図示略)等を備え、メインプロセッサー140の制御に従って振動を発生する。HMD100は、例えば、操作部110に対する操作を検出した場合、HMD100の電源がオン/オフされる場合等に、所定の振動パターンでバイブレーター19により振動を発生する。   Further, the HMD 100 includes a vibrator 19. The vibrator 19 includes a motor (not shown), an eccentric rotor (not shown), and the like, and generates vibrations under the control of the main processor 140. The HMD 100 generates vibration by the vibrator 19 with a predetermined vibration pattern, for example, when an operation on the operation unit 110 is detected, or when the power of the HMD 100 is turned on / off.

センサーハブ192及びFPGA194は、インターフェイス(I/F)196を介して、画像表示部20を接続される。センサーハブ192は、画像表示部20が備える各種センサーの検出値を取得してメインプロセッサー140に出力する。また、FPGA194は、メインプロセッサー140と画像表示部20の各部との間で送受信するデータの処理、及び、インターフェイス196を介した伝送を実行する。   The sensor hub 192 and the FPGA 194 are connected to the image display unit 20 via an interface (I / F) 196. The sensor hub 192 acquires detection values of various sensors included in the image display unit 20 and outputs them to the main processor 140. The FPGA 194 executes processing of data transmitted and received between the main processor 140 and each unit of the image display unit 20 and transmission via the interface 196.

画像表示部20の右表示ユニット22及び左表示ユニット24は、それぞれ、制御装置10に接続される。図1に示すように、HMD100では左保持部23に接続ケーブル40が接続され、この接続ケーブル40に繋がる配線が画像表示部20内部に敷設され、右表示ユニット22と左表示ユニット24のそれぞれが制御装置10に接続される。   The right display unit 22 and the left display unit 24 of the image display unit 20 are each connected to the control device 10. As shown in FIG. 1, in the HMD 100, a connection cable 40 is connected to the left holding unit 23, wiring connected to the connection cable 40 is laid inside the image display unit 20, and each of the right display unit 22 and the left display unit 24 is Connected to the control device 10.

右表示ユニット22は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)211、インターフェイス211を介して制御装置10から入力されるデータを受信する受信部(Rx)213、及び、EEPROM215(記憶部)が実装される。
インターフェイス211は、受信部213、EEPROM215、温度センサー217、カメラ61、照度センサー65、及びLEDインジケーター67を、制御装置10に接続する。
The right display unit 22 includes a display unit substrate 210. The display unit substrate 210 includes an interface (I / F) 211 connected to the interface 196, a receiving unit (Rx) 213 that receives data input from the control device 10 via the interface 211, and an EEPROM 215 (storage unit) ) Is implemented.
The interface 211 connects the receiving unit 213, the EEPROM 215, the temperature sensor 217, the camera 61, the illuminance sensor 65, and the LED indicator 67 to the control device 10.

EEPROM(Electrically Erasable Programmable Read-Only Memory)215は、各種のデータをメインプロセッサー140が読み取り可能に記憶する。EEPROM215は、例えば、画像表示部20が備えるOLEDユニット221、241の発光特性や表示特性に関するデータ、右表示ユニット22または左表示ユニット24が備えるセンサーの特性に関するデータなどを記憶する。具体的には、OLEDユニット221、241のガンマ補正に係るパラメーター、温度センサー217、239の検出値を補償するデータ等を記憶する。これらのデータは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれ、出荷後はメインプロセッサー140がEEPROM215のデータを利用して処理を行える。   An EEPROM (Electrically Erasable Programmable Read-Only Memory) 215 stores various data so that the main processor 140 can read the data. The EEPROM 215 stores, for example, data relating to the light emission characteristics and display characteristics of the OLED units 221 and 241 provided in the image display unit 20, data relating to the characteristics of sensors provided in the right display unit 22 or the left display unit 24, and the like. Specifically, parameters relating to gamma correction of the OLED units 221, 241 and data for compensating the detection values of the temperature sensors 217, 239 are stored. These data are generated by the factory inspection of the HMD 100 and written in the EEPROM 215. After the shipment, the main processor 140 can perform processing using the data in the EEPROM 215.

カメラ61は、インターフェイス211を介して入力される信号に従って撮像を実行し、撮像画像データ、或いは、撮像結果を示す信号を制御装置10に出力する。
照度センサー65は、図1に示すように、前部フレーム27の端部ERに設けられ、画像表示部20を装着する使用者の前方からの外光を受光するよう配置される。照度センサー65は、受光量(受光強度)に対応する検出値を出力する。
LEDインジケーター67は、図1に示すように、前部フレーム27の端部ERにおいてカメラ61の近傍に配置される。LEDインジケーター67は、カメラ61による撮像を実行中に点灯して、撮像中であることを報知する。
The camera 61 executes imaging according to a signal input via the interface 211 and outputs captured image data or a signal indicating the imaging result to the control device 10.
As shown in FIG. 1, the illuminance sensor 65 is provided at the end ER of the front frame 27 and is arranged to receive external light from the front of the user wearing the image display unit 20. The illuminance sensor 65 outputs a detection value corresponding to the amount of received light (received light intensity).
As shown in FIG. 1, the LED indicator 67 is disposed near the camera 61 at the end ER of the front frame 27. The LED indicator 67 is lit during execution of imaging by the camera 61 to notify that imaging is in progress.

温度センサー217は、温度を検出し、検出温度に対応する電圧値あるいは抵抗値を、検出値として出力する。温度センサー217は、OLEDパネル223(図3)の裏面側に実装される。温度センサー217は、例えばOLED駆動回路225と同一の基板に実装されてもよい。この構成により、温度センサー217は、主としてOLEDパネル223の温度を検出する。   The temperature sensor 217 detects the temperature and outputs a voltage value or a resistance value corresponding to the detected temperature as a detected value. The temperature sensor 217 is mounted on the back side of the OLED panel 223 (FIG. 3). For example, the temperature sensor 217 may be mounted on the same substrate as the OLED drive circuit 225. With this configuration, the temperature sensor 217 mainly detects the temperature of the OLED panel 223.

受信部213は、インターフェイス211を介してメインプロセッサー140が送信するデータを受信する。受信部213は、OLEDユニット221で表示する画像の画像データを受信した場合に、受信した画像データを、OLED駆動回路225(図2)に出力する。   The receiving unit 213 receives data transmitted from the main processor 140 via the interface 211. When receiving the image data of the image displayed on the OLED unit 221, the receiving unit 213 outputs the received image data to the OLED drive circuit 225 (FIG. 2).

左表示ユニット24は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)231、インターフェイス231を介して制御装置10から入力されるデータを受信する受信部(Rx)233が実装される。また、表示ユニット基板210には、6軸センサー235、及び、磁気センサー237が実装される。
インターフェイス231は、受信部233、6軸センサー235、磁気センサー237、及び温度センサー239を、制御装置10に接続する。
The left display unit 24 includes a display unit substrate 210. On the display unit substrate 210, an interface (I / F) 231 connected to the interface 196 and a receiving unit (Rx) 233 that receives data input from the control device 10 via the interface 231 are mounted. In addition, a 6-axis sensor 235 and a magnetic sensor 237 are mounted on the display unit substrate 210.
The interface 231 connects the receiving unit 233, the six-axis sensor 235, the magnetic sensor 237, and the temperature sensor 239 to the control device 10.

6軸センサー235(表示部動き検出部)は、3軸加速度センサー、及び、3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー235は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。
磁気センサー237は、例えば、3軸の地磁気センサーである。
The 6-axis sensor 235 (display unit motion detection unit) is a motion sensor (inertia sensor) including a 3-axis acceleration sensor and a 3-axis gyro (angular velocity) sensor. The 6-axis sensor 235 may employ an IMU (Inertial Measurement Unit) in which the above sensors are modularized.
The magnetic sensor 237 is, for example, a triaxial geomagnetic sensor.

温度センサー239は、温度を検出し、検出温度に対応する電圧値あるいは抵抗値を、検出値として出力する。温度センサー239は、OLEDパネル243(図3)の裏面側に実装される。温度センサー239は、例えばOLED駆動回路245と同一の基板に実装されてもよい。この構成により、温度センサー239は、主としてOLEDパネル243の温度を検出する。
また、温度センサー239が、OLEDパネル243或いはOLED駆動回路245に内蔵されてもよい。また、上記基板は半導体基板であってもよい。具体的には、OLEDパネル243が、Si−OLEDとして、OLED駆動回路245等とともに統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー239を実装してもよい。
The temperature sensor 239 detects the temperature and outputs a voltage value or a resistance value corresponding to the detected temperature as a detected value. The temperature sensor 239 is mounted on the back side of the OLED panel 243 (FIG. 3). The temperature sensor 239 may be mounted on the same substrate as the OLED drive circuit 245, for example. With this configuration, the temperature sensor 239 mainly detects the temperature of the OLED panel 243.
Further, the temperature sensor 239 may be incorporated in the OLED panel 243 or the OLED drive circuit 245. The substrate may be a semiconductor substrate. Specifically, when the OLED panel 243 is mounted as an Si-OLED as an integrated circuit on an integrated semiconductor chip together with the OLED drive circuit 245 and the like, the temperature sensor 239 may be mounted on the semiconductor chip.

右表示ユニット22が備えるカメラ61、照度センサー65、温度センサー217、及び、左表示ユニット24が備える6軸センサー235、磁気センサー237、温度センサー239は、センサーハブ192に接続される。センサーハブ192は、メインプロセッサー140の制御に従って各センサーのサンプリング周期の設定及び初期化を行う。センサーハブ192は、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データの送信、検出値の取得等を実行する。また、センサーハブ192は、予め設定されたタイミングで、右表示ユニット22及び左表示ユニット24が備える各センサーの検出値を、メインプロセッサー140に出力する。センサーハブ192は、各センサーの検出値を、メインプロセッサー140に対する出力のタイミングに合わせて一時的に保持する機能を備えてもよい。また、センサーハブ192は、各センサーの出力値の信号形式、或いはデータ形式の相違に対応し、統一されたデータ形式のデータに変換して、メインプロセッサー140に出力する機能を備えてもよい。
また、センサーハブ192は、メインプロセッサー140の制御に従ってLEDインジケーター67への通電を開始及び停止させ、カメラ61が撮像を開始及び終了するタイミングに合わせて、LEDインジケーター67を点灯または点滅させる。
The camera 61, the illuminance sensor 65, the temperature sensor 217, and the 6-axis sensor 235, the magnetic sensor 237, and the temperature sensor 239 included in the left display unit 24 are connected to the sensor hub 192. The sensor hub 192 sets and initializes the sampling period of each sensor according to the control of the main processor 140. The sensor hub 192 executes energization to each sensor, transmission of control data, acquisition of a detection value, and the like in accordance with the sampling period of each sensor. The sensor hub 192 outputs detection values of the sensors included in the right display unit 22 and the left display unit 24 to the main processor 140 at a preset timing. The sensor hub 192 may have a function of temporarily holding the detection value of each sensor in accordance with the output timing to the main processor 140. In addition, the sensor hub 192 may have a function of converting to data in a unified data format and outputting the data to the main processor 140 in response to a difference in signal format or data format of the output value of each sensor.
The sensor hub 192 starts and stops energization of the LED indicator 67 according to the control of the main processor 140, and lights or blinks the LED indicator 67 in accordance with the timing when the camera 61 starts and ends imaging.

制御装置10は、電源部130を備え、電源部130から供給される電力により動作する。電源部130は充電可能なバッテリー132、及び、バッテリー132の残容量の検出およびバッテリー132への充電の制御を行う電源制御回路134を備える。電源制御回路134はメインプロセッサー140に接続され、バッテリー132の残容量の検出値、或いは電圧の検出値をメインプロセッサー140に出力する。また、電源部130が供給する電力に基づき、制御装置10から画像表示部20に電力を供給してもよい。また、電源部130から制御装置10の各部及び画像表示部20への電力の供給状態を、メインプロセッサー140が制御可能な構成としてもよい。   The control device 10 includes a power supply unit 130 and operates with power supplied from the power supply unit 130. The power supply unit 130 includes a rechargeable battery 132 and a power supply control circuit 134 that detects the remaining capacity of the battery 132 and controls the charging of the battery 132. The power control circuit 134 is connected to the main processor 140 and outputs a detected value of the remaining capacity of the battery 132 or a detected value of the voltage to the main processor 140. Further, the power may be supplied from the control device 10 to the image display unit 20 based on the power supplied from the power supply unit 130. The power supply state from the power supply unit 130 to each unit of the control device 10 and the image display unit 20 may be configured to be controllable by the main processor 140.

図5は、制御装置10の制御系を構成する記憶部122、及び制御部150の機能ブロック図である。図5に示す記憶部122は、不揮発性記憶部121(図4)により構成される論理的な記憶部であり、EEPROM215を含んでもよい。また、制御部150、及び、制御部150が有する各種の機能部は、メインプロセッサー140がプログラムを実行することによって、ソフトウェアとハードウェアとの協働により形成される。制御部150、及び制御部150を構成する各機能部は、例えば、メインプロセッサー140、メモリー118、及び不揮発性記憶部121により構成される。   FIG. 5 is a functional block diagram of the storage unit 122 and the control unit 150 that constitute the control system of the control device 10. The storage unit 122 illustrated in FIG. 5 is a logical storage unit configured by the nonvolatile storage unit 121 (FIG. 4), and may include an EEPROM 215. The control unit 150 and various functional units included in the control unit 150 are formed by cooperation of software and hardware by the main processor 140 executing a program. The control unit 150 and each functional unit constituting the control unit 150 include, for example, a main processor 140, a memory 118, and a nonvolatile storage unit 121.

制御部150は、記憶部122が記憶するデータを利用して各種処理を実行し、HMD100を制御する。
記憶部122は、制御部150が処理する各種のデータを記憶する。記憶部122は、設定データ123、コンテンツデータ124、操作設定データ125、及び表示制御データ126を記憶する。設定データ123は、HMD100の動作に係る各種の設定値を含む。また、制御部150がHMD100を制御する際にパラメーター、行列式、演算式、LUT(LookUp Table)等を用いる場合、これらを設定データ123に含めてもよい。
The control unit 150 executes various processes using data stored in the storage unit 122 and controls the HMD 100.
The storage unit 122 stores various data processed by the control unit 150. The storage unit 122 stores setting data 123, content data 124, operation setting data 125, and display control data 126. The setting data 123 includes various setting values related to the operation of the HMD 100. When the control unit 150 controls the HMD 100, parameters, determinants, arithmetic expressions, LUTs (Look Up Tables), and the like may be included in the setting data 123.

コンテンツデータ124は、制御部150の制御によって画像表示部20が表示する画像や映像を含むコンテンツのデータであり、画像データ、或いは映像データを含む。また、コンテンツデータ124は、音声データを含んでもよい。また、コンテンツデータ124は複数の画像の画像データを含んでもよく、この場合、これら複数の画像は同時に画像表示部20に表示される画像に限定されない。
また、コンテンツデータ124は、コンテンツを画像表示部20により表示する際に、制御装置10によって使用者の操作を受け付けて、受け付けた操作に応じた処理を制御部150が実行する、双方向型のコンテンツであってもよい。この場合、コンテンツデータ124は、操作を受け付ける場合に表示するメニュー画面の画像データ、メニュー画面に含まれる項目に対応する処理等を定めるデータ等を含んでもよい。
The content data 124 is content data including images and videos displayed by the image display unit 20 under the control of the control unit 150, and includes image data or video data. Further, the content data 124 may include audio data. The content data 124 may include image data of a plurality of images. In this case, the plurality of images are not limited to images displayed on the image display unit 20 at the same time.
The content data 124 is an interactive type in which when the content is displayed on the image display unit 20, the control device 10 receives a user operation and the control unit 150 executes a process according to the received operation. It may be content. In this case, the content data 124 may include image data of a menu screen that is displayed when an operation is accepted, data that defines processing corresponding to items included in the menu screen, and the like.

操作設定データ125は、制御部150が、制御装置10を動かすモーション操作を検出する処理において使用するデータである。操作設定データ125は、ケース10Aのモーションとして予め設定された1または複数の動きのパターンについて、それぞれのモーションを判定するためのデータを含む。具体的には、モーションの種類毎に、6軸センサー111が検出する動きの検出値、或いは検出値の変化のデータを含む。このデータは6軸センサー111の複数の検出値を含んでもよいし、検出値から演算により得られる特徴量のデータであってもよい。操作設定データ125は、6軸センサー111の検出値から、ケース10Aが、設定されたモーションに該当する動きをしたか否かを判定できるデータであればよい。より好ましくは、設定された複数のモーションの中から、6軸センサー111が検出したケース10Aの動きに該当するモーションを特定可能なデータである。   The operation setting data 125 is data used by the control unit 150 in a process of detecting a motion operation that moves the control device 10. The operation setting data 125 includes data for determining each motion of one or a plurality of motion patterns preset as the motion of the case 10A. Specifically, for each type of motion, a detection value of motion detected by the 6-axis sensor 111 or data of a change in detection value is included. This data may include a plurality of detection values of the six-axis sensor 111, or may be feature amount data obtained by calculation from the detection values. The operation setting data 125 may be data that can determine from the detection value of the six-axis sensor 111 whether or not the case 10A has moved corresponding to the set motion. More preferably, the data can identify a motion corresponding to the movement of the case 10 </ b> A detected by the 6-axis sensor 111 from a plurality of set motions.

表示制御データ126は、ケース10Aのモーションに対応して、画像表示部20が表示する画像等の表示状態を変化させる処理で使用されるデータである。より詳細には、設定されたケース10Aのモーションに対応付けて、表示状態を変化させる態様を示すデータを含む。制御部150は、操作設定データ125に基づきケース10Aのモーションを検出し、特定した場合に、特定したモーションに対応付けて表示制御データ126に設定された態様で、画像表示部20の表示を変化させる。   The display control data 126 is data used in processing for changing the display state of an image or the like displayed by the image display unit 20 in accordance with the motion of the case 10A. More specifically, it includes data indicating a mode of changing the display state in association with the set motion of the case 10A. When the control unit 150 detects and identifies the motion of the case 10A based on the operation setting data 125, the control unit 150 changes the display of the image display unit 20 in a manner set in the display control data 126 in association with the identified motion. Let

制御部150は、オペレーティングシステム(OS)143、画像処理部145、表示制御部147、撮像制御部149、及び、操作検出制御部152の機能を有する。オペレーティングシステム143の機能は、記憶部122が記憶する制御プログラムの機能であり、その他の各部は、オペレーティングシステム143上で実行されるアプリケーションプログラムの機能である。   The control unit 150 has functions of an operating system (OS) 143, an image processing unit 145, a display control unit 147, an imaging control unit 149, and an operation detection control unit 152. The functions of the operating system 143 are functions of a control program stored in the storage unit 122, and the other units are functions of application programs executed on the operating system 143.

画像処理部145は、画像表示部20により表示する画像または映像の画像データに基づいて、右表示ユニット22及び左表示ユニット24に送信する信号を生成する。画像処理部145が生成する信号は、垂直同期信号、水平同期信号、クロック信号、アナログ画像信号等であってもよい。
また、画像処理部145は、必要に応じて、画像データの解像度を右表示ユニット22及び左表示ユニット24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部145は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、或いは2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。画像処理部145は、これらの画像処理を実行した場合、処理後の画像データに基づき画像を表示するための信号を生成して、接続ケーブル40を介して画像表示部20に送信する。
The image processing unit 145 generates a signal to be transmitted to the right display unit 22 and the left display unit 24 based on image data of an image or video displayed by the image display unit 20. The signal generated by the image processing unit 145 may be a vertical synchronization signal, a horizontal synchronization signal, a clock signal, an analog image signal, or the like.
Further, the image processing unit 145 may perform resolution conversion processing for converting the resolution of the image data to a resolution suitable for the right display unit 22 and the left display unit 24 as necessary. The image processing unit 145 also performs image adjustment processing for adjusting the brightness and saturation of image data, 2D image data from 3D image data, 2D / 3D conversion processing for generating 3D image data from 2D image data, and the like. May be executed. When these image processes are executed, the image processing unit 145 generates a signal for displaying an image based on the processed image data, and transmits the signal to the image display unit 20 via the connection cable 40.

画像処理部145は、メインプロセッサー140がプログラムを実行して実現される構成のほか、メインプロセッサー140とは別のハードウェア(例えば、DSP(Digital Signal Processor))で構成してもよい。   The image processing unit 145 may be configured by hardware (for example, DSP (Digital Signal Processor)) different from the main processor 140 in addition to the configuration realized by the main processor 140 executing a program.

表示制御部147は、右表示ユニット22及び左表示ユニット24を制御する制御信号を生成し、この制御信号により、右表示ユニット22及び左表示ユニット24のそれぞれによる画像光の生成及び射出を制御する。具体的には、表示制御部147は、OLED駆動回路225、245を制御して、OLEDパネル223、243による画像の表示を実行させる。表示制御部147は、画像処理部145が出力する信号に基づきOLED駆動回路225、245がOLEDパネル223、243に描画するタイミングの制御、OLEDパネル223、243の輝度の制御等を行う。
また、表示制御部147は、操作検出制御部152が制御装置10のモーションを検出した場合に、表示制御データ126に従って、画像表示部20に表示する画像等の表示態様を変化させる。
The display control unit 147 generates a control signal for controlling the right display unit 22 and the left display unit 24, and controls the generation and emission of image light by the right display unit 22 and the left display unit 24 based on the control signal. . Specifically, the display control unit 147 controls the OLED drive circuits 225 and 245 to cause the OLED panels 223 and 243 to display an image. The display control unit 147 controls the timing at which the OLED drive circuits 225 and 245 draw on the OLED panels 223 and 243, controls the luminance of the OLED panels 223 and 243, and the like based on the signal output from the image processing unit 145.
Further, the display control unit 147 changes the display mode of an image or the like displayed on the image display unit 20 according to the display control data 126 when the operation detection control unit 152 detects the motion of the control device 10.

撮像制御部149は、カメラ61を制御して撮像を実行させ、撮像画像データを生成し、記憶部122に一時的に記憶する。また、カメラ61が撮像画像データを生成する回路を含むカメラユニットとして構成される場合、撮像制御部149は撮像画像データをカメラ61から取得して、記憶部122に一時的に記憶する。   The imaging control unit 149 controls the camera 61 to execute imaging, generates captured image data, and temporarily stores the captured image data in the storage unit 122. When the camera 61 is configured as a camera unit including a circuit that generates captured image data, the imaging control unit 149 acquires captured image data from the camera 61 and temporarily stores the captured image data in the storage unit 122.

操作検出制御部152は、トラックパッド14及び操作部110における操作を検出し、操作に対応するデータを出力する。操作検出制御部152は、例えば、操作部110のボタン等が操作された場合、操作内容を示す操作データを生成して、表示制御部147に出力する。表示制御部147は、操作検出制御部152から入力される操作データに従って表示状態を変更する。   The operation detection control unit 152 detects an operation on the track pad 14 and the operation unit 110, and outputs data corresponding to the operation. For example, when a button or the like of the operation unit 110 is operated, the operation detection control unit 152 generates operation data indicating the operation content and outputs the operation data to the display control unit 147. The display control unit 147 changes the display state according to the operation data input from the operation detection control unit 152.

操作検出制御部152は、LED表示部17の点灯中に、ソフトウェアボタンの操作を検出する。操作検出制御部152は、LED表示部17の点灯中、LED表示部17の点灯により表示される記号の位置に対する接触操作を、予め機能が割り当てられたボタン(ソフトウェア操作子)の操作として検出する。
例えば、図1の例で、記号○(丸)の位置に接触する操作を、記号○(丸)の位置に予め割り当てられたホームボタンの操作として検出する。この場合、操作検出制御部152は、画像表示部20の表示画面や制御装置10の動作状態を、オペレーティングシステム143の基本状態に移行させる。
また、例えば、図1の例で、記号□(四角形)の位置に接触する操作を、記号□(四角形)の位置に予め割り当てられた履歴ボタンの操作として検出する。この場合、操作検出制御部152は、画像表示部20の表示画面や制御装置10の過去の動作状態を示す画面を、画像表示部20により表示させる。
The operation detection control unit 152 detects the operation of the software button while the LED display unit 17 is lit. The operation detection control unit 152 detects a contact operation with respect to the position of the symbol displayed when the LED display unit 17 is lit while the LED display unit 17 is lit as an operation of a button (software operator) to which a function is assigned in advance. .
For example, in the example of FIG. 1, an operation that touches the position of the symbol ◯ (circle) is detected as an operation of a home button assigned in advance to the position of the symbol ◯ (circle). In this case, the operation detection control unit 152 shifts the display screen of the image display unit 20 and the operation state of the control device 10 to the basic state of the operating system 143.
Further, for example, in the example of FIG. 1, an operation that touches the position of the symbol □ (square) is detected as an operation of a history button assigned in advance to the position of the symbol □ (square). In this case, the operation detection control unit 152 causes the image display unit 20 to display a display screen of the image display unit 20 and a screen indicating a past operation state of the control device 10.

操作検出制御部152は、6軸センサー111の検出値に基づいて、ケース10Aの動きを特定し、このケース10Aの動きが、予め設定されたモーションに該当するか否かを判定する。また、本実施形態で、操作検出制御部152は、ケース10Aの動きに該当するモーションを特定する処理を行う。この処理で、操作検出制御部152は、6軸センサー111の検出値を取得する。また、6軸センサー111が検出する検出値を複数取得してもよく、例えば、6軸センサー111が所定の周期で検出を行う場合に、6軸センサー111が連続して検出する複数の検出値を、継続して取得してもよい。操作検出制御部152は、6軸センサー111の検出値を、必要に応じてメモリー118或いは不揮発性記憶部121に記憶してもよい。例えば、メモリー118或いは不揮発性記憶部121にリングバッファーを形成し、操作検出制御部152が6軸センサー111の検出値を常時取得して、リングバッファーに記憶させてもよい。この場合、リングバッファーには、リングバッファーの容量に対応する数の、最新の検出値が記憶される。操作検出制御部152は、リングバッファーに記憶された検出値と操作設定データ125とをもとに上記処理を行うことができる。
また、操作検出制御部152は、トラックパッド14における操作を検出した場合に、トラックパッド14の操作検出領域(検出領域)における操作位置の座標を取得する。
The operation detection control unit 152 identifies the movement of the case 10A based on the detection value of the 6-axis sensor 111, and determines whether or not the movement of the case 10A corresponds to a preset motion. In the present embodiment, the operation detection control unit 152 performs a process of specifying a motion corresponding to the movement of the case 10A. In this process, the operation detection control unit 152 acquires the detection value of the six-axis sensor 111. Further, a plurality of detection values detected by the six-axis sensor 111 may be acquired. For example, when the six-axis sensor 111 performs detection at a predetermined cycle, a plurality of detection values that the six-axis sensor 111 continuously detects. May be acquired continuously. The operation detection control unit 152 may store the detection value of the six-axis sensor 111 in the memory 118 or the nonvolatile storage unit 121 as necessary. For example, a ring buffer may be formed in the memory 118 or the nonvolatile storage unit 121, and the operation detection control unit 152 may constantly acquire the detection value of the six-axis sensor 111 and store it in the ring buffer. In this case, the latest detection values corresponding to the capacity of the ring buffer are stored in the ring buffer. The operation detection control unit 152 can perform the above processing based on the detection value stored in the ring buffer and the operation setting data 125.
The operation detection control unit 152 acquires the coordinates of the operation position in the operation detection area (detection area) of the track pad 14 when an operation on the track pad 14 is detected.

HMD100は、コンテンツの供給元となる種々の外部機器を接続するインターフェイス(図示略)を備えてもよい。例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスであってもよく、無線通信インターフェイスで構成してもよい。この場合の外部機器は、HMD100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。この場合、HMD100は、これらの外部機器から入力されるコンテンツデータに基づく画像や音声を出力できる。   The HMD 100 may include an interface (not shown) for connecting various external devices that are content supply sources. For example, an interface corresponding to a wired connection such as a USB interface, a micro USB interface, or a memory card interface may be used, or a wireless communication interface may be used. The external device in this case is an image supply device that supplies an image to the HMD 100, and a personal computer (PC), a mobile phone terminal, a portable game machine, or the like is used. In this case, the HMD 100 can output images and sounds based on content data input from these external devices.

図7は、制御装置10を用いた操作例を示す説明図であり、具体的には、ケース10Aを動かすモーションの例を示す。図7(A)、(B)は、いずれも使用者がケース10Aを手に持った状態を示し、図7(A)は制御装置10を使用者側から見た正面図であり、図7(B)は側面図である。なお、図7(A)、(B)において接続ケーブル40の図示を省略する。   FIG. 7 is an explanatory diagram showing an operation example using the control device 10, and specifically shows an example of a motion for moving the case 10A. 7A and 7B show a state where the user holds the case 10A in his / her hand, and FIG. 7A is a front view of the control device 10 as viewed from the user side. (B) is a side view. In addition, illustration of the connection cable 40 is abbreviate | omitted in FIG. 7 (A), (B).

本実施形態では、制御装置10を動かす操作の態様として、6通りのモーションが予め規定される。
図7(A)には、4通りのモーションA、B、C、Dを示す。図7(B)には2通りのモーションE、Fを示す。
図の例では使用者が右手RHでケース10Aを把持しているが、左手で持ってもよい。また、使用者が治具等を用いて関節的にケース10Aを掴んでもよい。
In the present embodiment, six motions are defined in advance as modes of operation for moving the control device 10.
FIG. 7A shows four types of motions A, B, C, and D. FIG. 7B shows two types of motions E and F.
In the illustrated example, the user holds the case 10A with the right hand RH, but may hold it with the left hand. Further, the user may grasp the case 10A jointly using a jig or the like.

モーションAは、制御装置10を、使用者の身体の左右を基準として、図に矢印Aで示すように右回り(時計回り:CW)に回転させる動作である。6軸センサー111は、ケース10Aの右回りの移動を示す加速度及び角速度を検出する。モーションBは、図に矢印Bで示すように、制御装置10を左回り(反時計回り:CCW)に回転させる動作である。モーションAは右回転動作と呼ぶことができ、モーションBは左回転動作と呼ぶことができる。   The motion A is an operation of rotating the control device 10 clockwise (clockwise: CW) as indicated by an arrow A with reference to the left and right sides of the user's body. The 6-axis sensor 111 detects acceleration and angular velocity indicating the clockwise movement of the case 10A. Motion B is an operation of rotating the control device 10 counterclockwise (counterclockwise: CCW) as indicated by an arrow B in the figure. Motion A can be called a right rotation operation, and Motion B can be called a left rotation operation.

制御装置10には、図に示すように使用者が手に持って使用する場合の左右方向が予め設定されている。例えば、図7(A)、(B)に示すように、使用者がケース10Aを手に持つ場合、ケース10Aの上端を上にし、トラックパッド14が配置された面を使用者の右側に向けるよう予め規定されてもよい。なお、ケース10Aの上端面とは、LEDインジケーター12及び電源スイッチ18が設けられた面である。また、制御装置10を使用者が手に持つ場合の右側、及び左側を、ケース10Aのどの面とするか、HMD100の操作によって使用者が設定できる構成であってもよい。この場合、6軸センサー111の検出方向と、使用者の身体の左右とを対応付けるデータが、操作設定データ125に含まれる。   As shown in the figure, the control device 10 is preset in the left-right direction when the user holds it in his / her hand. For example, as shown in FIGS. 7A and 7B, when the user holds the case 10A in his / her hand, the upper end of the case 10A is turned up and the surface on which the track pad 14 is arranged faces the right side of the user. It may be specified in advance as follows. The upper end surface of the case 10A is a surface on which the LED indicator 12 and the power switch 18 are provided. Moreover, the structure which a user can set by the operation of HMD100 which surface of case 10A is made into the right side and the left side when a user holds the control apparatus 10 in hand may be sufficient. In this case, the operation setting data 125 includes data that associates the detection direction of the six-axis sensor 111 with the left and right sides of the user's body.

モーションCは、制御装置10を、図に矢印Cで示すように右側に弧を描くように移動させる動作であり、モーションDは図に矢印Dで示すように、制御装置10を左側に弧を描くように移動させる動作である。モーションCは右移動動作と呼ぶことができ、モーションDは左移動動作と呼ぶことができる。
なお、図に矢印C´で示すように、制御装置10を右に直線的に移動させる動作が、モーションCとして検出される構成であってもよい。同様に、図に矢印D´で示すように、制御装置10を左に直線的に移動させる動作が、モーションDとして検出される構成であってもよい。
Motion C is an operation of moving the control device 10 so as to draw an arc on the right side as indicated by an arrow C in the drawing, and Motion D is an operation of moving the control device 10 on the left side as indicated by an arrow D in the drawing. It is an operation to move as if drawing. Motion C can be referred to as a right movement operation, and Motion D can be referred to as a left movement operation.
Note that, as indicated by an arrow C ′ in the figure, an operation for linearly moving the control device 10 to the right may be detected as motion C. Similarly, as indicated by an arrow D ′ in the figure, a configuration in which an operation of linearly moving the control device 10 to the left may be detected as a motion D.

モーションEは、図7(B)に矢印Eで示すように、制御装置10を上方に弧を描くように移動させる動作である。モーションFは、図7(B)にFで示すように、制御装置10を下方に弧を描くように移動させる動作である。モーションEは振り上げ動作と呼ぶことができ、モーションDは振り下ろし動作と呼ぶことができる。図に矢印E´で示すように、制御装置10を上に直線的に移動させる動作が、モーションEとして検出される構成であってもよい。また、図に矢印F´で示すように、制御装置10を下に直線的に移動させる動作が、モーションEとして検出される構成であってもよい。   The motion E is an operation of moving the control device 10 so as to draw an arc upward as indicated by an arrow E in FIG. The motion F is an operation of moving the control device 10 so as to draw an arc downward as indicated by F in FIG. Motion E can be referred to as a swing-up operation, and motion D can be referred to as a swing-down operation. As indicated by an arrow E ′ in the figure, an operation for linearly moving the control device 10 upward may be detected as motion E. Further, as indicated by an arrow F ′ in the figure, an operation for linearly moving the control device 10 downward may be detected as motion E.

これら6通りのモーションのいくつかは、互いに対をなすモーション(動き)として対応付けられる。モーションAとモーションBとは互いに対をなすモーションとして設定される。同様に、モーションCとモーションD、モーションEとモーションFとが、互いに対をなすモーションとして設定される。以下、互いに対をなすモーションを、逆モーションと呼ぶ。例えば、モーションBはモーションAの逆モーションに相当し、逆も同様である。モーションC、D、E、Fも同様である。   Some of these six types of motion are associated with each other as a pair of motions (motions). Motion A and motion B are set as a pair of motions. Similarly, motion C and motion D, motion E and motion F are set as a pair of motions. Hereinafter, a pair of motions is called reverse motion. For example, motion B corresponds to the reverse motion of motion A, and vice versa. The same applies to the motions C, D, E, and F.

これら対をなすモーションは、いずれか一方が第1の動き方向の動作(動き、モーション)に相当し、他方が第2の動き方向の動作に相当する。第1の動き方向と第2の動き方向とは、逆方向に限定されない。6軸センサー111或いは6軸センサー111に代えて使用される磁気センサー113及び/またはカメラ61により、異なる方向の動きとして検出可能な方向であればよい。モーションA〜F、C´、D´、E´、F´は、それぞれ、特定の方向の動きとして設定されるが、当該特定の方向に近い動きを、当該特定の方向の動きとみなしてもよい。例えば、図7(A)に示すモーションCは、図中の水平方向の動きであるが、水平に対して5度程度の角度の範囲の動きを、モーションCとして検出してもよい。同一方向のモーションとみなす範囲は任意に設定可能であり、例えば±5度としてもよいし、±10度としてもよい。第1の動き方向及び第2の動き方向についても同様である。   One of these paired motions corresponds to an operation (movement, motion) in the first movement direction, and the other corresponds to an operation in the second movement direction. The first movement direction and the second movement direction are not limited to the opposite directions. Any direction may be used as long as it can be detected as a movement in a different direction by the six-axis sensor 111 or the magnetic sensor 113 and / or the camera 61 used instead of the six-axis sensor 111. Each of the motions A to F, C ′, D ′, E ′, and F ′ is set as a movement in a specific direction, but a movement close to the specific direction is regarded as a movement in the specific direction. Good. For example, the motion C shown in FIG. 7A is a horizontal movement in the figure, but a movement in an angle range of about 5 degrees with respect to the horizontal may be detected as the motion C. The range regarded as the motion in the same direction can be arbitrarily set, for example, ± 5 degrees or ± 10 degrees. The same applies to the first movement direction and the second movement direction.

操作検出制御部152は、モーションA〜Fの6通りのケース10Aの動きを検出し、表示制御部147は、操作検出制御部152が検出したモーションに対応するように画像表示部20の表示を制御する。   The operation detection control unit 152 detects the movement of the six cases 10A of motions A to F, and the display control unit 147 displays the image display unit 20 so as to correspond to the motion detected by the operation detection control unit 152. Control.

図8、図9及び図10は、HMDの操作に対応する表示の変化を示す説明図である。
図8には、表示を拡大する例、及び縮小する例を示す。図8(A)は拡大する前の表示例を示し、図8(B)は拡大後の表示例を示し、図8(C)は縮小前の表示例を示し、図8(D)は縮小後の表示例を示す。図中の符号VRは使用者の視野を示し、符号Vは右表示ユニット22及び左表示ユニット24により画像を表示可能な表示領域を示す。符号W1、W2、W3は、表示領域Vに表示される画像の一例として、ウィンドウを示す。
8, 9 and 10 are explanatory diagrams showing changes in display corresponding to the operation of the HMD.
FIG. 8 shows an example of enlarging and reducing the display. 8A shows a display example before enlargement, FIG. 8B shows a display example after enlargement, FIG. 8C shows a display example before reduction, and FIG. 8D shows reduction. The following display example is shown. Reference sign VR in the figure indicates a user's visual field, and reference sign V indicates a display area in which an image can be displayed by the right display unit 22 and the left display unit 24. Reference numerals W1, W2, and W3 denote windows as examples of images displayed in the display area V.

図8(A)に示す状態から、ケース10Aのモーションに対応して、図中に矢印で示すよう表示を拡大する場合、表示制御部147は、表示領域Vにおいて拡大処理の中心位置CEを決定する。中心位置CEは、トラックパッド14における操作で指定されてもよいし、拡大処理を開始する際のポインター(図示略)の位置等に基づき自動的に決定されてもよい。図8(B)の例では、図8(A)に示した表示領域VのウィンドウW1が中心位置CEを中心として拡大されて表示される。図8(A)の表示例と図8(B)の表示例とを比較して、ウィンドウW1を拡大する拡大率は、フローチャートを参照して後述するように、制御装置10に対する操作によって決定してもよいし、予め設定されてもよい。   In the state shown in FIG. 8A, when the display is enlarged as shown by an arrow in the drawing corresponding to the motion of the case 10A, the display control unit 147 determines the center position CE of the enlargement process in the display region V. To do. The center position CE may be designated by an operation on the track pad 14 or may be automatically determined based on the position of a pointer (not shown) when starting the enlargement process. In the example of FIG. 8B, the window W1 of the display area V shown in FIG. 8A is enlarged and displayed with the center position CE as the center. Comparing the display example of FIG. 8A and the display example of FIG. 8B, the enlargement ratio for enlarging the window W1 is determined by an operation on the control device 10, as will be described later with reference to a flowchart. It may be set in advance.

また、図8(C)に示す状態から、ケース10Aのモーションに対応して、図中に矢印で示すように表示を縮小する場合も、表示制御部147は、表示領域Vにおいて縮小処理の中心位置CEを決定する。中心位置CEは、トラックパッド14における操作で指定されてもよいし、拡大処理を開始する際のポインター(図示略)の位置等に基づき自動的に決定されてもよい。図8(D)の例では、図8(C)に示した表示領域VのウィンドウW1が中心位置CEを中心として縮小されて表示される。図8(C)の表示例と図8(D)の表示例とを比較して、ウィンドウW1を縮小する縮小率は、フローチャートを参照して後述するように、制御装置10に対する操作によって決定してもよいし、予め設定されてもよい。   In the case where the display is reduced as shown by an arrow in the figure from the state shown in FIG. 8C in response to the motion of the case 10A, the display control unit 147 also performs the center of the reduction process in the display region V. A position CE is determined. The center position CE may be designated by an operation on the track pad 14 or may be automatically determined based on the position of a pointer (not shown) when starting the enlargement process. In the example of FIG. 8D, the window W1 of the display area V shown in FIG. 8C is reduced and displayed around the center position CE. Comparing the display example of FIG. 8C and the display example of FIG. 8D, the reduction ratio for reducing the window W1 is determined by an operation on the control device 10, as will be described later with reference to a flowchart. It may be set in advance.

図9は表示をスクロールする例を示す。図9(A)はスクロール前の表示例を示し、図9(B)は上方向にスクロールした表示例を示し、図9(C)は下方向にスクロールした表示例を示す。
図9(A)に示す状態から、表示制御部147は、ケース10Aのモーションに対応して、図中に矢印で示すように、上下に表示をスクロールできる。上方向にスクロールした場合、図9(B)に示すように、ウィンドウW1の表示位置が上に移動する。また、下方向にスクロールした場合、図9(C)に示すようにウィンドウW1の表示位置が下に移動する。図9(A)〜図9(C)の表示例に示すようにウィンドウW1をスクロールするスクロール量は、フローチャートを参照して後述するように、制御装置10に対する操作によって決定してもよいし、予め設定されてもよい。
また、図示はしないが、表示制御部147は、表示領域Vに表示する画像を、左方向、或いは右方向に移動させる、横スクロール処理を実行してもよい。
FIG. 9 shows an example of scrolling the display. FIG. 9A shows a display example before scrolling, FIG. 9B shows a display example scrolled upward, and FIG. 9C shows a display example scrolled downward.
From the state shown in FIG. 9A, the display control unit 147 can scroll the display up and down as shown by the arrows in the drawing in accordance with the motion of the case 10A. When scrolling upward, as shown in FIG. 9B, the display position of the window W1 moves upward. When scrolling downward, the display position of the window W1 moves downward as shown in FIG. 9C. As shown in the display examples of FIGS. 9A to 9C, the scroll amount for scrolling the window W1 may be determined by an operation on the control device 10, as will be described later with reference to a flowchart. It may be set in advance.
Although not shown, the display control unit 147 may execute a horizontal scroll process in which an image displayed in the display area V is moved leftward or rightward.

図9(B)の上方向のスクロール、及び、図9(C)の下方向のスクロールのいずれか一方は第1表示動作方向に相当し、他方は第2表示動作方向に相当する。これらはあくまで一例であり、第1表示動作方向及び第2表示動作方向は、互いに異なる方向の表示の動きであればよい。例えば、横向き(右及び左のいずれでもよい)のスクロール方向と、上下方向(上または下のいずれでもよい)のスクロール方向とを、第1表示動作方向及び第2表示動作方向としてもよい。また、斜め方向への表示の動きを、第1表示動作方向及び/または第2表示動作方向としてもよい。すなわち、使用者にとって異なる方向であると識別可能な2つの方向への表示の動きを、第1表示動作方向及び第2表示動作方向とすることができる。   Either one of the upward scroll in FIG. 9B and the downward scroll in FIG. 9C corresponds to the first display operation direction, and the other corresponds to the second display operation direction. These are merely examples, and the first display operation direction and the second display operation direction may be display movements in different directions. For example, the horizontal display direction (which may be either right or left) and the vertical direction (which may be either up or down) may be used as the first display operation direction and the second display operation direction. The display movement in the oblique direction may be the first display operation direction and / or the second display operation direction. That is, the display movement in two directions that can be identified as different directions for the user can be the first display operation direction and the second display operation direction.

また、図9(B)、図9(C)には、ケース10Aを上方向に動かす操作に対応して上方向の表示のスクロールを実行し、ケース10Aを下方向に動かす操作に対応して下方向の表示のスクロールを実行する例を示した。これらは一例であり、6軸センサー111が検出するケース10Aの動きと、表示の動き方向とを、使用者に対して相対的に同じ方向とする必要はない。6軸センサー111が検出する動きの方向と、表示の動き方向とは、予め対応付けられていればよく、例えば逆方向であってもよい。   Further, in FIGS. 9B and 9C, in response to the operation of moving the case 10A upward, scrolling of the display in the upward direction is executed, and in response to the operation of moving the case 10A downward. An example of scrolling the display in the downward direction was shown. These are merely examples, and the movement of the case 10A detected by the 6-axis sensor 111 and the movement direction of the display need not be the same relative to the user. The direction of movement detected by the six-axis sensor 111 and the direction of movement of display need only be associated in advance, and may be in the opposite direction, for example.

図10は表示を切り替える例を示す。図10(A)は処理前の表示例を示し、図10(B)は表示を前の画面に遷移させた表示例を示し、図10(C)は表示を次の画面に遷移させた表示例を示す。
図10(A)〜(C)に示す例は、表示制御部147が表示するコンテンツデータ124が、表示順序が設定された複数の画像を含み、このコンテンツデータ124の再生時に、表示制御部147が表示順に従って画像を切り替えて表示する例に該当する。これらの画像は、単一の写真等の画像に限らず、例えば1つの画面を構成する画像やテキストの組合せであってもよい。具体的には、制御部150がオペレーティングシステム143上でアプリケーションプログラムを実行する構成において、ウェブブラウザーが表示するウェブページが挙げられる。また、アプリケーションプログラムとしてプレゼンテーションプログラムを実行する構成では、複数の画像を含むコンテンツデータ124として、複数のスライドシートを有するプレゼンテーション用のスライドシートが挙げられる。
FIG. 10 shows an example of switching the display. 10A shows a display example before processing, FIG. 10B shows a display example in which the display is changed to the previous screen, and FIG. 10C is a table in which the display is changed to the next screen. An example is shown.
In the example shown in FIGS. 10A to 10C, the content data 124 displayed by the display control unit 147 includes a plurality of images in which the display order is set, and when the content data 124 is reproduced, the display control unit 147 is displayed. Corresponds to an example of switching and displaying images according to the display order. These images are not limited to images such as a single photo, but may be, for example, a combination of images and text that constitute one screen. Specifically, in a configuration in which the control unit 150 executes an application program on the operating system 143, a web page displayed by a web browser is given. In a configuration in which a presentation program is executed as an application program, a presentation slide sheet having a plurality of slide sheets can be cited as the content data 124 including a plurality of images.

図10(A)は一例として、プレゼンテーション用のスライドシートを表示する例を示す。例えば、図10(A)ではスライドシートを含むウィンドウW1が表示され、この状態で表示制御部147が画面を前の画面に遷移させると、表示領域Vには前のスライドシートを含むウィンドウW2が表示される。また、図10(A)で表示制御部147が画面を次の画面に遷移させると、表示領域Vには次のスライドシートを含むウィンドウW3が表示される。
つまり、図10(A)〜(C)の例では、表示順が設定された複数の画像を表示する動作において、画像を順に切り替える表示変化と画像を逆順に切り替える表示変化とを示している。
FIG. 10A shows an example in which a slide sheet for presentation is displayed as an example. For example, in FIG. 10A, a window W1 including a slide sheet is displayed. When the display control unit 147 changes the screen to the previous screen in this state, the window W2 including the previous slide sheet is displayed in the display area V. Is displayed. In addition, when the display control unit 147 changes the screen to the next screen in FIG. 10A, a window W3 including the next slide sheet is displayed in the display area V.
That is, in the example of FIGS. 10A to 10C, in an operation of displaying a plurality of images in which the display order is set, a display change for sequentially switching images and a display change for switching images in reverse order are shown.

本実施形態では、モーションA(右回転)に対応して、表示制御部147が表示を拡大し、モーションB(左回転)に対応して表示制御部147が表示を縮小するよう設定される。また、モーションE(振り上げ)に対応して表示制御部147が表示を上方向にスクロールさせ、モーションF(振り下ろし)に対応して表示制御部147が表示を下方向にスクロールさせる。また、モーションC(右移動)に対応して表示制御部147が表示を次の画面に遷移させ、モーションD(左移動)に対応して表示制御部147が表示を次の画面に遷移させる。   In the present embodiment, the display control unit 147 is set to enlarge the display corresponding to the motion A (right rotation), and the display control unit 147 is set to reduce the display corresponding to the motion B (left rotation). Further, the display control unit 147 scrolls the display upward corresponding to the motion E (up), and the display control unit 147 scrolls the display downward corresponding to the motion F (down). In addition, the display control unit 147 changes the display to the next screen corresponding to the motion C (right movement), and the display control unit 147 changes the display to the next screen corresponding to the motion D (left movement).

図11及び図12は、HMD100の動作を示すフローチャートである。
制御部150は、制御装置10を動かすモーション操作を開始すると(ステップS11)、トラックパッド14による位置指示(位置入力)を利用するか否かを判定する(ステップS12)。位置指示を利用する場合は、モーションAの実行時に表示を拡大する処理、及びモーションBの実行時に表示を縮小する処理で、中心位置CEをトラックパッド14の操作により指定する。位置指示を利用するか否かは、操作部110に対する入力操作で使用者が指定してもよいし、予め設定されてもよい。
11 and 12 are flowcharts showing the operation of the HMD 100.
When starting a motion operation for moving the control device 10 (step S11), the control unit 150 determines whether to use a position instruction (position input) by the track pad 14 (step S12). When the position instruction is used, the center position CE is designated by operating the track pad 14 in the process of enlarging the display when the motion A is executed and the process of reducing the display when the motion B is executed. Whether to use the position instruction may be designated by the user through an input operation on the operation unit 110, or may be set in advance.

位置指示を利用する場合(ステップS12;Yes)、制御部150は、ステップS31(図12)に移行する。この場合については後述する。
位置指示を利用しない場合(ステップS12;No)、制御部150は、6軸センサー111の検出値の取得を開始する(ステップS13)。この後、制御部150は、6軸センサー111の検出値を、予め設定された周期で取得する。
When the position instruction is used (step S12; Yes), the control unit 150 proceeds to step S31 (FIG. 12). This case will be described later.
When the position instruction is not used (step S12; No), the control unit 150 starts obtaining the detection value of the six-axis sensor 111 (step S13). Thereafter, the control unit 150 acquires the detection value of the six-axis sensor 111 at a preset cycle.

続いて、制御部150は、表示を制御するトリガーとなる操作の有無を判定し(ステップS14)、操作がない場合は(ステップS14;No)、操作があるまで待機する。トリガーとなる操作は、例えば、ケース10Aに設けられたボタン11等の各種の操作子に対する操作が挙げられる。本実施形態では、トラックパッド14に対する接触操作がトリガーとして設定されている。   Subsequently, the control unit 150 determines whether or not there is an operation serving as a trigger for controlling the display (step S14), and when there is no operation (step S14; No), the control unit 150 waits until there is an operation. Examples of the operation that serves as a trigger include operations on various operators such as the button 11 provided on the case 10A. In the present embodiment, a contact operation on the track pad 14 is set as a trigger.

制御部150は、トラックパッド14に対する接触操作が行われたと判定すると(ステップS14;Yes)、ステップS13で検出値の取得を開始してからの経過時間が、設定された時間(設定時間)に達したか否かを判定する(ステップS15)。   When the control unit 150 determines that the contact operation with respect to the track pad 14 has been performed (step S14; Yes), the elapsed time from the start of obtaining the detection value at step S13 is set to the set time (set time). It is determined whether or not it has been reached (step S15).

表示を制御するトリガーとなる操作に対応する操作子には、予め機能が割り当てられている。例えば、本実施形態ではトラックパッド14の接触操作がトリガー操作に設定されるが、トラックパッド14には位置入力操作、及び、LED表示部17の表示位置に対応するソフトウェアボタンの機能が割り当てられている。操作検出制御部152は、トラックパッド14の接触操作がされた場合に、トリガー操作として検出するか、トラックパッド14の位置入力操作またはLED表示部17の表示位置におけるソフトウェアボタンの操作を検出するかを、切り替えられる。操作検出制御部152は、6軸センサー111の検出値の取得を開始してからトラックパッド14が操作されるまでの経過時間が、設定時間に達した場合(ステップS15;Yes)、モーション操作を受け付けずに通常動作モードを実行する。操作検出制御部152は、既に取得して記憶した6軸センサー111の検出値をクリアし(ステップS16)、ステップS14で検出したトリガー操作について、通常の動作として割り当てられた機能を実行し(ステップS17)、本処理を終了する。
例えば、ステップS14でトラックパッド14の記号○(丸)の位置の接触を検出した場合、操作検出制御部152は、ステップS17で、ホームボタンの操作に対応する制御を行う。
Functions are assigned in advance to operators corresponding to operations that serve as triggers for controlling display. For example, in the present embodiment, the contact operation of the track pad 14 is set as the trigger operation, but the track pad 14 is assigned with the function of the position input operation and the software button corresponding to the display position of the LED display unit 17. Yes. Whether the operation detection control unit 152 detects a trigger operation when the touch operation of the track pad 14 is performed, or detects a position input operation of the track pad 14 or a software button operation at the display position of the LED display unit 17 Can be switched. When the elapsed time from the start of obtaining the detection value of the six-axis sensor 111 to the operation of the track pad 14 reaches the set time (step S15; Yes), the operation detection control unit 152 performs the motion operation. Execute normal operation mode without accepting. The operation detection control unit 152 clears the detection value of the six-axis sensor 111 that has already been acquired and stored (step S16), and executes the function assigned as the normal operation for the trigger operation detected in step S14 (step S16). S17), the process ends.
For example, when the contact of the position of the symbol ◯ (circle) on the track pad 14 is detected in step S14, the operation detection control unit 152 performs control corresponding to the operation of the home button in step S17.

経過時間が設定時間に達していない場合(ステップS15;No)、操作検出制御部152は、表示操作モードを開始する(ステップS18)。表示操作モードは、トリガー操作を、モーション操作のトリガーとして検出する動作モードである。操作検出制御部152は、6軸センサー111の検出値に基づきケース10Aの動きを解析する(ステップS19)。ステップS19で解析される検出値は、ステップS13で取得を開始しメモリー118または不揮発性記憶部121に記憶された過去の検出値を含み、特に、ステップS14でトリガーとなる操作を検出するまでの間に取得された検出値を含む。   When the elapsed time has not reached the set time (step S15; No), the operation detection control unit 152 starts the display operation mode (step S18). The display operation mode is an operation mode in which a trigger operation is detected as a motion operation trigger. The operation detection control unit 152 analyzes the movement of the case 10A based on the detection value of the six-axis sensor 111 (step S19). The detection values analyzed in step S19 include the past detection values that have been acquired in step S13 and stored in the memory 118 or the nonvolatile storage unit 121. In particular, the detection values until the trigger operation is detected in step S14. Includes detected values acquired in between.

例えば、使用者が制御装置10を手に持って動かし、ケース10Aが動いている間にトラックパッド14に接触した場合、制御部150は、トラックパッド14の接触操作の前からのケース10Aの動きを解析する。例えば、使用者の意図に反して、制御装置10を動かす操作と、トリガーとなる操作とのタイミングがずれた場合も、使用者が意図して行ったケース10Aの動きが解析される。   For example, when the user moves the control device 10 in his / her hand and touches the track pad 14 while the case 10A is moving, the control unit 150 moves the case 10A from before the contact operation of the track pad 14. Is analyzed. For example, the movement of the case 10A intentionally performed by the user is analyzed even when the timing between the operation of moving the control device 10 and the operation as a trigger is shifted against the intention of the user.

操作検出制御部152は、ステップS19で解析したケース10Aの動きに該当するモーションが、予め設定されたモーション(例えば、モーションA〜F)の中にあるか否かを判定する(ステップS20)。該当するモーションがない場合(ステップS20;No)、操作検出制御部152は、再びケース10Aの動きを解析し(ステップS21)、ステップS20に戻って判定を行う。ステップS21では、ステップS19からステップS21までの間に取得される6軸センサー111の検出値を含めて解析を行うため、新たなケース10Aのモーションを検出できる可能性がある。   The operation detection control unit 152 determines whether the motion corresponding to the movement of the case 10A analyzed in step S19 is in a preset motion (for example, motions A to F) (step S20). When there is no corresponding motion (step S20; No), the operation detection control unit 152 analyzes the movement of the case 10A again (step S21), and returns to step S20 to make a determination. In step S21, since the analysis is performed including the detection value of the six-axis sensor 111 acquired between step S19 and step S21, the motion of the new case 10A may be detected.

ケース10Aの動きに該当するモーションがある場合(ステップS20;Yes)、操作検出制御部152は、組合せ操作を実行するか否かを判定する(ステップS22)。組合せ操作とは、対をなす複数のモーションを組み合わせることで表示を制御する操作方法である。組合せ操作を行うか否かは、制御装置10に対する操作によって決定してもよいし、予め設定されてもよい。   When there is a motion corresponding to the movement of the case 10A (step S20; Yes), the operation detection control unit 152 determines whether or not to perform a combination operation (step S22). The combination operation is an operation method for controlling display by combining a plurality of pairs of motions. Whether or not to perform the combination operation may be determined by an operation on the control device 10 or may be set in advance.

組合せ操作を行わない場合(ステップS23;No)、表示制御部147は、操作検出制御部152がステップS20で判定したモーションに対応する表示変化の内容と、表示の変化量とを決定する(ステップS23)。例えば、モーションA、Bに対応して拡大率/縮小率を決定し、モーションE、Fに対応してスクロール方向とスクロール量とを決定する。表示の変化量は、モーションの種類ごとに、予め設定された量とすることができる。   When the combination operation is not performed (step S23; No), the display control unit 147 determines the content of the display change corresponding to the motion determined by the operation detection control unit 152 in step S20 and the display change amount (step). S23). For example, the enlargement / reduction ratio is determined corresponding to the motions A and B, and the scroll direction and the scroll amount are determined corresponding to the motions E and F. The amount of change in display can be set in advance for each type of motion.

表示制御部147は、ステップS23で決定した表示制御の内容と、表示変化の変化量とに従って、画像表示部20の表示を変化させ(ステップS24)、後述するステップS29に移行する。   The display control unit 147 changes the display of the image display unit 20 according to the display control content determined in step S23 and the amount of change in display (step S24), and proceeds to step S29 described later.

組合せ操作を行う場合(ステップS23;Yes)、表示制御部147は、操作検出制御部152がステップS20で判定したモーションに対応する表示変化を開始する(ステップS25)。表示変化を開始してから、操作検出制御部152は、6軸センサー111の検出値に基づきケース10Aの動きを解析する(ステップS26)。操作検出制御部152は、ステップS20で判定したモーションの逆モーションに相当するケース10Aの動きが行われたか否かを判定する(ステップS27)。逆モーションの動きが行われない間は(ステップS27;No)、ステップS26〜S27の解析を行い待機する。   When performing a combination operation (step S23; Yes), the display control unit 147 starts a display change corresponding to the motion determined by the operation detection control unit 152 in step S20 (step S25). After starting the display change, the operation detection control unit 152 analyzes the movement of the case 10A based on the detection value of the six-axis sensor 111 (step S26). The operation detection control unit 152 determines whether or not the movement of the case 10A corresponding to the reverse motion of the motion determined in step S20 has been performed (step S27). While the motion of the reverse motion is not performed (step S27; No), the analysis of steps S26 to S27 is performed and the process waits.

操作検出制御部152が、逆モーションの動きが行われたと判定した場合(ステップS27;Yes)、表示制御部147は表示変化を停止させ(ステップS28)、ステップS29に移行する。
例えば、制御部150は、ステップS25で、モーションEに対応して上方向のスクロールを開始し、その後、ステップS27でモーションFが行われたと判定した場合、上方向のスクロールを停止させる。このように、モーションに対応する表示の変化を停止するタイミングを、逆モーションで指定できるので、表示の変化量を使用者が自在に調整できる。
When the operation detection control unit 152 determines that the motion of the reverse motion has been performed (step S27; Yes), the display control unit 147 stops the display change (step S28), and proceeds to step S29.
For example, the control unit 150 starts scrolling in the upward direction in response to the motion E in step S25, and then stops the scrolling in the upward direction when it is determined in step S27 that the motion F has been performed. As described above, since the timing for stopping the change in display corresponding to the motion can be specified by the reverse motion, the user can freely adjust the amount of change in the display.

ステップS29で、操作検出制御部152は、トリガー操作が解除されたか否かを判定する(ステップS29)。トリガー操作が解除されていない場合は(ステップS29;No)、ステップS20に戻る。また、トリガー操作に割り当てられた操作子の操作が解除された場合(ステップS29;Yes)、本処理を終了する。   In step S29, the operation detection control unit 152 determines whether or not the trigger operation has been released (step S29). If the trigger operation has not been released (step S29; No), the process returns to step S20. Further, when the operation of the operator assigned to the trigger operation is released (step S29; Yes), this process is terminated.

一方、位置指示を利用する場合(ステップS12;Yes)、操作検出制御部152は、トラックパッド14による位置指示操作が行われたか否かを判定し(ステップS31)、操作がない場合は(ステップS31;No)、操作があるまで待機する。操作検出制御部152は、トラックパッド14による位置指示操作が行われたと判定すると(ステップS31;Yes)、ステップS31で位置指示操作を待機した経過時間が、設定された時間(設定時間)に達したか否かを判定する(ステップS32)。   On the other hand, when the position instruction is used (step S12; Yes), the operation detection control unit 152 determines whether or not the position instruction operation by the track pad 14 has been performed (step S31). S31; No), it waits until there is an operation. When the operation detection control unit 152 determines that the position instruction operation by the track pad 14 has been performed (step S31; Yes), the elapsed time waiting for the position instruction operation in step S31 reaches the set time (set time). It is determined whether or not (step S32).

操作検出制御部152は、位置指示操作を待機した時間が設定時間に達したと判定した場合(ステップS32;Yes)、モーション操作を受け付けずに通常動作モードを実行する。操作検出制御部152は、上述したステップS16〜S17の動作を実行して、本処理を終了する。   If the operation detection control unit 152 determines that the time waiting for the position instruction operation has reached the set time (step S32; Yes), the operation detection control unit 152 executes the normal operation mode without accepting the motion operation. The operation detection control unit 152 executes the above-described operations of steps S16 to S17, and ends this process.

経過時間が設定時間に達していない場合(ステップS32;No)、操作検出制御部152は、表示操作モードを開始する(ステップS33)。操作検出制御部152は、6軸センサー111の検出値に基づきケース10Aの動きを解析する(ステップS34)。ステップS33で、操作検出制御部152は、既に取得されメモリー118または不揮発性記憶部121に記憶された過去の検出値を含めて解析を行ってもよい。   When the elapsed time has not reached the set time (step S32; No), the operation detection control unit 152 starts the display operation mode (step S33). The operation detection control unit 152 analyzes the movement of the case 10A based on the detection value of the 6-axis sensor 111 (step S34). In step S <b> 33, the operation detection control unit 152 may perform analysis including past detection values that have already been acquired and stored in the memory 118 or the nonvolatile storage unit 121.

操作検出制御部152は、ステップS34で解析したケース10Aの動きに該当するモーションが、予め設定されたモーション(例えば、モーションA〜F)の中にあるか否かを判定する(ステップS35)。該当するモーションがない場合(ステップS35;No)、操作検出制御部152は、再びケース10Aの動きを解析し(ステップS36)、ステップS35に戻って判定を行う。   The operation detection control unit 152 determines whether the motion corresponding to the movement of the case 10A analyzed in step S34 is in a preset motion (for example, motions A to F) (step S35). When there is no corresponding motion (step S35; No), the operation detection control unit 152 analyzes the motion of the case 10A again (step S36), and returns to step S35 to make a determination.

ケース10Aの動きに該当するモーションがある場合(ステップS35;Yes)、操作検出制御部152は、ステップS31で検出した位置指示操作の指示位置の座標を取得する(ステップS37)。ここで、操作検出制御部152は、取得した指示位置に対応する、右表示ユニット22及び左表示ユニット24の表示位置を求めてもよい。   When there is a motion corresponding to the movement of the case 10A (step S35; Yes), the operation detection control unit 152 acquires the coordinates of the position indicated by the position instruction operation detected in step S31 (step S37). Here, the operation detection control unit 152 may obtain the display positions of the right display unit 22 and the left display unit 24 corresponding to the acquired designated position.

操作検出制御部152は、組合せ操作を実行するか否かを判定する(ステップS38)。組合せ操作は上述したとおりである。組合せ操作を行わない場合(ステップS38;No)、表示制御部147は、ステップS23と同様に、操作検出制御部152がステップS36で判定したモーションに対応する表示変化の内容と、表示の変化量とを決定する(ステップS39)。   The operation detection control unit 152 determines whether to perform a combination operation (step S38). The combination operation is as described above. When the combination operation is not performed (step S38; No), the display control unit 147 displays the content of the display change corresponding to the motion determined by the operation detection control unit 152 in step S36 and the display change amount, as in step S23. Are determined (step S39).

表示制御部147は、操作検出制御部152がステップS37で取得した指示位置を基準として、ステップS39で決定した表示変化の内容及び変化量に従って、画像表示部20の表示を変化させ(ステップS40)、後述するステップS45に移行する。   The display control unit 147 changes the display of the image display unit 20 according to the display change content and the change amount determined in step S39, with the instruction position acquired by the operation detection control unit 152 in step S37 as a reference (step S40). Then, the process proceeds to step S45 described later.

組合せ操作を行う場合(ステップS38;Yes)、表示制御部147は、操作検出制御部152がステップS36で判定したモーションに対応する表示変化を開始する(ステップS41)。ステップS41では、ステップS37で操作検出制御部152が取得した指示位置を、表示変化の基準とする。
ステップS39、S41で、表示制御部147は、例えば図8(A)〜(D)に示したように、指示位置を中心位置CEとして表示の拡大、縮小を実行する。
When performing the combination operation (step S38; Yes), the display control unit 147 starts a display change corresponding to the motion determined by the operation detection control unit 152 in step S36 (step S41). In step S41, the indication position acquired by the operation detection control unit 152 in step S37 is used as a reference for display change.
In steps S39 and S41, the display control unit 147 executes display enlargement / reduction with the indicated position as the center position CE, for example, as shown in FIGS.

表示変化を開始してから、操作検出制御部152は、6軸センサー111の検出値に基づきケース10Aの動きを解析する(ステップS42)。操作検出制御部152は、ステップS20で判定したモーションの逆モーションに相当するケース10Aの動きが行われたか否かを判定する(ステップS43)。逆モーションの動きが行われない間は(ステップS43;No)、ステップS42〜S43の解析を行い待機する。   After starting the display change, the operation detection control unit 152 analyzes the movement of the case 10A based on the detection value of the six-axis sensor 111 (step S42). The operation detection control unit 152 determines whether or not the movement of the case 10A corresponding to the reverse motion of the motion determined in step S20 has been performed (step S43). While the motion of the reverse motion is not performed (Step S43; No), the analysis of Steps S42 to S43 is performed and the process waits.

操作検出制御部152が、逆モーションの動きが行われたと判定した場合(ステップS43;Yes)、表示制御部147は表示変化を停止させ(ステップS44)、ステップS45に移行する。
ステップS45で、操作検出制御部152は、トリガー操作が解除されたか否かを判定する(ステップS45)。トリガー操作が解除されていない場合は(ステップS45;No)、ステップS35に戻る。また、トリガー操作に割り当てられた操作子の操作が解除された場合(ステップS45;Yes)、本処理を終了する。
When the operation detection control unit 152 determines that the motion of the reverse motion has been performed (step S43; Yes), the display control unit 147 stops the display change (step S44), and proceeds to step S45.
In step S45, the operation detection control unit 152 determines whether or not the trigger operation has been released (step S45). If the trigger operation has not been released (step S45; No), the process returns to step S35. Further, when the operation of the operation element assigned to the trigger operation is released (step S45; Yes), this process ends.

なお、ステップS26〜S27において逆モーションが行われたと判定する前に、トリガー操作が解除された場合、表示制御部147は、逆モーションが行われた場合と同様にステップS28で表示変化を停止させて、本処理を終了してもよい。
ステップS42〜S43においても同様に、逆モーションが行われたと判定する前に、トリガー操作が解除された場合、表示制御部147は、逆モーションが行われた場合と同様にステップS44で表示変化を停止させて、本処理を終了してもよい。
さらに、逆モーションの他に、表時変化を停止させる特定のモーションが予め設定されてもよい。例えば、ケース10Aを、モーションE、Fよりも小さい動作量で、小刻みに上下させる動きを、表時変化を停止させるトリガーとなる停止モーションとして設定してもよい。この場合、ステップS27、S43で、操作検出制御部152は、逆モーションまたは停止モーションが行われたと判定すればよい。
If the trigger operation is canceled before determining that the reverse motion has been performed in steps S26 to S27, the display control unit 147 stops the display change in step S28 as in the case where the reverse motion has been performed. Then, this process may be terminated.
Similarly, in step S42 to S43, when the trigger operation is released before determining that the reverse motion has been performed, the display control unit 147 changes the display in step S44 in the same manner as when the reverse motion has been performed. You may stop and complete | finish this process.
Further, in addition to the reverse motion, a specific motion for stopping the change in time may be set in advance. For example, the movement that moves the case 10A in small increments with a smaller amount of motion than the motions E and F may be set as a stop motion that serves as a trigger to stop the change in time. In this case, in steps S27 and S43, the operation detection control unit 152 may determine that a reverse motion or a stop motion has been performed.

また、上述したステップS31では、トラックパッド14に対する最初の接触操作を操作検出制御部152が検出した場合に、位置指示操作がされたと判定してもよいが、使用者の指示によって指示位置を確定してもよい。例えば、トラックパッド14に対する接触操作が継続して行われた場合に、使用者が指示するタイミングで位置指示操作が行われたと判定し、当該タイミングにおける指示位置を、ステップS37で取得してもよい。使用者がタイミングを指示する方法は、例えば、制御装置10が備えるトラックパッド14以外の操作子の操作であってもよい。また、例えば、画像表示部20の動きによりタイミングを指定してもよい。具体的には、画像表示部20を小刻みに上下させる動きを、位置指示のタイミングを指定する表示部のモーションとして設定してもよい。画像表示部20の動きは、操作検出制御部152が、6軸センサー235の検出値に基づき検出し、判定できる。この場合、使用者は、トラックパッド14を操作しながら頭部を動かすことで、タイミングを指定できる。従って、画像表示部20を頭部、特に眼前に装着した使用者が、制御装置10を見ないで、任意の位置を指定する操作を容易に行える。また、使用者がトラックパッド14の接触操作を開始してから、画像表示部20の動きによりタイミングを指定するまでの間、トラックパッド14による指示位置すなわち接触位置を示す画像等を、画像表示部20に表示してもよい。この場合、使用者は画像表示部20の表示を見ながらトラックパッド14の操作位置を調整し、頭部の動きによって任意の指示位置を確定させることができ、より一層の操作性の向上を図ることができる。   In step S31 described above, when the operation detection control unit 152 detects the first contact operation with respect to the track pad 14, it may be determined that the position instruction operation has been performed, but the instruction position is determined by the user's instruction. May be. For example, when the contact operation with respect to the track pad 14 is continuously performed, it may be determined that the position instruction operation has been performed at the timing instructed by the user, and the designated position at the timing may be acquired in step S37. . The method of instructing the timing by the user may be, for example, an operation of an operator other than the track pad 14 provided in the control device 10. Further, for example, the timing may be designated by the movement of the image display unit 20. Specifically, the movement of moving the image display unit 20 up and down in small increments may be set as the motion of the display unit that specifies the timing of the position instruction. The movement of the image display unit 20 can be detected and determined by the operation detection control unit 152 based on the detection value of the 6-axis sensor 235. In this case, the user can designate the timing by moving the head while operating the track pad 14. Therefore, a user wearing the image display unit 20 on the head, particularly in front of the eyes, can easily perform an operation of designating an arbitrary position without looking at the control device 10. Also, an image indicating the position indicated by the track pad 14, that is, the contact position, is displayed from the start of the contact operation of the track pad 14 until the timing is designated by the movement of the image display unit 20. 20 may be displayed. In this case, the user can adjust the operation position of the track pad 14 while observing the display on the image display unit 20 to determine an arbitrary designated position by the movement of the head, thereby further improving the operability. be able to.

以上説明したように、HMD100は、使用者に画像を視認させる画像表示部20を有する頭部装着型の表示装置である。HMD100は、画像表示部20と独立して動かすことが可能な操作デバイスとしての制御装置10を有する。制御装置10は、制御装置10の動きを検出する6軸センサー111を有する。また、HMD100は、6軸センサー111が検出する動きに応じて画像表示部20の表示を制御する制御部150を備える。制御部150は、画像表示部20が表示する画像に対する処理として、6軸センサー111が検出する第1の動き方向の動きに対応する第1の表示変化、及び、6軸センサー111が検出する第2の動き方向の動きに対応する第2の表示変化を実行する。第1の動き方向の動きが検出された場合に第1の表示変化を開始し、その後、6軸センサー111により第2の動き方向の動きが検出された場合に、第1の表示変化を停止する。これにより、制御装置10を動かす操作により画像表示部20の表示を容易に制御できる。また、制御装置10の2方向の動きを組み合わせることによって、画像表示部20が表示する画像を所望の位置まで移動させることができる。   As described above, the HMD 100 is a head-mounted display device having the image display unit 20 that allows a user to visually recognize an image. The HMD 100 includes a control device 10 as an operation device that can be moved independently of the image display unit 20. The control device 10 includes a 6-axis sensor 111 that detects the movement of the control device 10. The HMD 100 also includes a control unit 150 that controls the display of the image display unit 20 according to the movement detected by the 6-axis sensor 111. The control unit 150 performs, as processing on the image displayed by the image display unit 20, the first display change corresponding to the movement in the first movement direction detected by the 6-axis sensor 111 and the first detection detected by the 6-axis sensor 111. The second display change corresponding to the movement in the second movement direction is executed. The first display change is started when movement in the first movement direction is detected, and then the first display change is stopped when movement in the second movement direction is detected by the six-axis sensor 111. To do. Thereby, the display of the image display unit 20 can be easily controlled by an operation of moving the control device 10. Further, by combining the movements of the control device 10 in two directions, the image displayed by the image display unit 20 can be moved to a desired position.

ここで、第1の動き方向の動き、及び/または、第2の動き方向の動きを検出する動き検出部は、6軸センサー111に限らず、磁気センサー113であってもよい。また、カメラ61の撮像画像を利用して、第1の動き方向の動き、及び/または、第2の動き方向の動きを検出することもでき、この場合はカメラ61が動き検出部に相当する。また、動き検出部に、カメラ61の撮像画像を解析して動きを検出する制御部150の機能を含めてもよい。   Here, the motion detector that detects the motion in the first motion direction and / or the motion in the second motion direction is not limited to the six-axis sensor 111 but may be the magnetic sensor 113. In addition, it is also possible to detect the movement in the first movement direction and / or the movement in the second movement direction using the captured image of the camera 61. In this case, the camera 61 corresponds to a movement detection unit. . Further, the motion detection unit may include a function of the control unit 150 that detects a motion by analyzing a captured image of the camera 61.

また、制御部150は、6軸センサー111により第1の動き方向の動きが検出された場合に第1の表示変化を実行し、6軸センサー111により第2の動き方向の動きが検出された場合に、第2の表示変化を実行する。これにより、制御装置10を動かすことによって画像表示部20が表示する画像を動かすことができ、画像の動きの方向を、制御装置10の動き方向により指示できる。   In addition, the control unit 150 executes the first display change when the movement in the first movement direction is detected by the six-axis sensor 111, and the movement in the second movement direction is detected by the six-axis sensor 111. If so, a second display change is performed. As a result, the image displayed by the image display unit 20 can be moved by moving the control device 10, and the direction of movement of the image can be indicated by the movement direction of the control device 10.

例えば、制御部150は、第1の動き方向の動きとしてモーションEを検出した場合に、第1の表示変化として上スクロールを行い、第2の動き方向の動きとしてモーションFを検出した場合に、第2の表示変化として下スクロールを実行できる。また、モーションEを検出して上スクロールを開始した後、第2の動き方向の動きとしてモーションFを検出した場合に、上スクロールを停止することもできる。   For example, when the controller 150 detects the motion E as the movement in the first movement direction, the control unit 150 performs the upward scroll as the first display change, and detects the motion F as the movement in the second movement direction. Down scrolling can be executed as the second display change. Further, after the motion E is detected and the upward scrolling is started, the upward scrolling can be stopped when the motion F is detected as the motion in the second motion direction.

また、制御部150は、トラックパッド14が操作を受け付けている状態で、6軸センサー111が検出する動きに応じて、画像表示部20の表示を変化させる。これにより、トラックパッド14の操作状態により、使用者が意図しない表示の変化を防止できる。   In addition, the control unit 150 changes the display of the image display unit 20 according to the movement detected by the six-axis sensor 111 in a state where the track pad 14 receives an operation. Thereby, the change of the display which a user does not intend by the operation state of the track pad 14 can be prevented.

また、制御部150は、トラックパッド14が操作を受け付けている状態で、6軸センサー111により第1の動き方向の動きを検出した場合に、第1の表示変化を実行する。これにより、トラックパッド14の操作状態により、使用者が意図しない表示の変化を防止できる。   In addition, the control unit 150 executes the first display change when the six-axis sensor 111 detects a movement in the first movement direction in a state where the track pad 14 receives an operation. Thereby, the change of the display which a user does not intend by the operation state of the track pad 14 can be prevented.

また、制御部150は、6軸センサー111により第1の動き方向の動きが検出された場合に、第1の表示変化を開始し、その後、トラックパッド14が操作を受け付けなくなった場合に、第1の表示変化を停止する。これにより、トラックパッド14の操作状態により、使用者が意図しない表示の変化を防止できる。   In addition, the control unit 150 starts the first display change when the movement in the first movement direction is detected by the six-axis sensor 111, and thereafter, when the track pad 14 no longer accepts the operation, The display change of 1 is stopped. Thereby, the change of the display which a user does not intend by the operation state of the track pad 14 can be prevented.

また、制御部150は、トラックパッド14が操作を受け付けている状態で、6軸センサー111により第2の動き方向の動きを検出した場合に、第2の表示変化を実行する。これにより、制御装置10を動かすことによって画像表示部20が表示する画像を動かすことができ、画像の動きの方向を、制御装置10の動き方向により指示できる。   In addition, the control unit 150 executes the second display change when the six-axis sensor 111 detects a movement in the second movement direction in a state where the track pad 14 receives an operation. As a result, the image displayed by the image display unit 20 can be moved by moving the control device 10, and the direction of movement of the image can be indicated by the movement direction of the control device 10.

また、トラックパッド14を含む操作受付部は、動き検出部としての6軸センサー111等の検出とは異なる操作を受け付ける。このため、6軸センサー等が検出する制御装置10の動きとは異なる操作によって、表示を制御する状態と、表示の制御を行わない状態とを選択できる。このため、使用者が意図しない表示の変化を、より確実に防止できる。   The operation receiving unit including the track pad 14 receives an operation different from the detection of the 6-axis sensor 111 or the like as the motion detecting unit. For this reason, a state in which display is controlled and a state in which display control is not performed can be selected by an operation different from the movement of the control device 10 detected by the 6-axis sensor or the like. For this reason, the change of the display which a user does not intend can be prevented more reliably.

ここで、動き検出部としての6軸センサー111の検出とは異なる操作の具体例として、上記実施形態では、トラックパッド14の操作を例示した。すなわち、操作検出部がトラックパッド14に相当する構成を例示した。本発明はこれに限定されず、上下キー15、切替スイッチ16、電源スイッチ18等が操作検出部として、動き検出部の検出とは異なる操作を検出してもよい。また、ケース10Aを動かす操作を動き検出部である6軸センサー111が検出する場合に、ケース10Aを叩く操作を、上記の「異なる操作」としてもよい。この場合、制御装置10が、ノックセンサーや圧力センサーを備え、これらのセンサーの検出を、動き検出部としての6軸センサー111の検出とは異なる操作としてもよい。   Here, as a specific example of the operation different from the detection of the six-axis sensor 111 as the motion detection unit, the operation of the track pad 14 is illustrated in the above embodiment. That is, the configuration in which the operation detection unit corresponds to the track pad 14 is illustrated. The present invention is not limited to this, and the up / down key 15, the changeover switch 16, the power switch 18, and the like may detect an operation different from the detection of the motion detection unit as the operation detection unit. Further, when the 6-axis sensor 111 that is the motion detection unit detects an operation of moving the case 10A, the operation of hitting the case 10A may be the above-mentioned “different operation”. In this case, the control device 10 may include a knock sensor and a pressure sensor, and the detection of these sensors may be an operation different from the detection of the six-axis sensor 111 as the motion detection unit.

上記実施形態では、本発明の操作デバイスの一例として、ケース10Aを有する制御装置10について説明したが、本発明はこれに限定されない。例えば、筐体を有さないカード型の操作デバイスであって、動き検出部に相当するセンサーと、操作受付部に相当する機能部とを備えるものであってもよい。また、他の装置に一体として構成された操作デバイス等も本発明を適用可能である。また、操作デバイスは、例えば、リモートコントローラー、制御装置、制御デバイス、小型デバイス、モーションデバイス等と呼ぶこともできる。   In the said embodiment, although the control apparatus 10 which has case 10A was demonstrated as an example of the operation device of this invention, this invention is not limited to this. For example, it may be a card-type operation device that does not have a housing, and may include a sensor corresponding to the motion detection unit and a functional unit corresponding to the operation reception unit. The present invention can also be applied to an operation device configured integrally with another apparatus. The operation device can also be called, for example, a remote controller, a control device, a control device, a small device, a motion device, or the like.

また、上記実施形態では、操作デバイスが画像表示部20と有線接続される構成を例示したが、本発明はこれに限定されず、操作デバイスと画像表示部20とが無線接続される構成であってもよい。この場合の無線通信方式は通信部117が対応する通信方式として例示した方式を採用してもよいし、その他の通信方式であってもよい。   In the above embodiment, the configuration in which the operation device is connected to the image display unit 20 by wire is illustrated. However, the present invention is not limited to this, and the operation device and the image display unit 20 are configured to be wirelessly connected. May be. In this case, the wireless communication method may be the method exemplified as the communication method supported by the communication unit 117, or may be another communication method.

また、操作デバイスが制御装置10の機能を備える必要はない。制御装置10とは別に、操作デバイスとして使用される装置、デバイス、ユニット、或いは器具を備えてもよい。   Further, the operation device need not have the function of the control device 10. In addition to the control apparatus 10, an apparatus, device, unit, or instrument used as an operation device may be provided.

例えば、制御装置10に代えて、使用者の身体、着衣、或いは、使用者が身につける装身具に取り付け可能なウェアラブルデバイスを操作デバイスとして、本発明を適用することも可能である。この場合のウェアラブルデバイスは、例えば、時計型の装置、指輪型の装置、レーザーポインター、マウス、エアーマウス、ゲームコントローラー、ペン型のデバイス等であってもよい。   For example, instead of the control device 10, the present invention can also be applied using a wearable device that can be attached to a user's body, clothes, or an accessory worn by the user as an operation device. The wearable device in this case may be, for example, a watch-type device, a ring-type device, a laser pointer, a mouse, an air mouse, a game controller, a pen-type device, or the like.

ここで、操作デバイスの別の例を説明する。
図13は、時計型デバイス3の外観図である。時計型デバイス3は、操作デバイスの別の例として使用できる。時計型デバイス3は、例えば制御装置10とともに使用される。この場合、制御装置10は、操作デバイスとして機能しない構成であってもよい。
Here, another example of the operation device will be described.
FIG. 13 is an external view of the watch-type device 3. The watch-type device 3 can be used as another example of the operation device. The watch-type device 3 is used together with the control device 10, for example. In this case, the control device 10 may be configured not to function as an operation device.

時計型デバイス3は、腕時計のバンドと同様の形状であるバンド部300を有する。バンド部300は、図示しないバックル等の固定部を有し、例えば使用者の前腕部に巻き付けて固定できる。時計型デバイス3のバンド部300には、時計の文字盤に相当する位置に、略円盤状の平面部300Aが形成される。平面部300Aには、ベゼル301、LCD303、ボタン305、リュウズ型操作子307、及び、複数のボタン309が設けられる。   The watch-type device 3 has a band portion 300 having a shape similar to that of a wristwatch band. The band part 300 has a fixing part such as a buckle (not shown), and can be wound and fixed around, for example, a user's forearm. The band portion 300 of the timepiece device 3 is formed with a substantially disk-shaped flat surface portion 300A at a position corresponding to the timepiece dial. The plane portion 300A is provided with a bezel 301, an LCD 303, a button 305, a crown-type operation element 307, and a plurality of buttons 309.

ベゼル301は、リング形状の操作子であり、平面部300Aの周縁部に配置される。ベゼル301は、バンド部300に対して円周方向に回転可能に設けられる。時計型デバイス3は、後述するように、ベゼル301の回転方向、及び回転量を検出する機構を備える。また、ベゼル301を回転可能にバンド部300に指示する機構は、回転に応じてさせる際にノッチ音を発生する記憶を備えてもよい。   The bezel 301 is a ring-shaped operation element, and is disposed on the peripheral portion of the flat surface portion 300A. The bezel 301 is provided so as to be rotatable in the circumferential direction with respect to the band unit 300. As will be described later, the timepiece device 3 includes a mechanism for detecting the rotation direction and the rotation amount of the bezel 301. The mechanism that instructs the band unit 300 to rotate the bezel 301 may include a memory that generates a notch sound when the bezel 301 is rotated.

LCD303は、文字や画像を表示する液晶ディスプレイである。
ボタン305は、ベゼル301の外側に配置される押しボタン式スイッチである。ボタン305は、時計型デバイス3の装着状態において、使用者から見てベゼル301の下方に位置する。ボタン305は、リュウズ型操作子307やボタン309に比べて大型であり、手探りでも操作が可能である。
The LCD 303 is a liquid crystal display that displays characters and images.
The button 305 is a push button type switch disposed outside the bezel 301. The button 305 is positioned below the bezel 301 when viewed from the user when the watch-type device 3 is attached. The button 305 is larger than the crown-type operation element 307 and the button 309 and can be operated by groping.

リュウズ型操作子307は、腕時計の竜頭を模した形状の操作子であり、図中矢印で示すように回転させることが可能である。時計型デバイス3は、使用者がリュウズ型操作子307を回転させた場合に、リュウズ型操作子307の回転方向、及び回転量を検出する機構を備える。また、リュウズ型操作子307を回転可能にバンド部300に指示する機構は、回転に応じてさせる際にノッチ音を発生する記憶を備えてもよい。   The crown-type operation element 307 is an operation element having a shape imitating a crown of a wristwatch, and can be rotated as indicated by an arrow in the drawing. The watch-type device 3 includes a mechanism for detecting the rotation direction and the rotation amount of the crown-type operation element 307 when the user rotates the crown-type operation element 307. In addition, the mechanism that instructs the band unit 300 to rotate the crown-type operation element 307 may include a memory that generates a notch sound when the crown unit 307 is rotated.

ボタン309は、平面部300Aの外周部に設けられた押しボタン式のスイッチである。ボタン309の数について特に制限はなく、本実施形態では4つのボタン309を設けた例を示す。
ボタン309には異なる機能を割り当てることが可能であり、各々のボタン309に割り当てられた機能を、LCD303に表示できる。
The button 309 is a push button type switch provided on the outer peripheral portion of the plane portion 300A. The number of buttons 309 is not particularly limited, and in the present embodiment, an example in which four buttons 309 are provided is shown.
Different functions can be assigned to the buttons 309, and the functions assigned to the buttons 309 can be displayed on the LCD 303.

この時計型デバイス3は、ベゼル301、ボタン305、リュウズ型操作子307、及び、ボタン309を、操作受付部として使用できる。これらの操作受付部は、例えば、通常動作時において、画像表示部20の表示を一時停止させるミュート機能の実行及び/または解除の指示をする機能や、画像表示部20が表示するポインターの種類の変更を指示する機能に割り当てられる。
また、時計型デバイス3は、通信部117と同様に機能する図示しない通信部、及び、6軸センサー111と同様の図示しないモーションセンサーを内蔵する。時計型デバイス3は、操作受付部として機能する各部に対する操作を検出し、検出結果を制御装置10に無線送信する。また、時計型デバイス3は、モーションセンサーの検出結果を制御装置10に無線送信する。
The watch-type device 3 can use the bezel 301, the button 305, the crown-type operation element 307, and the button 309 as an operation receiving unit. These operation accepting units are, for example, a function of instructing execution and / or cancellation of a mute function for temporarily stopping display of the image display unit 20 during normal operation, and types of pointers displayed by the image display unit 20. Assigned to the function that instructs change.
The watch-type device 3 includes a communication unit (not shown) that functions in the same manner as the communication unit 117 and a motion sensor (not shown) that is similar to the 6-axis sensor 111. The watch-type device 3 detects an operation on each unit functioning as an operation receiving unit, and wirelessly transmits the detection result to the control device 10. The watch-type device 3 wirelessly transmits the detection result of the motion sensor to the control device 10.

この構成において、制御装置10が、時計型デバイス3を、例えば上述したモーションA〜F、C´、D´、E´、F´に動かす操作を行う操作を検出することができる。また、制御装置10は、ベゼル301、ボタン305、リュウズ型操作子307、及び、ボタン309の操作を、モーションセンサーの検出とは異なる操作として検出する。この場合、ベゼル301、ボタン305、リュウズ型操作子307、及び、ボタン309を操作しながら、時計型デバイス3を動かす操作によって、画像表示部20における表示を制御できる。時計型デバイス3の動き方向と画像表示部20の表示の制御とは、例えば上述した実施形態と同様とすることができる。   In this configuration, the control device 10 can detect an operation for moving the timepiece device 3 to, for example, the motions A to F, C ′, D ′, E ′, and F ′ described above. Further, the control device 10 detects the operations of the bezel 301, the button 305, the crown-type operation element 307, and the button 309 as operations different from the detection of the motion sensor. In this case, the display on the image display unit 20 can be controlled by operating the bezel 301, the button 305, the crown type operator 307, and the button 309 while moving the watch-type device 3. The movement direction of the timepiece device 3 and the display control of the image display unit 20 can be the same as those in the above-described embodiment, for example.

図14は、リング型デバイス4の外観図である。リング型デバイス4は、指輪と同様の形状を有し、例えば使用者の指に装着される。リング型デバイス4の表面には、トラックパッド14と同様に接触操作を検出可能なトラックパッド401が設置される。リング型デバイス4は、図示しない検出回路により、トラックパッド401への接触を検出する。この構成において、トラックパッド401は、操作検出部として機能する。トラックパッド401は、例えば、通常動作時において、画像表示部20の表示を一時停止させるミュート機能の実行及び/または解除の指示をする機能や、画像表示部20が表示するポインターの種類の変更を指示する機能に割り当てられる。   FIG. 14 is an external view of the ring-type device 4. The ring-type device 4 has the same shape as a ring, and is attached to, for example, a user's finger. On the surface of the ring-type device 4, a track pad 401 capable of detecting a contact operation is installed similarly to the track pad 14. The ring type device 4 detects contact with the track pad 401 by a detection circuit (not shown). In this configuration, the track pad 401 functions as an operation detection unit. The track pad 401 performs, for example, a function for instructing execution and / or cancellation of a mute function for temporarily stopping the display of the image display unit 20 and a change in the type of pointer displayed by the image display unit 20 during normal operation. Assigned to the commanding function.

また、リング型デバイス4は、通信部117と同様に機能する図示しない通信部、及び、6軸センサー111と同様の図示しないモーションセンサーを内蔵する。リング型デバイス4は、操作受付部として機能する各部に対する操作を検出し、検出結果を制御装置10に無線送信する。また、時計型デバイス3は、モーションセンサーの検出結果を制御装置10に無線送信する。   The ring device 4 includes a communication unit (not shown) that functions in the same manner as the communication unit 117 and a motion sensor (not shown) that is similar to the 6-axis sensor 111. The ring type device 4 detects an operation on each unit functioning as an operation receiving unit, and wirelessly transmits the detection result to the control device 10. The watch-type device 3 wirelessly transmits the detection result of the motion sensor to the control device 10.

この構成において、制御装置10が、リング型デバイス4を、例えば上述したモーションA〜F、C´、D´、E´、F´に動かす操作を行う操作を検出することができる。また、制御装置10は、トラックパッド401の操作を、モーションセンサーの検出とは異なる操作として検出する。この場合、トラックパッド401を操作しながら、リング型デバイス4を動かす操作によって、画像表示部20における表示を制御できる。リング型デバイス4の動き方向と画像表示部20の表示の制御とは、例えば上述した実施形態と同様とすることができる。   In this configuration, the control device 10 can detect an operation for moving the ring device 4 to, for example, the motions A to F, C ′, D ′, E ′, and F ′ described above. Further, the control device 10 detects the operation of the track pad 401 as an operation different from the detection of the motion sensor. In this case, the display on the image display unit 20 can be controlled by the operation of moving the ring device 4 while operating the track pad 401. The movement direction of the ring-type device 4 and the display control of the image display unit 20 can be the same as those in the above-described embodiment, for example.

また、操作デバイスとして、時計型デバイス3やリング型デバイス4のように、使用者の身体に装着されるウェアラブルデバイスを用いる場合、使用者が身体を動かす操作により表示を容易に制御できる。また、モーションセンサーの検出とは異なる操作を検出して、モーションセンサーの検出値に基づく表示の制御を行うので、使用者が意図しない表示の変化を防止できる。このため、直感的な操作を実現するとともに、誤操作を防止し、使用者の意図の通りに表示を制御できる。   Further, when a wearable device that is worn on the user's body, such as the watch-type device 3 or the ring-type device 4, is used as the operation device, the display can be easily controlled by an operation of the user moving the body. Further, since an operation different from the detection of the motion sensor is detected and the display is controlled based on the detection value of the motion sensor, a display change unintended by the user can be prevented. Therefore, an intuitive operation can be realized, an erroneous operation can be prevented, and the display can be controlled as intended by the user.

時計型デバイス3、及び、リング型デバイス4を動かす方向は、例えば、図中に示すX軸方向、Y軸方向、及びZ軸方向を基準として検出し、特定できる。時計型デバイス3、及び、リング型デバイス4を特定の方向に動かすモーションは、上述したモーションA〜F、C´、D´、E´、F´と同様、第1の動き方向の動作、及び、第2の動き方向の動作に相当する。また、第1の動き方向の動作、及び、第2の動き方向は、特定の方向の動きとして設定されるが、当該特定の方向に近い動きを、当該特定の方向の動きとみなしてもよい。同一方向のモーションとみなす範囲は任意に設定可能であり、例えば±5度としてもよいし、±10度としてもよい。第1の動き方向及び第2の動き方向についても同様である。また、時計型デバイス3、及び、リング型デバイス4の動きの方向の基準は、時計型デバイス3、及び、リング型デバイス4のそれぞれが内蔵するモーションセンサーの検出方向に対応付けて予め設定されていればよい。従って、任意の方向を基準として設定することが可能であり、図中に示すX軸方向、Y軸方向、及びZ軸方向に限定されない。   The direction in which the watch-type device 3 and the ring-type device 4 are moved can be detected and specified based on, for example, the X-axis direction, the Y-axis direction, and the Z-axis direction shown in the drawing. The motion for moving the watch-type device 3 and the ring-type device 4 in a specific direction is the same as the motions A to F, C ′, D ′, E ′, and F ′ described above, This corresponds to the operation in the second movement direction. In addition, the movement in the first movement direction and the second movement direction are set as movements in a specific direction, but movements close to the specific direction may be regarded as movements in the specific direction. . The range regarded as the motion in the same direction can be arbitrarily set, for example, ± 5 degrees or ± 10 degrees. The same applies to the first movement direction and the second movement direction. Further, the reference of the movement direction of the watch-type device 3 and the ring-type device 4 is set in advance in association with the detection direction of the motion sensor incorporated in each of the watch-type device 3 and the ring-type device 4. Just do it. Therefore, any direction can be set as a reference, and is not limited to the X-axis direction, the Y-axis direction, and the Z-axis direction shown in the drawing.

また、時計型デバイス3及びリング型デバイス4は、制御装置10とともに使用される構成に限定されない。制御装置10に相当する機能を有し、画像表示部20の表示を制御可能な構成を、HMD100が備えていればよい。従って、画像表示部20においてメインプロセッサー140を含む各部を収容可能な構成とすれば、例えば、画像表示部20と時計型デバイス3、或いは、画像表示部20とリング型デバイス4とでHMD100を構成できる。   Further, the watch-type device 3 and the ring-type device 4 are not limited to the configuration used with the control device 10. The HMD 100 only needs to have a configuration that has a function corresponding to the control device 10 and that can control the display of the image display unit 20. Accordingly, if the image display unit 20 is configured to accommodate each unit including the main processor 140, for example, the image display unit 20 and the clock device 3 or the image display unit 20 and the ring device 4 constitute the HMD 100. it can.

なお、この発明は上記実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、上記実施形態において、使用者が表示部を透過して外景を視認する構成は、右導光板26及び左導光板28が外光を透過する構成に限定されない。例えば外景を視認できない状態で画像を表示する表示装置にも適用可能である。具体的には、カメラ61の撮像画像、この撮像画像に基づき生成される画像やCG、予め記憶された映像データや外部から入力される映像データに基づく映像等を表示する表示装置に、本発明を適用できる。この種の表示装置としては、外景を視認できない、いわゆるクローズ型の表示装置を含むことができる。また、上記実施形態で説明したように実空間に重ねて画像を表示するAR表示や、撮像した実空間の画像と仮想画像とを組み合わせるMR(Mixed Reality)表示、或いは仮想画像を表示するVR(Virtual Reality)表示といった処理を行わない表示装置にも適用できる。例えば、外部から入力される映像データまたはアナログ映像信号を表示する表示装置も、本発明の適用対象として勿論含まれる。
In addition, this invention is not restricted to the structure of the said embodiment, In the range which does not deviate from the summary, it can be implemented in a various aspect.
For example, in the above-described embodiment, the configuration in which the user visually recognizes the outside scene through the display unit is not limited to the configuration in which the right light guide plate 26 and the left light guide plate 28 transmit external light. For example, the present invention can be applied to a display device that displays an image in a state where an outside scene cannot be visually recognized. Specifically, the present invention is applied to a display device that displays a captured image of the camera 61, an image or CG generated based on the captured image, video based on video data stored in advance or video data input from the outside, and the like. Can be applied. This type of display device can include a so-called closed display device in which an outside scene cannot be visually recognized. In addition, as described in the above embodiment, AR display that displays an image superimposed on real space, MR (Mixed Reality) display that combines a captured real space image and a virtual image, or VR (VR that displays a virtual image) It can also be applied to a display device that does not perform processing such as virtual reality display. For example, a display device that displays video data or an analog video signal input from the outside is naturally included as an application target of the present invention.

また、上記実施形態では、画像表示部20に表示する画像の表示態様を変化させる例として、拡大、縮小、スクロール、表示順序に基づく画像の切り替えを例示したが、本発明はこれに限定されない。例えば、モーションに対応して、画像を回転させる制御、画像の表示輝度を変化させる制御、表示中の一部の画像や文字の表示サイズを拡大または縮小する制御等を行ってもよい。この場合、画像の回転方向、画像の表示輝度の変化方向(輝度上昇、低下)、サイズの拡大または縮小を、それぞれ異なるモーションに対応付けてもよい。また、モーションによる操作を開始するトリガーの操作は、トラックパッド14や、制御装置10が備えるボタン等の操作子に限定されず、ケース10Aの動きとは異なる方法により検出できる操作であれば良い。具体的には、6軸センサー111の検出値とは異なる検出値等により検出できればよいので、例えば、6軸センサー235が検出する画像表示部20の動きをトリガー操作としてもよい。また、例えば、画像表示部20にタッチセンサー(図示略)を設けて、このタッチセンサーに対する操作をトリガー操作としてもよい。   In the above embodiment, as an example of changing the display mode of the image displayed on the image display unit 20, enlargement, reduction, scrolling, and image switching based on the display order are illustrated, but the present invention is not limited to this. For example, control for rotating an image, control for changing the display brightness of an image, control for enlarging or reducing the display size of some of the images or characters being displayed, and the like may be performed in accordance with the motion. In this case, the rotation direction of the image, the change direction of the display luminance (brightness increase or decrease) of the image, and the enlargement or reduction of the size may be associated with different motions. In addition, the operation of the trigger for starting the operation by the motion is not limited to an operation element such as a button provided in the track pad 14 or the control device 10, and may be an operation that can be detected by a method different from the movement of the case 10A. Specifically, since it is only necessary to detect a detection value different from the detection value of the 6-axis sensor 111, for example, the movement of the image display unit 20 detected by the 6-axis sensor 235 may be used as a trigger operation. Further, for example, a touch sensor (not shown) may be provided in the image display unit 20, and an operation on the touch sensor may be a trigger operation.

また、例えば、画像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼に対応して画像を表示する表示部と、使用者の右眼に対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。この場合、使用者の身体に対する位置を位置決めする部分、及び、当該部分に対し位置決めされる部分を装着部とすることができる。   Further, for example, instead of the image display unit 20, another type of image display unit such as an image display unit worn like a hat may be adopted, and an image is displayed corresponding to the left eye of the user. And a display unit that displays an image corresponding to the right eye of the user. The display device of the present invention may be configured as a head mounted display mounted on a vehicle such as an automobile or an airplane. Further, for example, it may be configured as a head-mounted display built in a body protective device such as a helmet. In this case, the part for positioning the position with respect to the user's body and the part positioned with respect to the part can be used as the mounting portion.

さらに、上記実施形態では、画像表示部20と制御装置10とが分離され、接続ケーブル40を介して接続された構成を例に挙げて説明したが、制御装置10と画像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。
また、制御装置10として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、制御装置10として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。また、制御装置10が画像表示部20と分離して構成され、制御装置10と画像表示部20との間で無線通信により各種信号を送受信する構成としてもよい。
Further, in the above embodiment, the image display unit 20 and the control device 10 are separated and connected via the connection cable 40 as an example. However, the control device 10 and the image display unit 20 are integrated. It is also possible to be configured to be mounted on the user's head.
As the control device 10, a notebook computer, a tablet computer, or a desktop computer may be used. The control device 10 may be a game machine, a portable phone, a portable electronic device including a smartphone or a portable media player, other dedicated devices, or the like. Further, the control device 10 may be configured separately from the image display unit 20, and various signals may be transmitted and received between the control device 10 and the image display unit 20 by wireless communication.

また、上記実施形態では、画像表示部20と制御装置10とが分離され、接続ケーブル40を介して接続された構成を例に挙げて説明したが、制御装置10と画像表示部20とが無線通信回線によって接続される構成であってもよい。   Moreover, in the said embodiment, although the image display part 20 and the control apparatus 10 were isolate | separated and it demonstrated and demonstrated as an example the structure connected via the connection cable 40, the control apparatus 10 and the image display part 20 are wireless. It may be configured to be connected by a communication line.

また、画像光を使用者の眼に導く光学系として、右導光板26及び左導光板28の一部に、ハーフミラー261、281により虚像が形成される構成を例示した。本発明はこれに限定されず、右導光板26及び左導光板28の全面または大部分を占める面積を有する表示領域に、画像を表示する構成としてもよい。この場合、画像の表示位置を変化させる動作において、画像を縮小する処理を含めてもよい。
さらに、本発明の光学素子は、ハーフミラー261、281を有する右導光板26、左導光板28に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
In addition, as an optical system that guides image light to the user's eyes, a configuration in which virtual images are formed by the half mirrors 261 and 281 on a part of the right light guide plate 26 and the left light guide plate 28 is illustrated. The present invention is not limited to this, and an image may be displayed on a display region having an area that occupies the entire or most of the right light guide plate 26 and the left light guide plate 28. In this case, a process of reducing the image may be included in the operation of changing the display position of the image.
Furthermore, the optical element of the present invention is not limited to the right light guide plate 26 and the left light guide plate 28 having the half mirrors 261 and 281, and may be any optical component that allows image light to enter the user's eyes. A diffraction grating, a prism, or a holographic display unit may be used.

また、図4,図5等に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部150が実行するプログラムは、不揮発性記憶部121または制御装置10内の他の記憶装置(図示略)に記憶されてもよい。また、外部の装置に記憶されたプログラムを通信部117や外部コネクター184を介して取得して実行する構成としてもよい。また、制御装置10に形成された構成のうち、操作部110が使用者インターフェイス(UI)として形成されてもよい。また、制御装置10に形成された構成が重複して画像表示部20に形成されていてもよい。例えば、メインプロセッサー140と同様のプロセッサーが画像表示部20に配置されてもよいし、制御装置10が備えるメインプロセッサー140と画像表示部20のプロセッサーとが別々に分けられた機能を実行する構成としてもよい。   In addition, at least a part of the functional blocks shown in FIGS. 4 and 5 may be realized by hardware, or may be realized by cooperation of hardware and software. As described above, the present invention is not limited to a configuration in which independent hardware resources are arranged. The program executed by the control unit 150 may be stored in the nonvolatile storage unit 121 or another storage device (not shown) in the control device 10. A program stored in an external device may be acquired and executed via the communication unit 117 or the external connector 184. Moreover, the operation part 110 may be formed as a user interface (UI) among the structures formed in the control apparatus 10. Further, the configuration formed in the control device 10 may be formed in the image display unit 20 in an overlapping manner. For example, a processor similar to the main processor 140 may be disposed in the image display unit 20, or the main processor 140 and the processor of the image display unit 20 included in the control device 10 perform functions separately divided. Also good.

3…時計型デバイス(操作デバイス)、4…リング型デバイス(操作デバイス)、10…制御装置(操作デバイス)、14…トラックパッド(操作受付部)、20…画像表示部(表示部)、22…右表示ユニット、24…左表示ユニット、26…右導光板、28…左導光板、30…ヘッドセット、40…接続ケーブル、61…カメラ(動き検出部)、63…マイク、65…照度センサー、67…LEDインジケーター、100…HMD(表示装置)、110…操作部、111…6軸センサー(動き検出部)、113…磁気センサー(動き検出部)、115…GPS、117…通信部、118…メモリー、119…バイブレーター、120…コントローラー基板、121…不揮発性記憶部、122…記憶部、123…設定データ、124…コンテンツデータ、125…操作設定データ、126…表示制御データ、130…電源部、132…バッテリー、134…電源制御回路、140…メインプロセッサー、143…オペレーティングシステム、145…画像処理部、147…表示制御部、149…撮像制御部、150…制御部、152…操作検出制御部、180…音声コーデック、182…音声インターフェイス、184…外部コネクター、186…外部メモリーインターフェイス、188…USBコネクター、192…センサーハブ、194…FPGA、196…インターフェイス、211、231…インターフェイス、213、233…受信部、215…EEPROM、217、239…温度センサー、221、241…OLEDユニット、235…6軸センサー、237…磁気センサー、300…バンド部、300A…平面部、301…ベゼル(操作受付部)、303…LCD、305…ボタン(操作受付部)、307…リュウズ型操作子(操作受付部)、309…ボタン(操作受付部)、401…トラックパッド(操作受付部)。   DESCRIPTION OF SYMBOLS 3 ... Clock type device (operation device), 4 ... Ring type device (operation device), 10 ... Control apparatus (operation device), 14 ... Trackpad (operation reception part), 20 ... Image display part (display part), 22 ... right display unit, 24 ... left display unit, 26 ... right light guide plate, 28 ... left light guide plate, 30 ... headset, 40 ... connection cable, 61 ... camera (motion detector), 63 ... microphone, 65 ... illuminance sensor , 67 ... LED indicator, 100 ... HMD (display device), 110 ... operation unit, 111 ... 6-axis sensor (motion detection unit), 113 ... magnetic sensor (motion detection unit), 115 ... GPS, 117 ... communication unit, 118 ... Memory, 119 ... Vibrator, 120 ... Controller board, 121 ... Nonvolatile memory, 122 ... Memory, 123 ... Setting data, 124 ... Computer Data, 125 ... operation setting data, 126 ... display control data, 130 ... power supply unit, 132 ... battery, 134 ... power supply control circuit, 140 ... main processor, 143 ... operating system, 145 ... image processing unit, 147 ... display control unit 149: Imaging control unit, 150 ... Control unit, 152 ... Operation detection control unit, 180 ... Audio codec, 182 ... Audio interface, 184 ... External connector, 186 ... External memory interface, 188 ... USB connector, 192 ... Sensor hub, 194 ... FPGA, 196 ... interface, 211,231 ... interface, 213,233 ... receiver, 215 ... EEPROM, 217,239 ... temperature sensor, 221,241 ... OLED unit, 235 ... 6-axis sensor, 237 ... magnetic Sensor: 300 ... Band part, 300A ... Flat part, 301 ... Bezel (operation receiving part), 303 ... LCD, 305 ... Button (operation receiving part), 307 ... Crown-type operation element (operation receiving part), 309 ... Button ( Operation accepting unit), 401... Trackpad (operation accepting unit).

Claims (10)

使用者に画像を視認させる表示部を有する頭部装着型の表示装置であって、
前記表示部と独立して動かすことが可能な操作デバイスであって、前記操作デバイスの動きを検出する動き検出部を有する操作デバイスと、
前記動き検出部が検出する動きに応じて前記表示部の表示を制御する制御部と、を備え、
前記制御部は、前記表示部が表示する画像に対する処理として、前記動き検出部が検出する第1の動き方向の動きに対応する第1の表示変化、及び、前記動き検出部が検出する第2の動き方向の動きに対応する第2の表示変化を実行し、
前記第1の動き方向の動きが検出された場合に前記第1の表示変化を開始し、その後、前記動き検出部により前記第2の動き方向の動きが検出された場合に、前記第1の表示変化を停止する、
ことを特徴とする表示装置。
A head-mounted display device having a display unit that allows a user to visually recognize an image,
An operation device that can be moved independently of the display unit, the operation device having a motion detection unit that detects a motion of the operation device;
A control unit that controls display of the display unit in accordance with movement detected by the motion detection unit,
The control unit performs a process on the image displayed by the display unit, and includes a first display change corresponding to the movement in the first movement direction detected by the movement detection unit, and a second detection detected by the movement detection unit. Perform a second display change corresponding to the movement in the movement direction of
When the movement in the first movement direction is detected, the first display change is started. After that, when the movement in the second movement direction is detected by the movement detection unit, the first display direction is changed. Stop the display change,
A display device characterized by that.
前記制御部は、前記動き検出部により前記第1の動き方向の動きが検出された場合に前記第1の表示変化を実行し、前記動き検出部により前記第2の動き方向の動きが検出された場合に、前記第2の表示変化を実行すること、
を特徴とする請求項1記載の表示装置。
The control unit performs the first display change when the motion detection unit detects a motion in the first motion direction, and the motion detection unit detects a motion in the second motion direction. Performing the second display change when
The display device according to claim 1.
前記操作デバイスは、操作を受け付ける操作受付部を備え、
前記制御部は、前記操作受付部が操作を受け付けている状態で、前記動き検出部が検出する動きに応じて、前記表示部の表示を変化させること、
を特徴とする請求項1または2記載の表示装置。
The operation device includes an operation reception unit that receives an operation,
The control unit is configured to change the display of the display unit according to the movement detected by the movement detection unit in a state where the operation reception unit is receiving an operation;
The display device according to claim 1 or 2.
前記制御部は、前記操作受付部が操作を受け付けている状態で、前記動き検出部により前記第1の動き方向の動きを検出した場合に、前記第1の表示変化を実行すること、
を特徴とする請求項3記載の表示装置。
The control unit performs the first display change when the movement detecting unit detects a movement in the first movement direction in a state where the operation receiving unit is receiving an operation;
The display device according to claim 3.
前記制御部は、前記動き検出部により前記第1の動き方向の動きが検出された場合に、前記第1の表示変化を開始し、その後、前記操作受付部が操作を受け付けなくなった場合に、前記第1の表示変化を停止すること、
を特徴とする請求項3または4記載の表示装置。
The control unit starts the first display change when a movement in the first movement direction is detected by the movement detection unit, and then, when the operation reception unit no longer receives an operation, Stopping the first display change;
The display device according to claim 3 or 4, characterized by the above-mentioned.
前記制御部は、前記操作受付部が操作を受け付けている状態で、前記動き検出部により前記第2の動き方向の動きを検出した場合に、前記第2の表示変化を実行すること、
を特徴とする請求項3から5のいずれかに記載の表示装置。
The control unit executes the second display change when the movement detecting unit detects a movement in the second movement direction in a state where the operation receiving unit is receiving an operation;
The display device according to claim 3, wherein:
前記操作受付部は、前記動き検出部の検出とは異なる操作を受け付けること、
を特徴とする請求項3から6のいずれかに記載の表示装置。
The operation receiving unit receives an operation different from the detection of the motion detection unit;
The display device according to claim 3, wherein:
前記操作デバイスは、前記使用者の身体に装着されるウェアラブルデバイスであること、
を特徴とする請求項1から7のいずれかに記載の表示装置。
The operation device is a wearable device worn on the user's body;
The display device according to claim 1, wherein:
使用者に画像を視認させる表示部と、前記表示部と独立して動かすことが可能な操作デバイスであって、前記操作デバイスの動きを検出する動き検出部を有する操作デバイスと、を備える表示装置を制御して、
前記表示部が表示する画像に対する処理として、前記動き検出部が検出する第1の動き方向の動きに対応する第1の表示変化、及び、前記動き検出部が検出する第2の動き方向の動きに対応する第2の表示変化を実行し、
前記第1の動き方向の動きが検出された場合に前記第1の表示変化を開始し、その後、前記動き検出部により前記第2の動き方向の動きが検出された場合に、前記第1の表示変化を停止すること、
を特徴とする表示装置の制御方法。
A display device comprising: a display unit that allows a user to visually recognize an image; and an operation device that can be moved independently of the display unit and includes a motion detection unit that detects a motion of the operation device. Control
As processing for the image displayed by the display unit, the first display change corresponding to the movement in the first movement direction detected by the movement detection unit, and the movement in the second movement direction detected by the movement detection unit Perform a second display change corresponding to
When the movement in the first movement direction is detected, the first display change is started. After that, when the movement in the second movement direction is detected by the movement detection unit, the first display direction is changed. Stopping the display change,
A control method of a display device characterized by the above.
使用者に画像を視認させる表示部と、前記表示部と独立して動かすことが可能な操作デバイスであって、前記操作デバイスの動きを検出する動き検出部を有する操作デバイスと、を備える表示装置を制御するコンピューターが実行可能なプログラムであって、
前記表示部が表示する画像に対する処理として、前記動き検出部が検出する第1の動き方向の動きに対応する第1の表示変化、及び、前記動き検出部が検出する第2の動き方向の動きに対応する第2の表示変化を実行し、
前記第1の動き方向の動きが検出された場合に前記第1の表示変化を開始し、その後、前記動き検出部により前記第2の動き方向の動きが検出された場合に、前記第1の表示変化を停止するためのプログラム。
A display device comprising: a display unit that allows a user to visually recognize an image; and an operation device that can be moved independently of the display unit and includes a motion detection unit that detects a motion of the operation device. A computer executable program that controls
As processing for the image displayed by the display unit, the first display change corresponding to the movement in the first movement direction detected by the movement detection unit, and the movement in the second movement direction detected by the movement detection unit Perform a second display change corresponding to
When the movement in the first movement direction is detected, the first display change is started. After that, when the movement in the second movement direction is detected by the movement detection unit, the first display direction is changed. A program for stopping display changes.
JP2016026990A 2016-02-16 2016-02-16 Display device, control method of display device, and program Pending JP2017146715A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016026990A JP2017146715A (en) 2016-02-16 2016-02-16 Display device, control method of display device, and program
US15/424,110 US10296104B2 (en) 2016-02-16 2017-02-03 Display device, method of controlling display device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016026990A JP2017146715A (en) 2016-02-16 2016-02-16 Display device, control method of display device, and program

Publications (1)

Publication Number Publication Date
JP2017146715A true JP2017146715A (en) 2017-08-24

Family

ID=59680812

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016026990A Pending JP2017146715A (en) 2016-02-16 2016-02-16 Display device, control method of display device, and program

Country Status (1)

Country Link
JP (1) JP2017146715A (en)

Similar Documents

Publication Publication Date Title
US11310483B2 (en) Display apparatus and method for controlling display apparatus
US10635182B2 (en) Head mounted display device and control method for head mounted display device
US10948974B2 (en) Head-mounted display device, program, and method for controlling head-mounted display device
US10976836B2 (en) Head-mounted display apparatus and method of controlling head-mounted display apparatus
US11216083B2 (en) Display system that switches into an operation acceptable mode according to movement detected
US20180259775A1 (en) Transmission-type display device, display control method, and computer program
US10296104B2 (en) Display device, method of controlling display device, and program
US20170289533A1 (en) Head mounted display, control method thereof, and computer program
JP2018124721A (en) Head-mounted type display device and control method of head-mounted type display device
JP2018142857A (en) Head mounted display device, program, and control method of head mounted display device
JP2019082891A (en) Head mounted display, display control method, and computer program
JP2019105777A (en) Head-mounted display device and method for controlling head-mounted display device
JP2018137505A (en) Display device and control method thereof
JP6776578B2 (en) Input device, input method, computer program
JP2018206080A (en) Head-mounted display device, program, and control method for head-mounted display device
JP2018022426A (en) Display device, head-mounted display device, and method for controlling display device
JP6740613B2 (en) Display device, display device control method, and program
JP6932917B2 (en) Head-mounted display, program, and head-mounted display control method
JP2019053644A (en) Head mounted display device and control method for head mounted display device
JP2017182413A (en) Head-mounted type display device, control method for the same, and computer program
JP2017134630A (en) Display device, control method of display device, and program
JP6693160B2 (en) Display device, display device control method, and program
JP2017182460A (en) Head-mounted type display device, method for controlling head-mounted type display device, and computer program
JP6790769B2 (en) Head-mounted display device, program, and control method of head-mounted display device
JP2017146715A (en) Display device, control method of display device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190730

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190729

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191126

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200407