JP2018091882A - Head-mounted display, program, and method for controlling head-mounted display - Google Patents

Head-mounted display, program, and method for controlling head-mounted display Download PDF

Info

Publication number
JP2018091882A
JP2018091882A JP2016232373A JP2016232373A JP2018091882A JP 2018091882 A JP2018091882 A JP 2018091882A JP 2016232373 A JP2016232373 A JP 2016232373A JP 2016232373 A JP2016232373 A JP 2016232373A JP 2018091882 A JP2018091882 A JP 2018091882A
Authority
JP
Japan
Prior art keywords
display
marker
unit
head
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016232373A
Other languages
Japanese (ja)
Other versions
JP6932917B2 (en
Inventor
和夫 西沢
Kazuo Nishizawa
和夫 西沢
高野 正秀
Masahide Takano
正秀 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2016232373A priority Critical patent/JP6932917B2/en
Priority to US15/801,711 priority patent/US10474226B2/en
Publication of JP2018091882A publication Critical patent/JP2018091882A/en
Application granted granted Critical
Publication of JP6932917B2 publication Critical patent/JP6932917B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To improve operability to improve convenience of a head-mounted display.SOLUTION: An HMD 100 comprises: an image display part 20 that displays a display image in a display area 310 such that a user can visually recognize the display image while passing through an outer scenery and together with the outer scenery; a display control part 153 that displays a pointer 301 indicating an indication position in the display area 310 with the image display part 20; an operation control part 149 that detects a first operation; and a detection control part 151 that detects a second operation. The display control part 153 moves the position of the pointer 301 according to the first operation detected by the operation control part 149, and after moving the position of the pointer 301 according to the first operation, moves the position of the pointer 301 according to the second operation detected by the detection control part 151 in a mode different from that of the movement of the position of the pointer 301 according to the first operation.SELECTED DRAWING: Figure 5

Description

本発明は、頭部装着型表示装置、プログラム、及び頭部装着型表示装置の制御方法に関する。   The present invention relates to a head-mounted display device, a program, and a control method for the head-mounted display device.

従来、マーカーを移動操作して、例えば、表示されたメニューを選択したり、表示されたオブジェクトを指定したりするポインティングデバイスが知られている。ポインティングデバイスとして、使用者の頭部の動きを検出し、検出した頭部の動きに応じてマーカーを移動操作することも行われている(例えば、特許文献1参照)。
特許文献1は、頭部に装着された複数個の発信装置から発信される超音波や、電磁波等に基づいて頭部の位置や向きの変化を検出し、検出した頭部の位置や向きの変化に対応してディスプレイ上の特定の位置を指示する頭部駆動型ポインティング装置を開示する。
2. Description of the Related Art Conventionally, a pointing device that moves a marker to select a displayed menu or designate a displayed object is known. As a pointing device, a movement of a user's head is detected, and a marker is moved according to the detected movement of the head (for example, see Patent Document 1).
Patent Document 1 detects changes in the position and orientation of the head based on ultrasonic waves, electromagnetic waves, and the like transmitted from a plurality of transmitters mounted on the head, and detects the detected position and orientation of the head. A head-driven pointing device is disclosed that indicates a specific position on a display in response to a change.

特開平6−187092号公報JP-A-6-187092

ところで、頭部装着型表示装置において頭部の動きによりマーカーを操作する場合、使用者はマーカーを移動させる間、頭部を傾け続けなければならず、無理な体勢を維持し続けなければならない場合があった。また、トラックパッド等の操作部を操作して、マーカーを目的の位置に移動させる場合、操作部が固定されていないと、使用者がイメージした通りにマーカーを動かすことは容易ではなく、操作性を欠くという課題がある。このため、頭部装着型表示装置の操作性の向上が望まれていた。
本発明は、操作性を向上させ、頭部装着型表示装置の使い勝手を向上させることを目的とする。
By the way, when operating the marker by the movement of the head in the head-mounted display device, the user must keep the head tilted while moving the marker, and must maintain an unreasonable posture was there. Also, when operating the operation unit such as a trackpad to move the marker to the target position, if the operation unit is not fixed, it is not easy to move the marker as the user imagined, and operability There is a problem of lacking. For this reason, improvement in the operability of the head-mounted display device has been desired.
An object of the present invention is to improve operability and improve the usability of a head-mounted display device.

上記課題を解決するため、本発明は、使用者の頭部に装着される頭部装着型表示装置であって、外景を透過し、前記外景とともに視認できるように表示画像を表示領域に表示する表示部と、指示位置を示すマーカーを前記表示部により前記表示領域に表示させる表示制御部と、第1操作と、第2操作とを検出する検出部と、を備え、前記表示制御部は、前記検出部が検出する前記第1操作に応じて前記マーカーの位置を移動させ、前記第1操作に応じた前記マーカーの位置の移動後に、前記検出部が検出する前記第2操作に応じて、前記マーカーの位置を、前記第1操作に応じた前記マーカーの位置の移動とは異なる態様で移動させる。
本発明によれば、マーカーの位置を第1操作と第2操作とで異なる態様で移動させることができる。従って、マーカーを複数の態様で移動させることができるため、マーカーの操作の操作性を向上させ、頭部装着型表示装置の使い勝手を向上させることができる。
In order to solve the above-described problems, the present invention is a head-mounted display device that is worn on a user's head, and displays a display image in a display region so as to transmit the outside scene and be visible together with the outside scene. A display unit, a display control unit that displays a marker indicating an indication position on the display area by the display unit, a detection unit that detects a first operation and a second operation, and the display control unit includes: The position of the marker is moved according to the first operation detected by the detection unit, and after the movement of the position of the marker according to the first operation, according to the second operation detected by the detection unit, The marker position is moved in a manner different from the movement of the marker position according to the first operation.
According to the present invention, the position of the marker can be moved in a different manner between the first operation and the second operation. Therefore, since the marker can be moved in a plurality of modes, the operability of the marker operation can be improved, and the usability of the head-mounted display device can be improved.

また、本発明は、前記検出部は、前記使用者の動作を前記第1操作及び前記第2操作の少なくともいずれかとして検出する。
本発明によれば、使用者の動作によりマーカーの位置を移動させることができる。
In the present invention, the detection unit detects the user's movement as at least one of the first operation and the second operation.
According to the present invention, the position of the marker can be moved by the operation of the user.

また、本発明は、前記検出部は、前記頭部装着型表示装置の備える操作部が受け付ける操作を第1操作として検出し、前記頭部の動きを第2操作として検出する。
本発明によれば、操作部の操作と、頭部の動きとによってマーカーの位置を移動させることができる。
In the present invention, the detection unit detects an operation received by an operation unit included in the head-mounted display device as a first operation, and detects a movement of the head as a second operation.
According to the present invention, the position of the marker can be moved by the operation of the operation unit and the movement of the head.

また、本発明は、前記外景を撮像する撮像部を備え、前記表示制御部は、前記撮像部の撮像画像に基づき、前記マーカーに重なって視認される対象物体を特定する第1の動作モードと、前記表示領域に表示される複数の前記表示画像から前記マーカーの位置に対応する前記表示画像を特定する第2の動作モードとを切り替えて実行することを特徴とする。
本発明によれば、マーカーにより対象物体を特定し、表示画像を特定することができる。
In addition, the present invention includes an imaging unit that images the outside scene, and the display control unit includes a first operation mode that identifies a target object that is visually recognized by overlapping the marker based on a captured image of the imaging unit. The second operation mode for specifying the display image corresponding to the position of the marker is switched and executed from the plurality of display images displayed in the display area.
According to the present invention, a target object can be specified by a marker, and a display image can be specified.

また、本発明は、前記表示制御部は、前記第1の動作モードを実行中である場合と、前記第2の動作モードを実行中である場合とで、前記マーカーを異なる態様で移動させる。
本発明によれば、動作モードを変更することで、マーカーを異なる態様で移動させることができる。
Further, according to the present invention, the display control unit moves the marker in a different manner between when the first operation mode is being executed and when the second operation mode is being executed.
According to the present invention, the marker can be moved in a different manner by changing the operation mode.

また、本発明は、前記表示制御部は、前記第1の動作モードの実行中に、前記検出部により前記第1操作又は前記第2操作が検出された場合に、前記第1操作又は前記第2操作に応じて前記マーカーを前記使用者が視認する前記外景を基準として移動させ、前記第2の動作モードを実行中に、前記検出部により前記第1操作又は前記第2操作が検出された場合に、前記第1操作又は前記第2操作に応じて前記マーカーを前記使用者が視認する前記表示画像を基準として移動させる。
本発明によれば、頭部装着型表示装置の動作モードが第1の動作モードであるときに、第1操作又は第2操作が検出されると、外景を基準としてマーカーを移動させることができる。また、頭部装着型表示装置の動作モードが第2の動作モードであるときに、第1操作又は第2操作が検出されると、表示画像を基準としてマーカーを移動させることができる。
Further, the present invention provides the display control unit when the first operation or the second operation is detected by the detection unit during execution of the first operation mode. In response to two operations, the marker is moved with reference to the outside scene visually recognized by the user, and the first operation or the second operation is detected by the detection unit while executing the second operation mode. In this case, the marker is moved with reference to the display image visually recognized by the user according to the first operation or the second operation.
According to the present invention, when the first operation mode or the second operation is detected when the operation mode of the head-mounted display device is the first operation mode, the marker can be moved with reference to the outside scene. . Further, when the first operation or the second operation is detected when the operation mode of the head-mounted display device is the second operation mode, the marker can be moved with reference to the display image.

また、本発明は、前記表示制御部は、前記第2操作に応じて前記マーカーを移動させる場合の移動量を、前記第1操作に応じて前記マーカーを移動させる場合の移動量よりも小さくする。
本発明によれば、マーカーの移動量が第2操作よりも大きい第1操作によりマーカーを移動させた後に、マーカーの移動量が第1操作よりも小さい第2操作によりマーカーを移動させることができる。従って、マーカーを対象物体又は表示画像に近づけるための操作の回数を低減し、マーカーの移動量が小さい第2操作によりマーカーを対象物体又は表示画像の位置に微調整することができる。
In the present invention, the display control unit makes a movement amount when the marker is moved according to the second operation smaller than a movement amount when the marker is moved according to the first operation. .
According to the present invention, the marker can be moved by the second operation in which the amount of movement of the marker is smaller than that of the first operation after the marker is moved by the first operation in which the amount of movement of the marker is larger than that of the second operation. . Therefore, the number of operations for bringing the marker closer to the target object or the display image can be reduced, and the marker can be finely adjusted to the position of the target object or the display image by the second operation with a small amount of movement of the marker.

また、本発明は、前記使用者が前記表示部を透過して視認する前記対象物体までの距離を検出する距離検出部を備え、前記表示制御部は、前記距離検出部が検出する前記対象物体までの距離に応じて、前記マーカーを異なる態様で移動させる。
本発明によれば、対象物体までの距離に応じて、マーカーを異なる態様で移動させることができる。従って、マーカーの操作の操作性を向上させ、頭部装着型表示装置の使い勝手を向上させることができる。
The present invention may further include a distance detection unit that detects a distance to the target object that the user sees through the display unit, and the display control unit detects the target object detected by the distance detection unit. The marker is moved in a different manner depending on the distance up to.
According to the present invention, the marker can be moved in different manners depending on the distance to the target object. Therefore, the operability of the marker operation can be improved and the usability of the head-mounted display device can be improved.

また、本発明は、前記表示制御部は、前記距離検出部が検出する前記対象物体までの距離がしきい値よりも大きい場合に、前記検出部が検出する操作を前記第1操作とし、前記距離検出部が検出する前記対象物体までの距離がしきい値以下である場合に、前記検出部が検出する操作を前記第2操作とし、前記第1操作により前記マーカーを移動させる移動量を、前記第2操作により前記マーカーを移動させる移動量よりも小さくする。
本発明によれば、対象物体までの距離がしきい値よりも大きい場合には、検出部が検出する操作を、マーカーの移動量が第2操作よりも大きい第1操作とし、第1操作によりマーカーを移動させることができる。また、対象物体までの距離がしきい値以下である場合には、検出部が検出する操作を、マーカーの移動量が第1操作よりも小さい第2操作とし、第2操作によりマーカーを移動させることができる。
従って、マーカーを対象物体に近づけるための操作の回数を低減し、マーカーの移動量が小さい第2操作によりマーカーを対象物体又は表示画像の位置に微調整することができる。
Further, in the present invention, the display control unit sets the operation detected by the detection unit when the distance to the target object detected by the distance detection unit is larger than a threshold as the first operation, When the distance to the target object detected by the distance detection unit is equal to or less than a threshold value, the operation detected by the detection unit is the second operation, and the amount of movement by which the marker is moved by the first operation, The amount of movement is smaller than the amount of movement of the marker by the second operation.
According to the present invention, when the distance to the target object is larger than the threshold value, the operation detected by the detection unit is the first operation in which the amount of movement of the marker is larger than the second operation, and the first operation The marker can be moved. Further, when the distance to the target object is equal to or less than the threshold value, the operation detected by the detection unit is the second operation in which the amount of movement of the marker is smaller than the first operation, and the marker is moved by the second operation. be able to.
Accordingly, the number of operations for bringing the marker closer to the target object can be reduced, and the marker can be finely adjusted to the position of the target object or the display image by the second operation in which the amount of movement of the marker is small.

上記課題を解決するため、本発明は、使用者の頭部に装着される頭部装着型表示装置であって、外景を透過し、前記外景とともに視認できるように表示画像を表示領域に表示する表示部と、前記外景を撮像する撮像部と、指示位置を示すマーカーを前記表示部により前記表示領域に表示させる表示制御部と、を備え、前記表示制御部は、前記撮像部の撮像画像に基づき、前記マーカーに重なって視認される対象物体を特定する第1の動作モードと、前記表示領域に表示される複数の前記表示画像から前記マーカーの位置に対応する前記表示画像を特定する第2の動作モードと、を切り替えて実行する。
本発明によれば、動作モードを変更することで、マーカーを異なる態様で移動させることができる。
In order to solve the above-described problems, the present invention is a head-mounted display device that is worn on a user's head, and displays a display image in a display region so as to transmit the outside scene and be visible together with the outside scene. A display unit; an imaging unit that images the outside scene; and a display control unit that causes the display unit to display a marker indicating an indication position in the display area. The display control unit includes a captured image of the imaging unit. Based on the first operation mode for identifying a target object that is visually recognized by overlapping with the marker, and for identifying the display image corresponding to the position of the marker from the plurality of display images displayed in the display area. The operation mode is switched between and executed.
According to the present invention, the marker can be moved in a different manner by changing the operation mode.

また、本発明は、操作を検出する検出部を備え、前記表示制御部は、前記第1の動作モードの実行中に、前記検出部により操作が検出された場合に、検出された前記操作に応じて前記マーカーを前記使用者が視認する前記外景を基準として移動させ、前記第2の動作モードの実行中に、前記検出部により操作が検出された場合に、検出された前記操作に応じて前記マーカーを前記使用者が視認する前記表示画像を基準として移動させる。
本発明によれば、頭部装着型表示装置の動作モードが第1の動作モードであるときに操作が検出されると、外景を基準としてマーカーを移動させることができる。また、頭部装着型表示装置の動作モードが第2の動作モードであるときに操作が検出されると、表示画像を基準としてマーカーを移動させることができる。
Further, the present invention includes a detection unit that detects an operation, and the display control unit is configured to detect the operation when the operation is detected by the detection unit during execution of the first operation mode. In response, the marker is moved with reference to the outside scene visually recognized by the user, and when the operation is detected by the detection unit during execution of the second operation mode, according to the detected operation The marker is moved with reference to the display image visually recognized by the user.
According to the present invention, when an operation is detected when the operation mode of the head-mounted display device is the first operation mode, the marker can be moved with reference to the outside scene. In addition, when an operation is detected when the operation mode of the head-mounted display device is the second operation mode, the marker can be moved with reference to the display image.

また、本発明は、前記検出部は、頭部装着型表示装置の備える操作部が受け付ける操作を第1操作として検出し、前記使用者の頭部の動きを第2操作として検出し、前記表示制御部は、前記検出部が検出する前記第1操作に応じて前記マーカーの位置を移動させ、前記第1操作に応じた前記マーカーの位置の移動後に、前記検出部が検出する前記第2操作に応じて前記マーカーの位置を移動させ、前記第2操作に応じて前記マーカーを移動させる場合の移動量を、前記第1操作に応じて前記マーカーを移動させる場合の移動量よりも小さくする。
本発明によれば、マーカーの移動量が第2操作よりも大きい第1操作によりマーカーを移動させた後に、マーカーの移動量が第1操作よりも小さい第2操作によりマーカーを移動させることができる。従って、マーカーを対象物体又は表示画像に近づけるための操作の回数を低減し、マーカーの移動量が小さい第2操作によりマーカーを対象物体又は表示画像の位置に微調整することができる。
Further, according to the present invention, the detection unit detects an operation received by an operation unit included in the head-mounted display device as a first operation, detects a movement of the user's head as a second operation, and displays the display. The control unit moves the position of the marker according to the first operation detected by the detection unit, and the second operation detected by the detection unit after the position of the marker is moved according to the first operation. The position of the marker is moved according to the movement, and the movement amount when moving the marker according to the second operation is made smaller than the movement amount when moving the marker according to the first operation.
According to the present invention, the marker can be moved by the second operation in which the amount of movement of the marker is smaller than that of the first operation after the marker is moved by the first operation in which the amount of movement of the marker is larger than that of the second operation. . Therefore, the number of operations for bringing the marker closer to the target object or the display image can be reduced, and the marker can be finely adjusted to the position of the target object or the display image by the second operation with a small amount of movement of the marker.

上記課題を解決するため、本発明は、外景を透過し、前記外景とともに視認できるように表示画像を表示領域に表示する表示部と、指示位置を示すマーカーを前記表示部により前記表示領域に表示させる表示制御部と、第1操作と、第2操作とを検出する検出部と、を備え、使用者の頭部に装着される頭部装着型表示装置に実装されるコンピューターに実行させるプログラムであって、コンピューターに、前記検出部が検出する前記第1操作に応じて前記マーカーの位置を移動させる手順と、前記第1操作に応じた前記マーカーの位置の移動後に、前記検出部が検出する前記第2操作に応じて、前記マーカーの位置を、前記第1操作に応じた前記マーカーの位置の移動とは異なる態様で移動させる手順と、を実行させる。
本発明によれば、マーカーの位置を第1操作と第2操作とで異なる態様で移動させることができる。従って、マーカーを複数の態様で移動させることができるため、マーカーの操作の操作性を向上させ、頭部装着型表示装置の使い勝手を向上させることができる。
In order to solve the above problems, the present invention provides a display unit that displays a display image in a display area so that it can be seen through the outside scene and is visible together with the outside scene, and a marker that indicates an indicated position is displayed in the display area by the display unit. A program that is executed by a computer that is mounted on a head-mounted display device that is mounted on a user's head, the display control unit being configured to detect the first operation, and a detection unit that detects the second operation Then, the detection unit detects after the procedure of causing the computer to move the position of the marker according to the first operation detected by the detection unit and the movement of the marker position according to the first operation. In accordance with the second operation, a procedure for moving the marker position in a manner different from the movement of the marker position according to the first operation is executed.
According to the present invention, the position of the marker can be moved in a different manner between the first operation and the second operation. Therefore, since the marker can be moved in a plurality of modes, the operability of the marker operation can be improved, and the usability of the head-mounted display device can be improved.

上記課題を解決するため、本発明は、外景を透過し、前記外景とともに視認できるように表示画像を表示領域に表示する表示部と、指示位置を示すマーカーを前記表示部により前記表示領域に表示させる表示制御部と、第1操作と、第2操作とを検出する検出部と、を備え、使用者の頭部に装着される頭部装着型表示装置の制御方法であって、前記検出部が検出する前記第1操作に応じて前記マーカーの位置を移動させるステップと、前記第1操作に応じた前記マーカーの位置の移動後に、前記検出部が検出する前記第2操作に応じて、前記マーカーの位置を、前記第1操作に応じた前記マーカーの位置の移動とは異なる態様で移動させるステップと、を有することを特徴とする。
本発明によれば、マーカーの位置を第1操作と第2操作とで異なる態様で移動させることができる。従って、マーカーを複数の態様で移動させることができるため、マーカーの操作の操作性を向上させ、頭部装着型表示装置の使い勝手を向上させることができる。
In order to solve the above problems, the present invention provides a display unit that displays a display image in a display area so that it can be seen through the outside scene and is visible together with the outside scene, and a marker that indicates an indicated position is displayed in the display area by the display unit. A control method for a head-mounted display device mounted on a user's head, comprising: a display control unit to be operated; a detection unit that detects a first operation and a second operation; The step of moving the position of the marker according to the first operation detected by the method, and the movement of the position of the marker according to the first operation, and the second operation detected by the detection unit, Moving the marker position in a manner different from the movement of the marker position according to the first operation.
According to the present invention, the position of the marker can be moved in a different manner between the first operation and the second operation. Therefore, since the marker can be moved in a plurality of modes, the operability of the marker operation can be improved, and the usability of the head-mounted display device can be improved.

HMDの外観図。FIG. HMDの光学系の構成を示す要部平面図。The principal part top view which shows the structure of the optical system of HMD. 画像表示部の構成を示す斜視図。The perspective view which shows the structure of an image display part. HMDのブロック図。The block diagram of HMD. 制御装置の機能ブロック図。The functional block diagram of a control apparatus. 使用者の視界を示す図。The figure which shows a user's visual field. 使用者が首を傾けた状態で見る視界を示す図。The figure which shows the visual field seen in the state which the user inclined the neck. 使用者が首を傾けた状態で見る視界を示す図。The figure which shows the visual field seen in the state which the user inclined the neck. ポインターをターゲットの近傍に移動させた場合に表示される拡大画像を示す図。The figure which shows the enlarged image displayed when a pointer is moved to the vicinity of a target. ターゲットまでの距離と、ポインターの移動距離との関係を示す図。The figure which shows the relationship between the distance to a target, and the moving distance of a pointer. HMDの動作を示すフローチャート。The flowchart which shows operation | movement of HMD. 使用者の靴底又は靴内部に装着した検知装置の配置図。The layout of the detection apparatus with which the user's shoe sole or shoes were mounted | worn. 使用者の靴底又は靴内部に装着した検知装置の配置図。The layout of the detection apparatus with which the user's shoe sole or shoes were mounted | worn. 使用者の靴底又は靴内部に装着した検知装置の配置図。The layout of the detection apparatus with which the user's shoe sole or shoes were mounted | worn.

図1は、本発明を適用したHMD(Head Mounted Display:頭部装着型表示装置)100の外観構成を示す外観図である。
HMD100は、使用者(ユーザー)の頭部に装着された状態で使用者に虚像を視認させる画像表示部20(表示部)と、画像表示部20を制御する制御装置10と、を備える表示装置である。
FIG. 1 is an external view showing an external configuration of an HMD (Head Mounted Display) 100 to which the present invention is applied.
HMD100 is a display apparatus provided with the image display part 20 (display part) which makes a user visually recognize a virtual image in the state with which the user (user) was mounted | worn, and the control apparatus 10 which controls the image display part 20. It is.

制御装置10は、図1に示すように平たい箱形のケース10A(筐体又は本体ともいえる)を備える。ケース10Aは、ボタン11、LEDインジケーター12、トラックパッド14、上下キー15、切替スイッチ16及び電源スイッチ18の各部を備える。ボタン11、トラックパッド14、上下キー15、切替スイッチ16及び電源スイッチ18は、使用者により操作される被操作部である。また、LEDインジケーター12は、例えばHMD100の動作状態を示す副表示部として機能する。使用者は、被操作部を操作することにより、HMD100を操作できる。制御装置10は、HMD100のコントローラーとして機能する。   The control device 10 includes a flat box-shaped case 10A (also referred to as a housing or a main body) as shown in FIG. The case 10 </ b> A includes buttons 11, an LED indicator 12, a track pad 14, an up / down key 15, a changeover switch 16, and a power switch 18. The button 11, the track pad 14, the up / down key 15, the changeover switch 16 and the power switch 18 are operated parts operated by the user. In addition, the LED indicator 12 functions as a sub display unit that indicates an operation state of the HMD 100, for example. The user can operate the HMD 100 by operating the operated part. The control device 10 functions as a controller of the HMD 100.

画像表示部20は、使用者の頭部に装着される装着体であり、本実施形態では眼鏡形状を有する。画像表示部20は、右保持部21と、左保持部23と、前部フレーム27とを有する本体に、右表示ユニット22、左表示ユニット24、右導光板26及び左導光板28を備える。
右保持部21及び左保持部23は、それぞれ、前部フレーム27の両端部から後方に延び、眼鏡のテンプル(つる)のように、使用者の頭部に画像表示部20を保持する。ここで、前部フレーム27の両端部のうち、画像表示部20の装着状態において使用者の右側に位置する端部を端部ERとし、使用者の左側に位置する端部を端部ELとする。右保持部21は、前部フレーム27の端部ERから、画像表示部20の装着状態において使用者の右側頭部に対応する位置まで延伸して設けられる。左保持部23は、端部ELから、画像表示部20の装着状態において使用者の左側頭部に対応する位置まで延伸して設けられる。
The image display unit 20 is a wearing body that is worn on the user's head, and has a glasses shape in the present embodiment. The image display unit 20 includes a right display unit 22, a left display unit 24, a right light guide plate 26, and a left light guide plate 28 in a main body having a right holding unit 21, a left holding unit 23, and a front frame 27.
Each of the right holding unit 21 and the left holding unit 23 extends rearward from both ends of the front frame 27, and holds the image display unit 20 on the user's head like a temple of glasses. Here, of both ends of the front frame 27, an end located on the right side of the user in the mounted state of the image display unit 20 is defined as an end ER, and an end located on the left side of the user is defined as an end EL. To do. The right holding unit 21 extends from the end ER of the front frame 27 to a position corresponding to the right side of the user when the image display unit 20 is mounted. The left holding unit 23 is provided to extend from the end EL to a position corresponding to the left side of the user when the image display unit 20 is mounted.

右導光板26及び左導光板28は、前部フレーム27に設けられる。右導光板26は、画像表示部20の装着状態において使用者の右眼の眼前に位置し、右眼に画像を視認させる。左導光板28は、画像表示部20の装着状態において使用者の左眼の眼前に位置し、左眼に画像を視認させる。   The right light guide plate 26 and the left light guide plate 28 are provided on the front frame 27. The right light guide plate 26 is positioned in front of the right eye of the user when the image display unit 20 is mounted, and causes the right eye to visually recognize the image. The left light guide plate 28 is positioned in front of the left eye of the user when the image display unit 20 is mounted, and causes the left eye to visually recognize the image.

前部フレーム27は、右導光板26の一端と左導光板28の一端とを互いに連結した形状を有し、この連結位置は、使用者が画像表示部20を装着する装着状態で、使用者の眉間に対応する。前部フレーム27は、右導光板26と左導光板28との連結位置において、画像表示部20の装着状態で使用者の鼻に当接する鼻当て部を設けてもよい。この場合、鼻当て部と、右保持部21及び左保持部23とにより画像表示部20を使用者の頭部に保持できる。また、右保持部21及び左保持部23に、画像表示部20の装着状態において使用者の後頭部に接するベルト(図示略)を連結してもよく、この場合、ベルトによって画像表示部20を使用者の頭部に保持できる。   The front frame 27 has a shape in which one end of the right light guide plate 26 and one end of the left light guide plate 28 are connected to each other, and this connection position is in a wearing state in which the user wears the image display unit 20. Corresponding to the eyebrows. The front frame 27 may be provided with a nose pad portion that comes into contact with the user's nose when the image display unit 20 is mounted at a connection position between the right light guide plate 26 and the left light guide plate 28. In this case, the image display unit 20 can be held on the user's head by the nose pad, the right holding unit 21 and the left holding unit 23. Further, a belt (not shown) that contacts the back of the user when the image display unit 20 is mounted may be connected to the right holding unit 21 and the left holding unit 23. In this case, the image display unit 20 is used by the belt. Can be held on the person's head.

右表示ユニット22は、右導光板26による画像の表示を実現する。右表示ユニット22は、右保持部21に設けられ、装着状態において使用者の右側頭部の近傍に位置する。左表示ユニット24は、左導光板28による画像の表示を実現する。左表示ユニット24は、左保持部23に設けられ、装着状態において使用者の左側頭部の近傍に位置する。   The right display unit 22 realizes image display by the right light guide plate 26. The right display unit 22 is provided in the right holding unit 21 and is located in the vicinity of the right side of the user in the mounted state. The left display unit 24 realizes image display by the left light guide plate 28. The left display unit 24 is provided in the left holding part 23 and is located in the vicinity of the left side of the user in the wearing state.

本実施形態の右導光板26及び左導光板28は、光透過性の樹脂等によって形成される光学部であり、例えばプリズムであり、右表示ユニット22及び左表示ユニット24が出力する画像光を、使用者の眼に導く。
右導光板26及び左導光板28の表面に、調光板(図示略)を設けてもよい。調光板は、光の波長域により透過率が異なる薄板上の光学素子であり、いわゆる波長フィルターとして機能する。調光板は、例えば、使用者の眼の側と反対の側である前部フレーム27の表側を覆うように配置される。この調光板の光学特性を適宜選択することにより、可視光、赤外光及び紫外光等の任意の波長域の光の透過率を調整することができ、外部から右導光板26及び左導光板28に入射し、右導光板26及び左導光板28を透過する外光の光量を調整できる。
The right light guide plate 26 and the left light guide plate 28 of the present embodiment are optical units formed of a light-transmitting resin or the like, and are, for example, prisms, and output image light output from the right display unit 22 and the left display unit 24. Lead to the eyes of the user.
A light control plate (not shown) may be provided on the surfaces of the right light guide plate 26 and the left light guide plate 28. The light control plate is an optical element on a thin plate having different transmittance depending on the wavelength region of light, and functions as a so-called wavelength filter. For example, the light control plate is disposed so as to cover the front side of the front frame 27 which is the side opposite to the eye side of the user. By appropriately selecting the optical characteristics of the light control plate, the transmittance of light in an arbitrary wavelength region such as visible light, infrared light, and ultraviolet light can be adjusted. The amount of external light incident on the light plate 28 and transmitted through the right light guide plate 26 and the left light guide plate 28 can be adjusted.

画像表示部20は、右表示ユニット22及び左表示ユニット24がそれぞれ生成する画像光を、右導光板26及び左導光板28に導く。右導光板26及び左導光板28に導かれた画像光は使用者の右眼と左眼に入射して、使用者に虚像を視認させる。これにより、画像表示部20は画像を表示する。   The image display unit 20 guides the image light generated by the right display unit 22 and the left display unit 24 to the right light guide plate 26 and the left light guide plate 28, respectively. The image light guided to the right light guide plate 26 and the left light guide plate 28 enters the right eye and the left eye of the user and makes the user visually recognize a virtual image. Thereby, the image display unit 20 displays an image.

使用者の前方から、右導光板26及び左導光板28を透過して外光が使用者の眼に入射する場合、使用者の眼には、虚像を構成する画像光及び外光が入射することとなり、虚像の視認性が外光の強さに影響される。このため、例えば前部フレーム27に調光板を装着し、調光板の光学特性を適宜選択又は調整することによって、虚像の視認のしやすさを調整できる。典型的な例では、HMD100を装着した使用者が少なくとも外の景色を視認できる程度の光透過性を有する調光板を用いることができる。また、調光板を用いると、右導光板26及び左導光板28を保護し、右導光板26及び左導光板28の損傷や汚れの付着等を抑制する効果が期待できる。調光板は、前部フレーム27、又は、右導光板26及び左導光板28のそれぞれに対し着脱可能としてもよく、複数種類の調光板を交換して装着可能としてもよく、調光板を省略してもよい。   When the external light enters the user's eyes through the right light guide plate 26 and the left light guide plate 28 from the front of the user, the image light and the external light constituting the virtual image enter the user's eyes. In other words, the visibility of the virtual image is affected by the intensity of external light. For this reason, for example, by attaching a light control plate to the front frame 27 and appropriately selecting or adjusting the optical characteristics of the light control plate, the ease of visual recognition of the virtual image can be adjusted. In a typical example, it is possible to use a light control plate having a light transmittance that allows a user wearing the HMD 100 to visually recognize at least the outside scenery. In addition, when the dimming plate is used, it is possible to protect the right light guide plate 26 and the left light guide plate 28 and to suppress the damage to the right light guide plate 26 and the left light guide plate 28, the adhesion of dirt, and the like. The light control plate may be detachable with respect to the front frame 27 or each of the right light guide plate 26 and the left light guide plate 28, or may be mounted by replacing a plurality of types of light control plates. May be omitted.

カメラ61は、画像表示部20の前部フレーム27に配設される。カメラ61の構成及び配置は、使用者が画像表示部20を装着した状態で視認する外景方向を撮像するように決められる。例えば、カメラ61は、前部フレーム27の前面において、右導光板26及び左導光板28を透過する外光を遮らない位置に設けられる。図1の例で、カメラ61は、前部フレーム27の端部ER側に配置されるが、カメラ61を端部EL側に配置してもよく、また、右導光板26と左導光板28との連結部に配置してもよい。
カメラ61は、本発明の「撮像部」に相当する。
The camera 61 is disposed on the front frame 27 of the image display unit 20. The configuration and arrangement of the camera 61 are determined so as to capture an outside scene direction visually recognized by the user while wearing the image display unit 20. For example, the camera 61 is provided on the front surface of the front frame 27 at a position that does not block external light that passes through the right light guide plate 26 and the left light guide plate 28. In the example of FIG. 1, the camera 61 is disposed on the end ER side of the front frame 27, but the camera 61 may be disposed on the end EL side, and the right light guide plate 26 and the left light guide plate 28. You may arrange | position in the connection part.
The camera 61 corresponds to an “imaging unit” of the present invention.

カメラ61は、CCDやCMOS等の撮像素子及び撮像レンズ等を備えるデジタルカメラである。本実施形態のカメラ61は単眼カメラであるが、ステレオカメラで構成してもよい。カメラ61は、HMD100の表側方向、換言すれば、HMD100を装着した状態における使用者の視界方向の少なくとも一部の外景(実空間)を撮像する。別の表現では、カメラ61は、使用者の視界と重なる範囲又は方向を撮像し、使用者が注視する方向を撮像する。カメラ61の画角の方向及び広さは適宜設定可能である。本実施形態では、後述するように、カメラ61の画角が、使用者が右導光板26及び左導光板28を通して視認する外界を含む。より好ましくは、カメラ61の画角は、右導光板26及び左導光板28を透過して視認可能な使用者の視界の全体を撮像できるように設定される。
カメラ61は、制御部150(図5)が備える撮像制御部147の制御に従って撮像を実行する。カメラ61は、撮像画像データを、後述するインターフェイス211を介して制御部150に出力する。
The camera 61 is a digital camera that includes an imaging element such as a CCD or CMOS, an imaging lens, and the like. The camera 61 of this embodiment is a monocular camera, but may be a stereo camera. The camera 61 images at least a part of the outside scene (real space) in the front side direction of the HMD 100, in other words, the user's viewing direction when the HMD 100 is worn. In another expression, the camera 61 captures a range or direction that overlaps the user's field of view, and captures a direction in which the user gazes. The direction and width of the angle of view of the camera 61 can be set as appropriate. In the present embodiment, as will be described later, the angle of view of the camera 61 includes the outside world visually recognized by the user through the right light guide plate 26 and the left light guide plate 28. More preferably, the angle of view of the camera 61 is set so that the entire field of view of the user who can see through the right light guide plate 26 and the left light guide plate 28 can be imaged.
The camera 61 performs imaging according to the control of the imaging control unit 147 included in the control unit 150 (FIG. 5). The camera 61 outputs captured image data to the control unit 150 via an interface 211 described later.

HMD100は、予め設定された測定方向に位置する測定対象物までの距離を検出する距離センサー(図示略)を備えてもよい。距離センサーは、例えば、前部フレーム27において右導光板26と左導光板28との連結部分に配置できる。この場合、画像表示部20の装着状態において、距離センサーの位置は、水平方向では使用者の両眼のほぼ中間であり、鉛直方向では使用者の両眼より上である。距離センサーの測定方向は、例えば、前部フレーム27の表側方向とすることができ、言い換えればカメラ61の撮像方向と重複する方向である。距離センサーは、例えば、LEDやレーザーダイオード等の光源と、光源が発する光が測定対象物に反射する反射光を受光する受光部とを有する構成とすることができる。距離センサーは、制御部150の制御に従い、三角測距処理や時間差に基づく測距処理を実行すればよい。また、距離センサーは、超音波を発する音源と、測定対象物で反射する超音波を受信する検出部とを備える構成としてもよい。この場合、距離センサーは、制御部150の制御に従い、超音波の反射までの時間差に基づき測距処理を実行すればよい。   The HMD 100 may include a distance sensor (not shown) that detects a distance to a measurement object positioned in a preset measurement direction. The distance sensor can be disposed, for example, at a connection portion between the right light guide plate 26 and the left light guide plate 28 in the front frame 27. In this case, when the image display unit 20 is mounted, the position of the distance sensor is substantially in the middle between the user's eyes in the horizontal direction and above the user's eyes in the vertical direction. The measurement direction of the distance sensor can be, for example, the front side direction of the front frame 27, in other words, the direction overlapping the imaging direction of the camera 61. The distance sensor can be configured to include, for example, a light source such as an LED or a laser diode, and a light receiving unit that receives reflected light that is reflected from the light to be measured. The distance sensor may perform a triangulation process or a distance measurement process based on a time difference in accordance with the control of the control unit 150. The distance sensor may be configured to include a sound source that emits ultrasonic waves and a detection unit that receives ultrasonic waves reflected by the measurement object. In this case, the distance sensor may perform the distance measurement process based on the time difference until the reflection of the ultrasonic wave according to the control of the control unit 150.

図2は、画像表示部20が備える光学系の構成を示す要部平面図である。図2には説明のため使用者の左眼LE及び右眼REを図示する。
図2に示すように、右表示ユニット22及び左表示ユニット24は、左右対称に構成される。右表示ユニット22は、使用者の右眼REに画像を視認させる構成として、画像光を発するOLED(Organic Light Emitting Diode)ユニット221と、OLEDユニット221が発する画像光Lを導くレンズ群等を備えた右光学系251とを備える。画像光Lは、右光学系251により右導光板26に導かれる。
FIG. 2 is a principal plan view showing the configuration of the optical system provided in the image display unit 20. FIG. 2 shows the user's left eye LE and right eye RE for explanation.
As shown in FIG. 2, the right display unit 22 and the left display unit 24 are configured symmetrically. The right display unit 22 includes an OLED (Organic Light Emitting Diode) unit 221 that emits image light and a lens group that guides the image light L emitted from the OLED unit 221 as a configuration that allows the user's right eye RE to visually recognize an image. Right optical system 251. The image light L is guided to the right light guide plate 26 by the right optical system 251.

OLEDユニット221は、OLEDパネル223と、OLEDパネル223を駆動するOLED駆動回路225とを有する。OLEDパネル223は、有機エレクトロルミネッセンスにより発光してR(赤)、G(緑)、B(青)の色光をそれぞれ発する発光素子を、マトリクス状に配置して構成される自発光型の表示パネルである。OLEDパネル223は、R、G、Bの素子を1個ずつ含む単位を1画素として、複数の画素を備え、マトリクス状に配置される画素により画像を形成する。OLED駆動回路225は、制御部150(図5)の制御に従って、OLEDパネル223が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル223の発光素子を発光させる。OLED駆動回路225は、OLEDパネル223の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路225は、例えばOLEDパネル223を駆動する半導体デバイスで構成され、OLEDパネル223の裏面に固定される基板(図示略)に実装されてもよい。この基板には温度センサー217が実装される。
なお、OLEDパネル223は、白色に発光する発光素子をマトリクス状に配置し、R、G、Bの各色に対応するカラーフィルターを重ねて配置する構成であってもよい。また、R、G、Bの色光をそれぞれ放射する発光素子に加え、W(白)の光を発する発光素子を備えるWRGB構成のOLEDパネル223を用いてもよい。
The OLED unit 221 includes an OLED panel 223 and an OLED drive circuit 225 that drives the OLED panel 223. The OLED panel 223 is a self-luminous display panel configured by arranging, in a matrix, light emitting elements that emit light of R (red), G (green), and B (blue) by emitting light by organic electroluminescence. It is. The OLED panel 223 includes a plurality of pixels, each of which includes one R, G, and B element, and forms an image with pixels arranged in a matrix. The OLED drive circuit 225 selects a light emitting element included in the OLED panel 223 and energizes the light emitting element under the control of the control unit 150 (FIG. 5), and causes the light emitting element of the OLED panel 223 to emit light. The OLED drive circuit 225 is fixed to the back surface of the OLED panel 223, that is, the back surface of the light emitting surface by bonding or the like. The OLED drive circuit 225 may be formed of a semiconductor device that drives the OLED panel 223, for example, and may be mounted on a substrate (not shown) fixed to the back surface of the OLED panel 223. A temperature sensor 217 is mounted on this substrate.
Note that the OLED panel 223 may have a configuration in which light emitting elements that emit white light are arranged in a matrix, and color filters corresponding to R, G, and B colors are stacked. Further, an OLED panel 223 having a WRGB configuration provided with a light emitting element that emits W (white) light in addition to the light emitting elements that respectively emit R, G, and B color light may be used.

右光学系251は、OLEDパネル223から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、右導光板26に入射する。右導光板26の内部において光を導く光路には、画像光Lを反射する複数の反射面が形成される。画像光Lは、右導光板26の内部で複数回の反射を経て右眼RE側に導かれる。右導光板26には、右眼REの眼前に位置するハーフミラー261(反射面)が形成される。画像光Lは、ハーフミラー261で反射して右眼REに向けて右導光板26から射出され、この画像光Lが右眼REの網膜に像を結び、使用者に画像を視認させる。   The right optical system 251 includes a collimator lens that converts the image light L emitted from the OLED panel 223 into a parallel light flux. The image light L converted into a parallel light beam by the collimator lens enters the right light guide plate 26. A plurality of reflecting surfaces that reflect the image light L are formed in an optical path that guides light inside the right light guide plate 26. The image light L is guided to the right eye RE side through a plurality of reflections inside the right light guide plate 26. A half mirror 261 (reflection surface) located in front of the right eye RE is formed on the right light guide plate 26. The image light L is reflected by the half mirror 261 and emitted from the right light guide plate 26 toward the right eye RE. The image light L forms an image on the retina of the right eye RE, and allows the user to visually recognize the image.

また、左表示ユニット24は、使用者の左眼LEに画像を視認させる構成として、画像光を発するOLEDユニット241と、OLEDユニット241が発する画像光Lを導くレンズ群等を備えた左光学系252とを備える。画像光Lは、左光学系252により左導光板28に導かれる。   In addition, the left display unit 24 has a left optical system including an OLED unit 241 that emits image light and a lens group that guides the image light L emitted from the OLED unit 241 as a configuration that allows the user's left eye LE to visually recognize an image. 252. The image light L is guided to the left light guide plate 28 by the left optical system 252.

OLEDユニット241は、OLEDパネル243と、OLEDパネル243を駆動するOLED駆動回路245とを有する。OLEDパネル243は、OLEDパネル223と同様に構成される自発光型の表示パネルである。OLED駆動回路245は、制御部150(図5)の制御に従って、OLEDパネル243が備える発光素子の選択及び発光素子への通電を実行して、OLEDパネル243の発光素子を発光させる。OLED駆動回路245は、OLEDパネル243の裏面すなわち発光面の裏側に、ボンディング等により固定される。OLED駆動回路245は、例えばOLEDパネル243を駆動する半導体デバイスで構成され、OLEDパネル243の裏面に固定される基板(図示略)に実装されてもよい。この基板には、温度センサー239が実装される。   The OLED unit 241 includes an OLED panel 243 and an OLED drive circuit 245 that drives the OLED panel 243. The OLED panel 243 is a self-luminous display panel configured similarly to the OLED panel 223. The OLED driving circuit 245 causes the light emitting elements of the OLED panel 243 to emit light by selecting a light emitting element included in the OLED panel 243 and energizing the light emitting element according to the control of the control unit 150 (FIG. 5). The OLED drive circuit 245 is fixed to the back surface of the OLED panel 243, that is, the back surface of the light emitting surface by bonding or the like. The OLED drive circuit 245 may be configured by a semiconductor device that drives the OLED panel 243, for example, and may be mounted on a substrate (not shown) fixed to the back surface of the OLED panel 243. A temperature sensor 239 is mounted on this substrate.

左光学系252は、OLEDパネル243から射出された画像光Lを並行状態の光束にするコリメートレンズを有する。コリメートレンズにより並行状態の光束にされた画像光Lは、左導光板28に入射する。左導光板28は、画像光Lを反射する複数の反射面が形成された光学素子であり、例えばプリズムである。画像光Lは、左導光板28の内部で複数回の反射を経て左眼LE側に導かれる。左導光板28には、左眼LEの眼前に位置するハーフミラー281(反射面)が形成される。画像光Lは、ハーフミラー281で反射して左眼LEに向けて左導光板28から射出され、この画像光Lが左眼LEの網膜に像を結び、使用者に画像を視認させる。   The left optical system 252 includes a collimating lens that converts the image light L emitted from the OLED panel 243 into a light beam in a parallel state. The image light L converted into a parallel light beam by the collimator lens enters the left light guide plate 28. The left light guide plate 28 is an optical element formed with a plurality of reflecting surfaces that reflect the image light L, and is, for example, a prism. The image light L is guided to the left eye LE side through a plurality of reflections inside the left light guide plate 28. The left light guide plate 28 is formed with a half mirror 281 (reflection surface) located in front of the left eye LE. The image light L is reflected by the half mirror 281 and emitted from the left light guide plate 28 toward the left eye LE. The image light L forms an image on the retina of the left eye LE, and allows the user to visually recognize the image.

この構成によれば、HMD100は、シースルー型の表示装置として機能する。すなわち、使用者の右眼REには、ハーフミラー261で反射した画像光Lと、右導光板26を透過した外光OLとが入射する。また、左眼LEには、ハーフミラー281で反射した画像光Lと、ハーフミラー281を透過した外光OLとが入射する。このように、HMD100は、内部で処理した画像の画像光Lと外光OLとを重ねて使用者の眼に入射させ、使用者にとっては、右導光板26及び左導光板28を透かして外景が見え、この外景に重ねて、画像光Lによる画像が視認される。
ハーフミラー261、281は、右表示ユニット22及び左表示ユニット24がそれぞれ出力する画像光を反射して画像を取り出す画像取り出し部であり、表示部ということができる。
According to this configuration, the HMD 100 functions as a see-through display device. That is, the image light L reflected by the half mirror 261 and the external light OL transmitted through the right light guide plate 26 are incident on the user's right eye RE. Further, the image light L reflected by the half mirror 281 and the external light OL transmitted through the half mirror 281 are incident on the left eye LE. In this way, the HMD 100 superimposes the image light L of the internally processed image and the external light OL so as to enter the user's eyes, and for the user, the outside light can be seen through the right light guide plate 26 and the left light guide plate 28. The image by the image light L is visually recognized over the outside scene.
The half mirrors 261 and 281 are image extraction units that extract image by reflecting image light output from the right display unit 22 and the left display unit 24, respectively, and can be called display units.

なお、左光学系252と左導光板28とを総称して「左導光部」とも呼び、右光学系251と右導光板26とを総称して「右導光部」と呼ぶ。右導光部及び左導光部の構成は上記の例に限定されず、画像光を用いて使用者の眼前に虚像を形成する限りにおいて任意の方式を用いることができ、例えば、回折格子を用いても良いし、半透過反射膜を用いても良い。   The left optical system 252 and the left light guide plate 28 are collectively referred to as a “left light guide”, and the right optical system 251 and the right light guide plate 26 are collectively referred to as a “right light guide”. The configuration of the right light guide and the left light guide is not limited to the above example, and any method can be used as long as a virtual image is formed in front of the user's eyes using image light. It may be used, or a semi-transmissive reflective film may be used.

図1に戻り、制御装置10及び画像表示部20は、接続ケーブル40により接続される。接続ケーブル40は、ケース10Aの下部に設けられるコネクター(図示略)に着脱可能に接続され、左保持部23の先端から、画像表示部20の内部に設けられる各種回路に接続する。接続ケーブル40は、デジタルデータを伝送するメタルケーブル又は光ファイバーケーブルを有し、アナログ信号を伝送するメタルケーブルを有していてもよい。接続ケーブル40の途中には、コネクター46が設けられる。コネクター46は、ステレオミニプラグを接続するジャックであり、コネクター46及び制御装置10は、例えばアナログ音声信号を伝送するラインで接続される。図1に示す構成例では、ステレオヘッドホンを構成する右イヤホン32と左イヤホン34、及びマイク63を有するヘッドセット30が、コネクター46に接続される。
制御装置10と画像表示部20とを無線接続してもよい。例えば、Bluetooth(登録商標)、無線LAN(Wi−Fi(登録商標)を含む)等の規格に準拠した無線通信により、制御装置10と画像表示部20とが制御信号やデータを相互に送受信する構成としてもよい。
Returning to FIG. 1, the control device 10 and the image display unit 20 are connected by a connection cable 40. The connection cable 40 is detachably connected to a connector (not shown) provided at the lower part of the case 10 </ b> A, and is connected to various circuits provided in the image display unit 20 from the tip of the left holding unit 23. The connection cable 40 includes a metal cable that transmits digital data or an optical fiber cable, and may include a metal cable that transmits an analog signal. A connector 46 is provided in the middle of the connection cable 40. The connector 46 is a jack for connecting a stereo mini plug, and the connector 46 and the control device 10 are connected by a line for transmitting an analog audio signal, for example. In the configuration example shown in FIG. 1, a headset 30 having a right earphone 32 and a left earphone 34 and a microphone 63 constituting a stereo headphone is connected to a connector 46.
The control device 10 and the image display unit 20 may be wirelessly connected. For example, the control device 10 and the image display unit 20 mutually transmit and receive control signals and data by wireless communication complying with standards such as Bluetooth (registered trademark) and wireless LAN (including Wi-Fi (registered trademark)). It is good also as a structure.

マイク63は、例えば図1に示すように、マイク63の集音部が使用者の視線方向を向くように配置され、音声を集音して、音声信号を音声インターフェイス182(図4)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。   For example, as shown in FIG. 1, the microphone 63 is arranged so that the sound collection unit of the microphone 63 faces the user's line of sight, collects sound, and outputs a sound signal to the sound interface 182 (FIG. 4). To do. For example, the microphone 63 may be a monaural microphone or a stereo microphone, may be a directional microphone, or may be an omnidirectional microphone.

制御装置10は、使用者により操作される被操作部として、ボタン11、LEDインジケーター12、トラックパッド14、上下キー15、切替スイッチ16、及び電源スイッチ18を備える。これらの被操作部はケース10Aの表面に配置される。   The control device 10 includes a button 11, an LED indicator 12, a track pad 14, an up / down key 15, a changeover switch 16, and a power switch 18 as operated parts operated by a user. These operated parts are arranged on the surface of the case 10A.

ボタン11は、制御装置10を操作するためのキーやスイッチを備え、これらのキーやスイッチは押圧操作により変位する。例えば、ボタン11は、制御装置10が実行するオペレーティングシステム143(図5参照)等に関する操作を行うためのメニューキー、ホームキー、「戻る」キーを含む。
LEDインジケーター12は、HMD100の動作状態に対応して点灯し、又は点滅する。上下キー15は、右イヤホン32及び左イヤホン34から出力する音量の増減の指示入力や、画像表示部20の表示の明るさの増減の指示入力に利用される。切替スイッチ16は、上下キー15の操作に対応する入力を切り替えるスイッチである。電源スイッチ18は、HMD100の電源のオン/オフを切り替えるスイッチであり、例えばスライドスイッチである。
The button 11 includes keys and switches for operating the control device 10, and these keys and switches are displaced by a pressing operation. For example, the button 11 includes a menu key, a home key, and a “return” key for performing operations related to the operating system 143 (see FIG. 5) executed by the control device 10.
The LED indicator 12 lights up or blinks in accordance with the operating state of the HMD 100. The up / down key 15 is used to input an instruction to increase / decrease the volume output from the right earphone 32 and the left earphone 34 and to input an instruction to increase / decrease the display brightness of the image display unit 20. The changeover switch 16 is a switch for changing an input corresponding to the operation of the up / down key 15. The power switch 18 is a switch that switches on / off the power of the HMD 100, and is, for example, a slide switch.

トラックパッド14は、接触操作を検出する操作面を有し、操作面に対する操作に応じて操作信号を出力する。操作面における検出方式は限定されず、静電式、圧力検出式、光学式或いは他の方式を採用できる。トラックパッド14への接触(タッチ操作)は、タッチセンサー(図示略)により検出される。トラックパッド14にはLED表示部17が設置される。LED表示部17は複数のLEDを備え、それぞれのLEDの光はトラックパッド14を透過して、操作用のアイコン等を表示する。このアイコン等はソフトウェアボタンとして機能する。トラックパッド14は、本発明の「検出部」に相当する。   The track pad 14 has an operation surface for detecting a contact operation, and outputs an operation signal according to an operation on the operation surface. The detection method on the operation surface is not limited, and an electrostatic method, a pressure detection method, an optical method, or other methods can be adopted. Contact (touch operation) to the track pad 14 is detected by a touch sensor (not shown). An LED display unit 17 is installed on the track pad 14. The LED display unit 17 includes a plurality of LEDs, and light of each LED is transmitted through the track pad 14 to display an operation icon or the like. This icon or the like functions as a software button. The track pad 14 corresponds to the “detection unit” of the present invention.

図3は、画像表示部20の構成を示す斜視図であり、画像表示部20を使用者の頭部側から見た要部構成を示す。この図3は、画像表示部20の使用者の頭部に接する側、言い換えれば使用者の右眼RE及び左眼LEに見える側である。別の言い方をすれば、右導光板26及び左導光板28の裏側が見えている。
図3では、使用者の右眼REに画像光を照射するハーフミラー261、及び左眼LEに画像光を照射するハーフミラー281が、略四角形の領域として見える。また、ハーフミラー261、281を含む右導光板26及び左導光板28の全体が、上述したように外光を透過する。このため、使用者には、右導光板26及び左導光板28の全体を透過して外景が視認され、ハーフミラー261、281の位置に矩形の表示画像が視認される。
FIG. 3 is a perspective view showing a configuration of the image display unit 20 and shows a main configuration of the image display unit 20 as viewed from the user's head side. FIG. 3 shows the side of the image display unit 20 that contacts the user's head, in other words, the side that can be seen by the user's right eye RE and left eye LE. In other words, the back sides of the right light guide plate 26 and the left light guide plate 28 are visible.
In FIG. 3, the half mirror 261 that irradiates the user's right eye RE with the image light and the half mirror 281 that irradiates the left eye LE with the image light appear as substantially rectangular areas. Further, the entire right light guide plate 26 and left light guide plate 28 including the half mirrors 261 and 281 transmit external light as described above. For this reason, the user sees the outside scene through the entire right light guide plate 26 and the left light guide plate 28, and sees a rectangular display image at the positions of the half mirrors 261 and 281.

カメラ61は、画像表示部20において右側の端部に配置され、使用者の両眼が向く方向、すなわち使用者にとって前方を撮像する。カメラ61の光軸は、右眼RE及び左眼LEの視線方向を含む方向とされる。使用者がHMD100を装着した状態で視認できる外景は、無限遠とは限らない。例えば、使用者が両眼で、使用者の前方に位置する対象物体を注視する場合、使用者から対象物体までの距離は、30cm〜10m程度であることが多く、1m〜4m程度であることが、より多い。そこで、HMD100について、通常使用時における使用者から対象物体までの距離の上限、及び下限の目安を定めてもよい。この目安は調査や実験により求めてもよいし使用者が設定してもよい。カメラ61の光軸、及び画角は、通常使用時における対象物体までの距離が、設定された上限の目安に相当する場合、及び下限の目安に相当する場合に、この対象物体が画角に含まれるように設定されることが好ましい。   The camera 61 is disposed at the right end of the image display unit 20 and images the direction in which both eyes of the user face, that is, the front for the user. The optical axis of the camera 61 is a direction including the line-of-sight directions of the right eye RE and the left eye LE. The outside scene that the user can visually recognize in a state where the HMD 100 is worn is not always at infinity. For example, when the user gazes at a target object located in front of the user with both eyes, the distance from the user to the target object is often about 30 cm to 10 m, and is about 1 m to 4 m. But more. Therefore, for the HMD 100, an upper limit and a lower limit guideline for the distance from the user to the target object during normal use may be set. This standard may be obtained by investigation or experiment, or may be set by the user. The optical axis and the angle of view of the camera 61 are set so that the distance to the target object during normal use corresponds to the set upper limit guideline and the lower limit guideline. It is preferable to be set so as to be included.

一般に、人間の視野角は水平方向におよそ200度、垂直方向におよそ125度とされ、そのうち情報受容能力に優れる有効視野は水平方向に30度、垂直方向に20度程度である。さらに、人間が注視する注視点が迅速に安定して見える安定注視野は、水平方向に60〜90度、垂直方向に45度〜70度程度とされている。注視点が使用者の前方に位置する対象物体であるとき、使用者の視野において、右眼RE及び左眼LEのそれぞれの視線を中心として水平方向に30度、垂直方向に20度程度が有効視野である。また、水平方向に60〜90度、垂直方向に45度〜70度程度が安定注視野であり、水平方向に約200度、垂直方向に約125度が視野角となる。さらに、使用者が右導光板26及び左導光板28を透過して視認する実際の視野を、実視野(FOV:Field Of View)と呼ぶことができる。図1及び図2に示す本実施形態の構成で、実視野は、右導光板26及び左導光板28を透過して使用者が視認する実際の視野に相当する。実視野は、視野角及び安定注視野より狭いが、有効視野より広い。   In general, the viewing angle of a human is about 200 degrees in the horizontal direction and about 125 degrees in the vertical direction. Among them, the effective field of view with excellent information receiving ability is about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction. Furthermore, the stable gaze field in which the gaze point that the human gazes at appears to be quickly and stably is about 60 to 90 degrees in the horizontal direction and about 45 to 70 degrees in the vertical direction. When the gazing point is a target object positioned in front of the user, in the user's field of view, about 30 degrees in the horizontal direction and about 20 degrees in the vertical direction are effective around the line of sight of each of the right eye RE and the left eye LE. It is a field of view. Further, the stable viewing field is about 60 to 90 degrees in the horizontal direction and about 45 to 70 degrees in the vertical direction, and the viewing angle is about 200 degrees in the horizontal direction and about 125 degrees in the vertical direction. Furthermore, the actual visual field that the user sees through the right light guide plate 26 and the left light guide plate 28 can be referred to as a real field of view (FOV: Field Of View). In the configuration of the present embodiment shown in FIGS. 1 and 2, the actual visual field corresponds to an actual visual field that is transmitted through the right light guide plate 26 and the left light guide plate 28 and visually recognized by the user. The real field of view is narrower than the viewing angle and stable field of view, but wider than the effective field of view.

カメラ61の画角は、使用者の視野よりも広い範囲を撮像可能であることが好ましく、具体的には、画角が、少なくとも使用者の有効視野よりも広いことが好ましい。また、画角が、使用者の実視野よりも広いことがより好ましい。さらに好ましくは、画角が、使用者の安定注視野よりも広く、最も好ましくは、画角が使用者の両眼の視野角よりも広いことがより好ましい。   The field angle of the camera 61 is preferably capable of capturing an image in a wider range than the user's field of view, and specifically, the field angle is preferably at least wider than the user's effective field of view. Further, it is more preferable that the angle of view is wider than the actual field of view of the user. More preferably, the angle of view is wider than the stable viewing field of the user, and most preferably, the angle of view is wider than the viewing angle of both eyes of the user.

カメラ61が、撮像レンズとして、いわゆる広角レンズを備え、広い画角を撮像できる構成としてもよい。広角レンズには、超広角レンズ、準広角レンズと呼ばれるレンズを含んでもよいし、単焦点レンズであってもズームレンズであってもよく、複数のレンズからなるレンズ群をカメラ61が備える構成であってもよい。   The camera 61 may include a so-called wide-angle lens as an imaging lens so that a wide angle of view can be captured. The wide-angle lens may include a lens called a super-wide-angle lens or a quasi-wide-angle lens, may be a single focus lens or a zoom lens, and the camera 61 includes a lens group including a plurality of lenses. There may be.

図4は、HMD100を構成する各部の構成を示すブロック図である。
制御装置10は、プログラムを実行してHMD100を制御するメインプロセッサー140を備える。メインプロセッサー140には、不揮発性記憶部121及びメモリー123及びが接続される。また、メインプロセッサー140には、入力装置としてトラックパッド14及び操作部110が接続される。また、メインプロセッサー140には、センサー類として、6軸センサー111、磁気センサー113が接続される。また、メインプロセッサー140には、GPS受信部115、通信部117、ビーコン受信部119、音声コーデック180、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192及びFPGA194が接続される。これらは外部とのインターフェイスとして機能する。
FIG. 4 is a block diagram illustrating a configuration of each unit included in the HMD 100.
The control device 10 includes a main processor 140 that executes a program and controls the HMD 100. A non-volatile storage unit 121 and a memory 123 are connected to the main processor 140. The main processor 140 is connected to the track pad 14 and the operation unit 110 as input devices. In addition, a 6-axis sensor 111 and a magnetic sensor 113 are connected to the main processor 140 as sensors. The main processor 140 is connected to a GPS receiver 115, a communication unit 117, a beacon receiver 119, an audio codec 180, an external connector 184, an external memory interface 186, a USB connector 188, a sensor hub 192, and an FPGA 194. These function as an interface with the outside.

メインプロセッサー140は、制御装置10が内蔵するコントローラー基板120に実装される。コントローラー基板120には、メインプロセッサー140に加えて、メモリー123、ビーコン受信部119、不揮発性記憶部121等が実装されてもよい。本実施形態では、6軸センサー111、磁気センサー113、GPS受信部115、通信部117、メモリー123、不揮発性記憶部121、音声コーデック180等がコントローラー基板120に実装される。また、外部コネクター184、外部メモリーインターフェイス186、USBコネクター188、センサーハブ192、FPGA194、及びインターフェイス196をコントローラー基板120に実装した構成であってもよい。   The main processor 140 is mounted on the controller board 120 built in the control device 10. In addition to the main processor 140, a memory 123, a beacon receiving unit 119, a nonvolatile storage unit 121, and the like may be mounted on the controller board 120. In the present embodiment, a six-axis sensor 111, a magnetic sensor 113, a GPS receiver 115, a communication unit 117, a memory 123, a nonvolatile storage unit 121, an audio codec 180, and the like are mounted on the controller board 120. Further, the external connector 184, the external memory interface 186, the USB connector 188, the sensor hub 192, the FPGA 194, and the interface 196 may be mounted on the controller board 120.

メモリー123は、メインプロセッサー140がプログラムを実行する場合に、実行されるプログラム、及び処理されるデータを一時的に記憶するワークエリアを構成する。不揮発性記憶部121は、フラッシュメモリーやeMMC(embedded Multi Media Card)で構成される。不揮発性記憶部121は、メインプロセッサー140が実行するプログラムや、メインプロセッサー140がプログラムを実行して処理する各種データを記憶する。   The memory 123 constitutes a work area that temporarily stores a program to be executed and data to be processed when the main processor 140 executes the program. The non-volatile storage unit 121 is configured by a flash memory or an eMMC (embedded Multi Media Card). The nonvolatile storage unit 121 stores a program executed by the main processor 140 and various data processed by the main processor 140 executing the program.

メインプロセッサー140は、トラックパッド14から入力される操作信号に基づいて、トラックパッド14の操作面に対する接触操作を検出し、操作位置を取得する。
操作部110は、ボタン11及びLED表示部17を含む。操作部110は、ボタン11が有するボタンやスイッチ等の操作子が操作された場合に、操作された操作子に対応する操作信号をメインプロセッサー140に出力する。
The main processor 140 detects a touch operation on the operation surface of the track pad 14 based on an operation signal input from the track pad 14 and acquires an operation position.
The operation unit 110 includes a button 11 and an LED display unit 17. The operation unit 110 outputs an operation signal corresponding to the operated operation element to the main processor 140 when an operation element such as a button or a switch included in the button 11 is operated.

LED表示部17は、メインプロセッサー140の制御に従って、LEDインジケーター12の点灯、及び消灯を制御する。また、LED表示部17は、トラックパッド14(図1)の直下に配置されるLED(図示略)、及びこのLEDを点灯させる駆動回路を含む構成であってもよい。この場合、LED表示部17は、メインプロセッサー140の制御に従って、LEDを点灯、点滅、消灯させる。   The LED display unit 17 controls the turning on and off of the LED indicator 12 according to the control of the main processor 140. Further, the LED display unit 17 may have a configuration including an LED (not shown) arranged immediately below the track pad 14 (FIG. 1) and a drive circuit for lighting the LED. In this case, the LED display unit 17 turns on, blinks, and turns off the LED according to the control of the main processor 140.

6軸センサー111は、3軸加速度センサー及び3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー111は、上記のセンサーがモジュール化されたIMU(Inertial Measurement Unit)を採用してもよい。
磁気センサー113は、例えば、3軸の地磁気センサーである。
6軸センサー111及び磁気センサー113は、検出値を、予め指定されたサンプリング周期に従ってメインプロセッサー140に出力する。また、6軸センサー111及び磁気センサー113は、メインプロセッサー140の要求に応じて、メインプロセッサー140により指定されたタイミングで、検出値をメインプロセッサー140に出力する。
The 6-axis sensor 111 is a motion sensor (inertial sensor) including a 3-axis acceleration sensor and a 3-axis gyro (angular velocity) sensor. The 6-axis sensor 111 may employ an IMU (Internal Measurement Unit) in which the above sensors are modularized.
The magnetic sensor 113 is, for example, a triaxial geomagnetic sensor.
The 6-axis sensor 111 and the magnetic sensor 113 output the detection value to the main processor 140 according to a sampling period specified in advance. The 6-axis sensor 111 and the magnetic sensor 113 output detection values to the main processor 140 at a timing designated by the main processor 140 in response to a request from the main processor 140.

GPS受信部115は、図示しないGPSアンテナを備え、GPS衛星から送信されるGPS信号を受信する。GPS受信部115は、受信したGPS信号をメインプロセッサー140に出力する。また、GPS受信部115は、受信したGPS信号の信号強度を計測し、メインプロセッサー140に出力する。信号強度には、例えば、受信信号強度(RSSI:Received Signal Strength Indication)、電界強度、磁界強度、信号雑音比(SNR: Signal to Noise ratio)等の情報を用いることができる。   The GPS receiving unit 115 includes a GPS antenna (not shown) and receives a GPS signal transmitted from a GPS satellite. The GPS receiving unit 115 outputs the received GPS signal to the main processor 140. Further, the GPS receiving unit 115 measures the signal strength of the received GPS signal and outputs it to the main processor 140. Information such as received signal strength (RSSI: Received Signal Strength Indication), electric field strength, magnetic field strength, signal to noise ratio (SNR) can be used as the signal strength.

通信部117は、外部の機器との間で無線通信を実行する。通信部117は、アンテナ、RF回路、ベースバンド回路、通信制御回路等を備えて構成され、又はこれらが統合されたデバイスで構成される。通信部117は、例えば、Bluetooth、無線LAN(Wi−Fiを含む)等の規格に準拠した無線通信を行う。   The communication unit 117 performs wireless communication with an external device. The communication unit 117 includes an antenna, an RF circuit, a baseband circuit, a communication control circuit, and the like, or a device in which these are integrated. The communication unit 117 performs wireless communication complying with standards such as Bluetooth and wireless LAN (including Wi-Fi), for example.

ビーコン受信部119は、ビーコン信号の送信装置(図示略)から送信されるビーコン信号を受信する。ビーコン受信部119は、受信したビーコン信号に含まれるビーコンIDを検出する。ビーコンIDは、送信装置の識別情報である。また、ビーコン受信部119は、受信したビーコン信号の電波強度(RSSI:Received Signal Strength Indication)を検出し、検出した電波強度により送信装置との間の距離を推定する。ビーコン信号は、例えば、NFC(Near Field Communication)、Bluetooth、或いはBluetooth Low Energy、Bluetooth Smart、iBeacon(登録商標)等の近距離無線通信の規格に準拠した信号が使用される。
ビーコン受信部119は、本発明の「距離検出部」に相当する。
The beacon receiving unit 119 receives a beacon signal transmitted from a beacon signal transmission device (not shown). The beacon receiving unit 119 detects a beacon ID included in the received beacon signal. The beacon ID is identification information of the transmission device. Further, the beacon receiving unit 119 detects the received signal strength indication (RSSI) of the received beacon signal, and estimates the distance from the transmission device based on the detected radio field strength. As the beacon signal, for example, a signal conforming to a short-range wireless communication standard such as NFC (Near Field Communication), Bluetooth, Bluetooth Low Energy, Bluetooth Smart, or iBeacon (registered trademark) is used.
The beacon receiving unit 119 corresponds to the “distance detection unit” of the present invention.

音声インターフェイス182は、音声信号を入出力するインターフェイスである。本実施形態では、音声インターフェイス182は、接続ケーブル40に設けられたコネクター46(図1)を含む。コネクター46はヘッドセット30に接続される。音声インターフェイス182が出力する音声信号は右イヤホン32、及び左イヤホン34に入力され、これにより右イヤホン32及び左イヤホン34が音声を出力する。また、ヘッドセット30が備えるマイク63は、音声を集音して、音声信号を音声インターフェイス182に出力する。マイク63から音声インターフェイス182に入力される音声信号は、外部コネクター184に入力される。   The audio interface 182 is an interface for inputting and outputting audio signals. In the present embodiment, the audio interface 182 includes a connector 46 (FIG. 1) provided on the connection cable 40. The connector 46 is connected to the headset 30. The audio signal output from the audio interface 182 is input to the right earphone 32 and the left earphone 34, whereby the right earphone 32 and the left earphone 34 output audio. Further, the microphone 63 provided in the headset 30 collects sound and outputs a sound signal to the sound interface 182. An audio signal input from the microphone 63 to the audio interface 182 is input to the external connector 184.

音声コーデック180は、音声インターフェイス182に接続され、音声インターフェイス182を介して入出力される音声信号のエンコード及びデコードを行う。音声コーデック180はアナログ音声信号からデジタル音声データへの変換を行うA/Dコンバーター、及びその逆の変換を行うD/Aコンバーターを備えてもよい。例えば、本実施形態のHMD100は、音声を右イヤホン32及び左イヤホン34により出力し、マイク63で集音する。音声コーデック180は、メインプロセッサー140が出力するデジタル音声データをアナログ音声信号に変換して、音声インターフェイス182を介して出力する。また、音声コーデック180は、音声インターフェイス182に入力されるアナログ音声信号をデジタル音声データに変換してメインプロセッサー140に出力する。   The audio codec 180 is connected to the audio interface 182 and encodes and decodes an audio signal input / output via the audio interface 182. The audio codec 180 may include an A / D converter that converts analog audio signals to digital audio data, and a D / A converter that performs the reverse conversion. For example, the HMD 100 according to the present embodiment outputs sound by the right earphone 32 and the left earphone 34 and collects sound by the microphone 63. The audio codec 180 converts the digital audio data output from the main processor 140 into an analog audio signal and outputs the analog audio signal via the audio interface 182. The audio codec 180 converts an analog audio signal input to the audio interface 182 into digital audio data and outputs the digital audio data to the main processor 140.

外部コネクター184は、メインプロセッサー140と通信する外部の装置を接続するコネクターである。外部コネクター184は、例えば、外部の装置をメインプロセッサー140に接続して、メインプロセッサー140が実行するプログラムのデバッグや、HMD100の動作のログの収集を行う場合に、この外部の装置を接続するインターフェイスである。   The external connector 184 is a connector that connects an external device that communicates with the main processor 140. The external connector 184 is an interface for connecting an external device when, for example, an external device is connected to the main processor 140 to debug a program executed by the main processor 140 or collect a log of the operation of the HMD 100. It is.

外部メモリーインターフェイス186は、可搬型のメモリーデバイスを接続可能なインターフェイスであり、例えば、カード型記録媒体を装着してデータの読取が可能なメモリーカードスロットとインターフェイス回路とを含む。この場合のカード型記録媒体のサイズ、形状、規格は制限されず、適宜に変更可能である。   The external memory interface 186 is an interface to which a portable memory device can be connected. For example, the external memory interface 186 includes a memory card slot in which a card type recording medium is mounted and data can be read and an interface circuit. In this case, the size, shape and standard of the card type recording medium are not limited and can be changed as appropriate.

USB(Universal Serial Bus)コネクター188は、USB規格に準拠したコネクターとインターフェイス回路とを備える。USBコネクター188は、USBメモリーデバイス、スマートフォン、コンピューター等を接続できる。USBコネクター188のサイズや形状、適合するUSB規格のバージョンは適宜に選択、変更可能である。   The USB (Universal Serial Bus) connector 188 includes a connector conforming to the USB standard and an interface circuit. The USB connector 188 can connect a USB memory device, a smartphone, a computer, or the like. The size and shape of the USB connector 188 and the compatible USB standard version can be appropriately selected and changed.

センサーハブ192及びFPGA194は、インターフェイス(I/F)196を介して、画像表示部20に接続される。センサーハブ192は、画像表示部20が備える各種センサーの検出値を取得してメインプロセッサー140に出力する。また、FPGA194は、メインプロセッサー140と画像表示部20の各部との間で送受信するデータの処理、及びインターフェイス196を介した伝送を実行する。   The sensor hub 192 and the FPGA 194 are connected to the image display unit 20 via an interface (I / F) 196. The sensor hub 192 acquires detection values of various sensors included in the image display unit 20 and outputs them to the main processor 140. The FPGA 194 executes processing of data transmitted / received between the main processor 140 and each unit of the image display unit 20 and transmission via the interface 196.

HMD100は、バイブレーター19を備える。バイブレーター19は、モーター、偏心した回転子(いずれも図示略)を備え、その他の必要な構成を備えてもよい。バイブレーター19は、メインプロセッサー140の制御に従って上記モーターを回転させることにより、振動を発生する。HMD100は、例えば、操作部110に対する操作を検出した場合、HMD100の電源がオン/オフされる場合、或いはその他の場合に、所定の振動パターンでバイブレーター19により振動を発生する。   The HMD 100 includes a vibrator 19. The vibrator 19 includes a motor and an eccentric rotor (both not shown), and may have other necessary configurations. The vibrator 19 generates vibrations by rotating the motor according to the control of the main processor 140. For example, the HMD 100 generates vibration by the vibrator 19 with a predetermined vibration pattern when an operation on the operation unit 110 is detected, when the power of the HMD 100 is turned on / off, or in other cases.

画像表示部20の右表示ユニット22及び左表示ユニット24は、それぞれ、制御装置10に接続される。図1に示すように、HMD100では左保持部23に接続ケーブル40が接続され、この接続ケーブル40に繋がる配線が画像表示部20の内部に敷設され、右表示ユニット22と左表示ユニット24のそれぞれが制御装置10に接続される。   The right display unit 22 and the left display unit 24 of the image display unit 20 are each connected to the control device 10. As shown in FIG. 1, in the HMD 100, a connection cable 40 is connected to the left holding unit 23, and wirings connected to the connection cable 40 are laid inside the image display unit 20, and each of the right display unit 22 and the left display unit 24. Is connected to the control device 10.

右表示ユニット22は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)211、インターフェイス211を介して制御装置10から入力されるデータを受信する受信部(Rx)213、及びEEPROM215が実装される。
インターフェイス211は、受信部213、EEPROM215、温度センサー217、カメラ61、照度センサー65、及びLEDインジケーター67を、制御装置10に接続する。
The right display unit 22 includes a display unit substrate 210. On the display unit substrate 210, an interface (I / F) 211 connected to the interface 196, a receiving unit (Rx) 213 that receives data input from the control device 10 via the interface 211, and an EEPROM 215 are mounted. .
The interface 211 connects the receiving unit 213, the EEPROM 215, the temperature sensor 217, the camera 61, the illuminance sensor 65, and the LED indicator 67 to the control device 10.

EEPROM(Electrically Erasable Programmable Read−Only Memory)215は、各種のデータをメインプロセッサー140が読み取り可能に記憶する。EEPROM215は、例えば、画像表示部20が備えるOLEDユニット221、241の発光特性や表示特性に関するデータ、右表示ユニット22又は左表示ユニット24が備えるセンサーの特性に関するデータなどを記憶する。具体的には、OLEDユニット221、241のガンマ補正に係るパラメーター、温度センサー217、239の検出値を補償するデータ等を記憶する。これらのデータは、HMD100の工場出荷時の検査によって生成され、EEPROM215に書き込まれ、出荷後はメインプロセッサー140がEEPROM215のデータを利用して処理を行える。   An EEPROM (Electrically Erasable Programmable Read-Only Memory) 215 stores various data so that the main processor 140 can read the data. The EEPROM 215 stores, for example, data relating to light emission characteristics and display characteristics of the OLED units 221 and 241 provided in the image display unit 20, data relating to characteristics of sensors provided in the right display unit 22 or the left display unit 24, and the like. Specifically, parameters relating to gamma correction of the OLED units 221, 241 and data for compensating the detection values of the temperature sensors 217, 239 are stored. These data are generated by the factory inspection of the HMD 100 and written in the EEPROM 215. After the shipment, the main processor 140 can perform processing using the data in the EEPROM 215.

カメラ61は、インターフェイス211を介して入力される信号に従って撮像を実行し、撮像画像データ、又は撮像結果を示す信号を制御装置10に出力する。
照度センサー65は、図1に示すように、前部フレーム27の端部ERに設けられ、画像表示部20を装着する使用者の前方からの外光を受光するよう配置される。照度センサー65は、受光量(受光強度)に対応する検出値を出力する。
LEDインジケーター67は、図1に示すように、前部フレーム27の端部ERにおいてカメラ61の近傍に配置される。LEDインジケーター67は、カメラ61による撮像を実行中に点灯して、撮像中であることを報知する。
The camera 61 executes imaging according to a signal input via the interface 211 and outputs captured image data or a signal indicating the imaging result to the control device 10.
As shown in FIG. 1, the illuminance sensor 65 is provided at the end ER of the front frame 27 and is arranged to receive external light from the front of the user wearing the image display unit 20. The illuminance sensor 65 outputs a detection value corresponding to the amount of received light (received light intensity).
As shown in FIG. 1, the LED indicator 67 is disposed near the camera 61 at the end ER of the front frame 27. The LED indicator 67 is lit during execution of imaging by the camera 61 to notify that imaging is in progress.

温度センサー217は、温度を検出し、検出温度に対応する電圧値又は抵抗値を、検出値として出力する。温度センサー217は、OLEDパネル223(図2)の裏面側に実装される。温度センサー217は、例えばOLED駆動回路225と同一の基板に実装されてもよい。この構成により、温度センサー217は、主としてOLEDパネル223の温度を検出する。   The temperature sensor 217 detects the temperature and outputs a voltage value or a resistance value corresponding to the detected temperature as a detected value. The temperature sensor 217 is mounted on the back side of the OLED panel 223 (FIG. 2). For example, the temperature sensor 217 may be mounted on the same substrate as the OLED drive circuit 225. With this configuration, the temperature sensor 217 mainly detects the temperature of the OLED panel 223.

受信部213は、インターフェイス211を介してメインプロセッサー140が送信するデータを受信する。受信部213は、OLEDユニット221で表示する画像の画像データを受信した場合に、受信した画像データを、OLED駆動回路225(図2)に出力する。   The receiving unit 213 receives data transmitted from the main processor 140 via the interface 211. When receiving the image data of the image displayed on the OLED unit 221, the receiving unit 213 outputs the received image data to the OLED drive circuit 225 (FIG. 2).

左表示ユニット24は、表示ユニット基板210を有する。表示ユニット基板210には、インターフェイス196に接続されるインターフェイス(I/F)231、インターフェイス231を介して制御装置10から入力されるデータを受信する受信部(Rx)233が実装される。また、表示ユニット基板210には、6軸センサー235及び磁気センサー237が実装される。
インターフェイス231は、受信部233、6軸センサー235、磁気センサー237、及び温度センサー239を、制御装置10に接続する。
The left display unit 24 includes a display unit substrate 210. On the display unit substrate 210, an interface (I / F) 231 connected to the interface 196 and a receiving unit (Rx) 233 that receives data input from the control device 10 via the interface 231 are mounted. In addition, a six-axis sensor 235 and a magnetic sensor 237 are mounted on the display unit substrate 210.
The interface 231 connects the receiving unit 233, the six-axis sensor 235, the magnetic sensor 237, and the temperature sensor 239 to the control device 10.

6軸センサー235は、3軸加速度センサー及び3軸ジャイロ(角速度)センサーを備えるモーションセンサー(慣性センサー)である。6軸センサー235は、上記のセンサーがモジュール化されたIMUを採用してもよい。6軸センサー235は、本発明の「検出部」に相当する。
磁気センサー237は、例えば、3軸の地磁気センサーである。
The 6-axis sensor 235 is a motion sensor (inertial sensor) including a 3-axis acceleration sensor and a 3-axis gyro (angular velocity) sensor. The 6-axis sensor 235 may employ an IMU in which the above sensors are modularized. The 6-axis sensor 235 corresponds to the “detection unit” of the present invention.
The magnetic sensor 237 is, for example, a triaxial geomagnetic sensor.

温度センサー239は、温度を検出し、検出温度に対応する電圧値又は抵抗値を、検出値として出力する。温度センサー239は、OLEDパネル243(図2)の裏面側に実装される。温度センサー239は、例えばOLED駆動回路245と同一の基板に実装されてもよい。この構成により、温度センサー239は、主としてOLEDパネル243の温度を検出する。
また、温度センサー239が、OLEDパネル243又はOLED駆動回路245に内蔵されてもよい。また、上記基板は半導体基板であってもよい。具体的には、OLEDパネル243が、Si−OLEDとして、OLED駆動回路245等とともに統合半導体チップ上の集積回路として実装される場合、この半導体チップに温度センサー239を実装してもよい。
The temperature sensor 239 detects the temperature and outputs a voltage value or a resistance value corresponding to the detected temperature as a detected value. The temperature sensor 239 is mounted on the back side of the OLED panel 243 (FIG. 2). The temperature sensor 239 may be mounted on the same substrate as the OLED drive circuit 245, for example. With this configuration, the temperature sensor 239 mainly detects the temperature of the OLED panel 243.
Further, the temperature sensor 239 may be incorporated in the OLED panel 243 or the OLED drive circuit 245. The substrate may be a semiconductor substrate. Specifically, when the OLED panel 243 is mounted as an Si-OLED as an integrated circuit on an integrated semiconductor chip together with the OLED drive circuit 245 and the like, the temperature sensor 239 may be mounted on the semiconductor chip.

右表示ユニット22が備えるカメラ61、照度センサー65、温度センサー217、及び左表示ユニット24が備える6軸センサー235、磁気センサー237、温度センサー239は、センサーハブ192に接続される。センサーハブ192は、メインプロセッサー140の制御に従って各センサーのサンプリング周期の設定及び初期化を行う。センサーハブ192は、各センサーのサンプリング周期に合わせて、各センサーへの通電、制御データの送信、検出値の取得等を実行する。また、センサーハブ192は、予め設定されたタイミングで、右表示ユニット22及び左表示ユニット24が備える各センサーの検出値を、メインプロセッサー140に出力する。センサーハブ192は、各センサーの検出値を、メインプロセッサー140に対する出力のタイミングに合わせて一時的に保持する機能を備えてもよい。また、センサーハブ192は、各センサーの出力値の信号形式、又はデータ形式の相違に対応し、統一されたデータ形式のデータに変換して、メインプロセッサー140に出力する機能を備えてもよい。
また、センサーハブ192は、メインプロセッサー140の制御に従ってLEDインジケーター67への通電を開始及び停止させ、カメラ61が撮像を開始及び終了するタイミングに合わせて、LEDインジケーター67を点灯又は点滅させる。
The camera 61, the illuminance sensor 65, the temperature sensor 217, and the 6-axis sensor 235, the magnetic sensor 237, and the temperature sensor 239 included in the left display unit 24 are connected to the sensor hub 192. The sensor hub 192 sets and initializes the sampling period of each sensor according to the control of the main processor 140. The sensor hub 192 executes energization to each sensor, transmission of control data, acquisition of a detection value, and the like in accordance with the sampling period of each sensor. The sensor hub 192 outputs detection values of the sensors included in the right display unit 22 and the left display unit 24 to the main processor 140 at a preset timing. The sensor hub 192 may have a function of temporarily holding the detection value of each sensor in accordance with the output timing to the main processor 140. In addition, the sensor hub 192 may have a function of converting the data of the output value of each sensor or the data format into data of a unified data format and outputting the data to the main processor 140.
The sensor hub 192 starts and stops energization of the LED indicator 67 according to the control of the main processor 140, and lights or blinks the LED indicator 67 in accordance with the timing when the camera 61 starts and ends imaging.

制御装置10は、電源部130を備え、電源部130から供給される電力により動作する。電源部130は、充電可能なバッテリー132、及びバッテリー132の残容量の検出及びバッテリー132への充電の制御を行う電源制御回路134を備える。電源制御回路134はメインプロセッサー140に接続され、バッテリー132の残容量の検出値、又は電圧の検出値をメインプロセッサー140に出力する。また、電源部130が供給する電力に基づき、制御装置10から画像表示部20に電力を供給してもよい。また、電源部130から制御装置10の各部及び画像表示部20への電力の供給状態を、メインプロセッサー140が制御可能な構成としてもよい。   The control device 10 includes a power supply unit 130 and operates with power supplied from the power supply unit 130. The power supply unit 130 includes a rechargeable battery 132 and a power supply control circuit 134 that detects the remaining capacity of the battery 132 and controls charging of the battery 132. The power control circuit 134 is connected to the main processor 140 and outputs a detected value of the remaining capacity of the battery 132 or a detected value of the voltage to the main processor 140. Further, the power may be supplied from the control device 10 to the image display unit 20 based on the power supplied from the power supply unit 130. The power supply state from the power supply unit 130 to each unit of the control device 10 and the image display unit 20 may be configured to be controllable by the main processor 140.

図5は、制御装置10の制御系を構成する記憶部125及び制御部150の機能ブロック図である。図5に示す記憶部125は、不揮発性記憶部121(図4)により構成される論理的な記憶部であり、EEPROM215を含んでもよい。また、制御部150及び制御部150が有する各種の機能部は、メインプロセッサー140がプログラムを実行することによって、ソフトウェアとハードウェアとの協働により形成される。制御部150及び制御部150を構成する各機能部は、例えば、メインプロセッサー140、不揮発性記憶部121及びメモリー123により構成される。   FIG. 5 is a functional block diagram of the storage unit 125 and the control unit 150 that constitute the control system of the control device 10. The storage unit 125 illustrated in FIG. 5 is a logical storage unit configured by the nonvolatile storage unit 121 (FIG. 4), and may include an EEPROM 215. The control unit 150 and various functional units included in the control unit 150 are formed by cooperation of software and hardware by the main processor 140 executing a program. Each functional unit constituting the control unit 150 and the control unit 150 includes, for example, a main processor 140, a nonvolatile storage unit 121, and a memory 123.

制御部150は、記憶部125が記憶するデータを利用して各種処理を実行し、HMD100を制御する。
記憶部125は、制御部150が処理する各種のデータを記憶する。記憶部125は、設定データ127及びコンテンツデータ128を記憶する。
設定データ127は、HMD100の動作を設定する各種の設定値を含む。また、制御部150がHMD100を制御する際にパラメーター、行列式、演算式、LUT(LookUp Table)等を用いる場合、これらを設定データ127に含めてもよい。
The control unit 150 executes various processes using data stored in the storage unit 125 and controls the HMD 100.
The storage unit 125 stores various data processed by the control unit 150. The storage unit 125 stores setting data 127 and content data 128.
The setting data 127 includes various setting values that set the operation of the HMD 100. When the control unit 150 controls the HMD 100, when using parameters, determinants, arithmetic expressions, LUT (LookUp Table), etc., these may be included in the setting data 127.

コンテンツデータ128は、制御部150の制御によって画像表示部20が表示する画像や映像を含むコンテンツのデータであり、画像データ又は映像データを含む。また、コンテンツデータ128は、音声データを含んでもよい。また、コンテンツデータ128は複数の画像の画像データを含んでもよく、この場合、これら複数の画像は同時に画像表示部20に表示される画像に限定されない。
また、コンテンツデータ128は、コンテンツを画像表示部20により表示する際に、制御装置10によって使用者の操作を受け付け、受け付けた操作に応じた処理を制御部150が実行する、双方向型のコンテンツであってもよい。この場合、コンテンツデータ128は、操作を受け付ける場合に表示するメニュー画面の画像データ、メニュー画面に含まれる項目に対応する処理等を定めるデータ等を含んでもよい。
The content data 128 is content data including images and videos displayed by the image display unit 20 under the control of the control unit 150, and includes image data or video data. Further, the content data 128 may include audio data. The content data 128 may include image data of a plurality of images. In this case, the plurality of images are not limited to images displayed on the image display unit 20 at the same time.
The content data 128 is an interactive content in which when the content is displayed on the image display unit 20, the control device 10 receives a user operation and the control unit 150 executes a process according to the received operation. It may be. In this case, the content data 128 may include image data of a menu screen that is displayed when an operation is accepted, data that defines processing corresponding to items included in the menu screen, and the like.

制御部150は、オペレーティングシステム(OS)143、画像処理部145、撮像制御部147、操作制御部149、検出制御部151及び表示制御部153の機能を有する。操作制御部149及び検出制御部151は、本発明の「検出部」に相当する。
オペレーティングシステム143の機能は、記憶部125が記憶する制御プログラムの機能であり、その他の各部は、オペレーティングシステム143上で実行されるアプリケーションプログラムの機能である。
The control unit 150 has functions of an operating system (OS) 143, an image processing unit 145, an imaging control unit 147, an operation control unit 149, a detection control unit 151, and a display control unit 153. The operation control unit 149 and the detection control unit 151 correspond to the “detection unit” of the present invention.
The functions of the operating system 143 are functions of a control program stored in the storage unit 125, and the other units are functions of application programs executed on the operating system 143.

画像処理部145は、画像表示部20により表示する画像又は映像の画像データに基づいて、右表示ユニット22及び左表示ユニット24に送信する信号を生成する。画像処理部145が生成する信号は、垂直同期信号、水平同期信号、クロック信号、アナログ画像信号等であってもよい。
また、画像処理部145は、必要に応じて、画像データの解像度を右表示ユニット22及び左表示ユニット24に適した解像度に変換する解像度変換処理を行ってもよい。また、画像処理部145は、画像データの輝度や彩度を調整する画像調整処理、3D画像データから2D画像データを作成し、又は2D画像データから3D画像データを生成する2D/3D変換処理等を実行してもよい。画像処理部145は、これらの画像処理を実行した場合、処理後の画像データに基づき画像を表示するための信号を生成して、接続ケーブル40を介して画像表示部20に送信する。
画像処理部145は、メインプロセッサー140がプログラムを実行して実現される構成のほか、メインプロセッサー140と別のハードウェア(例えば、DSP(Digital Signal Processor))で構成してもよい。
The image processing unit 145 generates a signal to be transmitted to the right display unit 22 and the left display unit 24 based on image data of an image or video displayed by the image display unit 20. The signal generated by the image processing unit 145 may be a vertical synchronization signal, a horizontal synchronization signal, a clock signal, an analog image signal, or the like.
Further, the image processing unit 145 may perform resolution conversion processing for converting the resolution of the image data to a resolution suitable for the right display unit 22 and the left display unit 24 as necessary. The image processing unit 145 also performs image adjustment processing for adjusting brightness and saturation of image data, 2D image data is created from 3D image data, or 2D / 3D conversion processing for generating 3D image data from 2D image data, etc. May be executed. When these image processes are executed, the image processing unit 145 generates a signal for displaying an image based on the processed image data, and transmits the signal to the image display unit 20 via the connection cable 40.
The image processing unit 145 may be configured by hardware different from the main processor 140 (for example, a digital signal processor (DSP)), in addition to the configuration realized by the main processor 140 executing a program.

撮像制御部147は、カメラ61を制御して撮像を実行させ、撮像画像データを生成し、記憶部125に一時的に記憶する。また、カメラ61が撮像画像データを生成する回路を含むカメラユニットとして構成される場合、撮像制御部147は撮像画像データをカメラ61から取得して、記憶部125に一時的に記憶する。   The imaging control unit 147 controls the camera 61 to execute imaging, generates captured image data, and temporarily stores it in the storage unit 125. When the camera 61 is configured as a camera unit including a circuit that generates captured image data, the imaging control unit 147 acquires captured image data from the camera 61 and temporarily stores the captured image data in the storage unit 125.

操作制御部149は、トラックパッド14及び操作部110における操作を検出し、操作に対応する操作データを出力する。操作制御部149は、例えば、操作部110のボタン等が操作された場合、操作内容を示す操作データを生成して、表示制御部153に出力する。表示制御部153は、操作制御部149から入力される操作データに従って表示状態を変更する。
また、操作制御部149は、トラックパッド14における操作を検出した場合に、トラックパッド14における操作位置の座標を取得する。操作制御部149は、操作位置の軌跡を生成する。操作位置の軌跡は、トラックパッド14のタッチ操作が解除されない間、すなわち使用者の手や指操作体がトラックパッド14に接触した状態が継続する間の操作位置の軌跡である。操作制御部149は、検出した操作位置の軌跡を示す操作データを表示制御部153に出力する。操作制御部149は、本発明の「検出部」に相当する。
The operation control unit 149 detects an operation on the track pad 14 and the operation unit 110 and outputs operation data corresponding to the operation. For example, when a button or the like of the operation unit 110 is operated, the operation control unit 149 generates operation data indicating the operation content and outputs the operation data to the display control unit 153. The display control unit 153 changes the display state according to the operation data input from the operation control unit 149.
Further, the operation control unit 149 acquires the coordinates of the operation position on the track pad 14 when the operation on the track pad 14 is detected. The operation control unit 149 generates a locus of the operation position. The locus of the operation position is a locus of the operation position while the touch operation of the track pad 14 is not released, that is, while the state where the user's hand or finger operation body is in contact with the track pad 14 continues. The operation control unit 149 outputs operation data indicating the locus of the detected operation position to the display control unit 153. The operation control unit 149 corresponds to the “detection unit” of the present invention.

検出制御部151は、6軸センサー235の検出値に基づいて使用者の頭部の動きを検出する。6軸センサー235は、所定の周期(例えば、50msec)毎にサンプリングを実行し、検出結果を示すアナログ電圧値を出力する。出力された電圧値は、A/D変換器(図示略)によってデジタル信号に変換され、制御部150に出力される。
6軸センサー235の角速度センサーは、内蔵する検出機構の測定基準点において、図1に示すX軸まわりの回転(ピッチ角)、Y軸回りの回転(ヨー角)、及びZ軸まわりの回転(ロール角)を検出する。X軸、Y軸及びZ軸は、図1に示すように相互に直交する3軸方向であり、Z軸方向が鉛直方向に対応し、X軸方向が使用者の頭部の左右方向に対応し、Y軸方向が使用者の頭部の前後方向に対応する。
検出制御部151は、6軸センサー235の検出値によりX軸まわりの回転(ピッチ角)を検出して、使用者が顔を上げる又は下げる動きを検出する。また、検出制御部151は、6軸センサー235の検出値によりY軸まわりの回転(ヨー角)を検出して、使用者が首を左肩又は右肩の方向に傾ける動きを検出する。また、検出制御部151は、6軸センサー235の検出値によりZ軸まわりの回転(ロール角)を検出して、使用者が顔を左又は右に回す動きを検出する。以下では、顔を上げるや下げる動き、首を左肩又は右肩の方向に傾ける動き、顔を左又は右に回す動きを総称して、頭部の傾きという。
検出制御部151は、6軸センサー235の検出値に基づき、頭部の傾きの方向と、傾いた頭部の角度とを示す情報を操作データとして生成し、生成した操作データを表示制御部153に出力する。
The detection control unit 151 detects the movement of the user's head based on the detection value of the 6-axis sensor 235. The 6-axis sensor 235 performs sampling every predetermined cycle (for example, 50 msec), and outputs an analog voltage value indicating a detection result. The output voltage value is converted into a digital signal by an A / D converter (not shown) and output to the control unit 150.
The angular velocity sensor of the 6-axis sensor 235 is configured to rotate around the X axis (pitch angle), rotate around the Y axis (yaw angle), and rotate around the Z axis (shown in FIG. 1) at the measurement reference point of the built-in detection mechanism. Roll angle) is detected. The X-axis, Y-axis, and Z-axis are three axial directions orthogonal to each other as shown in FIG. 1, the Z-axis direction corresponds to the vertical direction, and the X-axis direction corresponds to the left-right direction of the user's head. The Y-axis direction corresponds to the front-rear direction of the user's head.
The detection control unit 151 detects the rotation (pitch angle) around the X axis based on the detection value of the 6-axis sensor 235 and detects the movement of the user raising or lowering the face. Further, the detection control unit 151 detects a rotation (yaw angle) around the Y axis based on a detection value of the 6-axis sensor 235, and detects a movement in which the user tilts the neck toward the left shoulder or the right shoulder. Further, the detection control unit 151 detects a rotation (roll angle) around the Z axis based on a detection value of the 6-axis sensor 235, and detects a movement of the user turning the face left or right. Hereinafter, the movement of raising and lowering the face, the movement of tilting the neck toward the left shoulder or the right shoulder, and the movement of turning the face left or right are collectively referred to as the tilt of the head.
The detection control unit 151 generates information indicating the direction of head tilt and the angle of the tilted head as operation data based on the detection value of the 6-axis sensor 235, and the generated operation data is displayed on the display control unit 153. Output to.

表示制御部153は、右表示ユニット22及び左表示ユニット24を制御する制御信号を生成し、この制御信号により、右表示ユニット22及び左表示ユニット24のそれぞれによる画像光の生成及び射出を制御する。具体的には、表示制御部147は、OLED駆動回路225、245を制御して、OLEDパネル223、243による画像の表示を実行させる。表示制御部147は、画像処理部145が出力する信号に基づきOLED駆動回路225、245がOLEDパネル223、243に描画するタイミングの制御、OLEDパネル223、243の輝度の制御等を行う。   The display control unit 153 generates control signals for controlling the right display unit 22 and the left display unit 24, and controls the generation and emission of image light by the right display unit 22 and the left display unit 24 based on the control signals. . Specifically, the display control unit 147 controls the OLED drive circuits 225 and 245 to cause the OLED panels 223 and 243 to display an image. The display control unit 147 controls the timing at which the OLED drive circuits 225 and 245 draw on the OLED panels 223 and 243, controls the luminance of the OLED panels 223 and 243, and the like based on the signal output from the image processing unit 145.

また、表示制御部153は、操作制御部149から入力される操作データに従って表示領域310に表示させるポインター301(図6)の位置を移動させる。ポインター301は、表示領域310における指示位置を示し、本発明の「マーカー」に相当する。また、ポインター301に変えて、カーソルや、目印、文字、記号、標識、矢印、ゲームのキャラクターをマーカーとして用いることもできる。
表示制御部153は、操作制御部149から操作データとして、操作面上の移動距離と、移動方向とを示すデータが入力される。表示制御部153は、入力された操作データに基づき、ポインター301を移動させる移動方向と、移動距離とを示す制御信号を生成し、生成した制御信号を右表示ユニット22及び左表示ユニット24に出力する。
また、表示制御部153は、検出制御部151から入力される操作データに従って表示領域310に表示されたポインター301(図6)の位置を移動させる。表示制御部153には、検出制御部151から操作データとして、頭部の傾きを検出した方向と、傾いた頭部の角度とを示すデータが入力される。表示制御部153は、入力された操作データに基づいて、ポインター301を移動させる移動方向と、移動距離とを示す制御信号を生成する。
表示制御部153は、例えば、入力される操作データから頭部の傾きが検出された方向を特定し、この特定した方向に対応する表示領域310の方向にポインター301を移動させる制御信号を生成してもよい。また、表示制御部153は、操作データから頭部の傾きが検出された方向を特定すると共に、傾いた頭部の角度を特定してもよい。そして、表示制御部153は、特定した方向に対応する表示領域310の方向に移動させ、特定した頭部の角度に対応する速度で移動させるようにポインター301を制御する制御信号を生成する。
表示制御部153は、生成した制御信号を右表示ユニット22及び左表示ユニット24に出力する。
Further, the display control unit 153 moves the position of the pointer 301 (FIG. 6) displayed on the display area 310 according to the operation data input from the operation control unit 149. A pointer 301 indicates a designated position in the display area 310 and corresponds to a “marker” of the present invention. Further, instead of the pointer 301, a cursor, a mark, a character, a symbol, a sign, an arrow, or a game character can be used as a marker.
The display control unit 153 receives data indicating the movement distance on the operation surface and the movement direction as operation data from the operation control unit 149. The display control unit 153 generates a control signal indicating a moving direction and a moving distance for moving the pointer 301 based on the input operation data, and outputs the generated control signal to the right display unit 22 and the left display unit 24. To do.
Further, the display control unit 153 moves the position of the pointer 301 (FIG. 6) displayed in the display area 310 according to the operation data input from the detection control unit 151. Data indicating the direction in which the head tilt is detected and the angle of the tilted head are input to the display control unit 153 as operation data from the detection control unit 151. The display control unit 153 generates a control signal indicating a moving direction and a moving distance for moving the pointer 301 based on the input operation data.
For example, the display control unit 153 specifies a direction in which the head tilt is detected from the input operation data, and generates a control signal for moving the pointer 301 in the direction of the display area 310 corresponding to the specified direction. May be. Further, the display control unit 153 may specify the direction in which the tilt of the head is detected from the operation data and also specify the angle of the tilted head. Then, the display control unit 153 generates a control signal for controlling the pointer 301 so that the pointer 301 is moved in the direction of the display area 310 corresponding to the specified direction and moved at a speed corresponding to the specified head angle.
The display control unit 153 outputs the generated control signal to the right display unit 22 and the left display unit 24.

また、表示制御部153は、キャリブレーションを実行して、表示領域310の座標と、カメラ61の撮像画像とを対応付けるパラメーターを生成する。
表示制御部153は、画像表示部20にキャリブレーション用画像を表示させながら、キャリブレーション用画像に対応した参照実物体を、カメラ61の撮像画像データから認識し、追跡する。この状態で、使用者が、トラックパッド14等のユーザーインターフェイスを介してキャリブレーション用画像の位置を画像表示部20上で移動させる。そして、使用者が、キャリブレーション用画像と参照実物体とが重なる(位置、大きさ、向きの少なくとも1つがほぼ一致する)ように知覚したタイミングにて、ユーザーインターフェイスを介して表示制御部153に通知する。表示制御部153は、取得した通知に応じて、当該タイミングでの参照実物体の検出結果(撮像画像データ上の位置)と、表示領域310でのキャリブレーション用画像の表示位置とを対応付けるパラメーターを生成する。表示制御部153は、生成されたパラメーターを記憶部125に記憶させる。
このパラメーターは、ポインター301により選択される対象物体を特定する際に使用される。制御部150は、カメラ61の撮像画像データを取得し、ポインター301が表示された表示領域310の座標を、撮像画像データ上の座標に変換して、対象物体を特定する。
In addition, the display control unit 153 performs calibration and generates a parameter that associates the coordinates of the display area 310 with the captured image of the camera 61.
The display control unit 153 recognizes and tracks the reference real object corresponding to the calibration image from the captured image data of the camera 61 while displaying the calibration image on the image display unit 20. In this state, the user moves the position of the calibration image on the image display unit 20 via the user interface such as the track pad 14. Then, at the timing when the user perceives that the calibration image and the reference real object overlap (at least one of position, size, and orientation substantially coincides), the display control unit 153 is connected via the user interface. Notice. In accordance with the acquired notification, the display control unit 153 sets a parameter that associates the detection result of the reference real object (position on the captured image data) at the timing with the display position of the calibration image in the display area 310. Generate. The display control unit 153 stores the generated parameter in the storage unit 125.
This parameter is used when the target object selected by the pointer 301 is specified. The control unit 150 acquires captured image data of the camera 61, converts the coordinates of the display area 310 on which the pointer 301 is displayed, into coordinates on the captured image data, and identifies the target object.

HMD100は、コンテンツの供給元となる種々の外部機器を接続するインターフェイス(図示略)を備えてもよい。例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスであってもよく、無線通信インターフェイスで構成してもよい。この場合の外部機器は、HMD100に画像を供給する画像供給装置であり、パーソナルコンピューター(PC)、携帯電話端末、携帯型ゲーム機等が用いられる。この場合、HMD100は、これらの外部機器から入力されるコンテンツデータに基づく画像や音声を出力できる。   The HMD 100 may include an interface (not shown) for connecting various external devices that are content supply sources. For example, an interface corresponding to a wired connection such as a USB interface, a micro USB interface, or a memory card interface may be used, or a wireless communication interface may be used. The external device in this case is an image supply device that supplies an image to the HMD 100, and a personal computer (PC), a mobile phone terminal, a portable game machine, or the like is used. In this case, the HMD 100 can output images and sounds based on content data input from these external devices.

図6は、使用者が画像表示部20越しに視認する視界300を示す図である。
使用者は、現実世界(以下、外景という)に存在する人や、建物、道路、その他の物体(以下、これらを総称して対象物体という)と、画像表示部20が表示する表示画像とを画像表示部20越しに視認する。画像表示部20が表示する表示画像には、例えば、ポインター301や、画像や映像等のコンテンツが含まれる。画像表示部20が制御部150の制御に従って、コンテンツデータを再生することで、表示領域310にコンテンツが再生される。表示領域310は、画像表示部20が表示画像を表示可能な領域を示す。
FIG. 6 is a diagram illustrating a field of view 300 that the user visually recognizes through the image display unit 20.
The user includes a person existing in the real world (hereinafter referred to as an outside scene), a building, a road, and other objects (hereinafter collectively referred to as a target object) and a display image displayed by the image display unit 20. It is visually recognized through the image display unit 20. The display image displayed by the image display unit 20 includes, for example, a pointer 301 and contents such as images and videos. When the image display unit 20 reproduces the content data under the control of the control unit 150, the content is reproduced in the display area 310. A display area 310 indicates an area in which the image display unit 20 can display a display image.

使用者は、第1操作と、第2操作とを行って、ポインター301を目的の位置(以下、ターゲットという)に移動させる。例えば、使用者が自動販売機320の飲料を購入する場合、ターゲットは、購入する商品の商品ボタンとなる。使用者は、表示領域310内に表示されたポインター301を、第1操作及び第2操作によりターゲットの位置まで移動させる。   The user performs the first operation and the second operation to move the pointer 301 to a target position (hereinafter referred to as a target). For example, when the user purchases a beverage from the vending machine 320, the target is a product button of the product to be purchased. The user moves the pointer 301 displayed in the display area 310 to the target position by the first operation and the second operation.

本実施形態は、第1操作に応じてポインター301の位置を移動させる場合と、第2操作に応じてポインター301の位置を移動させる場合とで異なる態様で移動させる。例えば、第1操作に応じてポインター301を移動させる場合と、第2操作に応じてポインター301を移動させる場合とで、ポインター301の移動量(例えば、移動距離や、移動速度、加速度等)を変更する。
操作によってポインター301を移動させる移動距離を小さく設定した場合、又は移動速度を遅く設定した場合、ポインター301の位置とターゲットとの距離が離れていると、ポインター301をターゲットの近くまで移動させるのに時間がかかる。また、操作によってポインター301を移動させる移動距離を大きく設定した場合、又は移動速度を速く設定した場合、ポインター301をターゲットの位置に位置合わせする微調整が難しくなる場合がある。
このため、本実施形態のHMD100は、ポインター301の移動距離、移動速度又は加速度の少なくともいずれかが異なる第1操作と、第2操作との2つの操作により、ポインター301をターゲットの位置に移動させる。なお、ターゲットは、画像表示部20が表示させる表示画像であってもよいし、外景として視認する対象物体であってもよい。
In the present embodiment, the position of the pointer 301 is moved according to the first operation, and the position of the pointer 301 is moved according to the second operation. For example, when the pointer 301 is moved according to the first operation and when the pointer 301 is moved according to the second operation, the amount of movement of the pointer 301 (for example, movement distance, movement speed, acceleration, etc.) is changed. change.
When the movement distance for moving the pointer 301 by operation is set small or when the movement speed is set slow, if the distance between the position of the pointer 301 and the target is far, the pointer 301 is moved to the vicinity of the target. take time. In addition, when the movement distance for moving the pointer 301 by an operation is set to be large or the movement speed is set to be high, it may be difficult to finely adjust the pointer 301 to the target position.
For this reason, the HMD 100 according to the present embodiment moves the pointer 301 to the target position by two operations of the first operation and the second operation in which at least one of the moving distance, moving speed, and acceleration of the pointer 301 is different. . The target may be a display image displayed by the image display unit 20 or a target object visually recognized as an outside scene.

第1操作は、第2操作よりも先に行われる。第1操作は、ポインター301をターゲットの近傍に短時間で移動させるための操作である。また、第2操作は、ポインター301の位置を微調整して、ポインター301をターゲットの位置に移動させる操作である。
例えば、第1操作及び第2操作が、スイッチやボタンの押下操作であると仮定する。この場合、第1操作による押下操作を1回受け付けた場合にポインター301を移動させる移動距離、移動速度又は加速度を、第2操作による押下操作を1回受け付けた場合にポインター301を移動させる移動距離、移動速度又は加速度よりも大きく設定する。移動距離、移動速度又は加速度は、本発明の「移動量」に相当する。
また、第1操作及び第2操作が、操作面に対する接触操作であり、検出した操作面上での指の接触距離に応じてポインター301を移動させる操作であると仮定する。この場合、第1操作である指の接触距離に対応してポインター301を移動させる移動距離、移動速度又は加速度を、第2操作である指の接触距離に対応してポインター301を移動させる移動距離、移動速度又は加速度よりも大きく又は速く設定する。
また、第1操作及び第2操作が、操作面に対する接触操作や、使用者の頭部の傾きを検出してポインター301を移動させる操作であり、接触操作や頭部の傾きが検出された検出時間に対応した距離だけポインター301を移動させる操作であると仮定する。この場合、第1操作の検出時間に対応してポインター301を移動させる移動距離、移動速度又は加速度を、第2操作の検出時間に対応してポインター301を移動させる移動距離、移動速度又は加速度よりも大きく又は速く設定する。
The first operation is performed before the second operation. The first operation is an operation for moving the pointer 301 to the vicinity of the target in a short time. The second operation is an operation for finely adjusting the position of the pointer 301 and moving the pointer 301 to the target position.
For example, it is assumed that the first operation and the second operation are pressing operations of switches and buttons. In this case, the movement distance, moving speed, or acceleration for moving the pointer 301 when the pressing operation by the first operation is received once, the moving distance by which the pointer 301 is moved when the pressing operation by the second operation is received once. Set larger than the moving speed or acceleration. The movement distance, the movement speed, or the acceleration corresponds to the “movement amount” of the present invention.
Further, it is assumed that the first operation and the second operation are contact operations on the operation surface, and are operations for moving the pointer 301 according to the detected contact distance of the finger on the operation surface. In this case, the movement distance, movement speed, or acceleration for moving the pointer 301 corresponding to the finger contact distance as the first operation is the movement distance for moving the pointer 301 corresponding to the finger contact distance as the second operation. Set larger or faster than the moving speed or acceleration.
In addition, the first operation and the second operation are a touch operation on the operation surface or an operation of moving the pointer 301 by detecting the tilt of the user's head, and detecting the touch operation or the tilt of the head being detected. It is assumed that the operation is to move the pointer 301 by a distance corresponding to time. In this case, the moving distance, moving speed, or acceleration for moving the pointer 301 corresponding to the detection time of the first operation is obtained from the moving distance, moving speed, or acceleration for moving the pointer 301 corresponding to the detection time of the second operation. Also set larger or faster.

本実施形態では、トラックパッド14の操作に応じてポインター301を移動させる操作を第1操作とする。トラックパッド14を操作して、ポインター301をターゲットの位置に移動させる場合、トラックパッド14が固定されていないと、使用者がイメージした通りにポインター301を動かすことは容易ではなかった。このため、本実施形態では、トラックパッド14の操作を、ターゲットの近傍にポインター301を移動させる操作として用いる。
また、本実施形態では、使用者の頭部の傾きを操作として検出し、検出した操作に応じてポインター301を移動させる操作を第2操作とする。使用者が頭部を傾けて行うポインター301の操作は、本発明の「使用者の動作」に相当する。頭部を傾けてポインター301を操作する場合、使用者は頭部を操作が完了するまで傾け続けなければならず、無理な体勢を維持し続けなければならない場合があった。しかし、本実施形態では、第2操作の前に行われる第1操作によって、ポインター301が既にターゲットの近傍に移動しているので、第2操作を行う時間を短縮することができる。
In the present embodiment, an operation for moving the pointer 301 in accordance with the operation of the track pad 14 is a first operation. When the pointer 301 is moved to the target position by operating the track pad 14, it is not easy to move the pointer 301 as the user imagines if the track pad 14 is not fixed. For this reason, in this embodiment, the operation of the track pad 14 is used as an operation of moving the pointer 301 in the vicinity of the target.
In the present embodiment, the operation of detecting the tilt of the user's head as an operation and moving the pointer 301 in accordance with the detected operation is referred to as a second operation. The operation of the pointer 301 performed by the user tilting his / her head corresponds to the “user operation” of the present invention. When operating the pointer 301 with the head tilted, the user has to keep tilting the head until the operation is completed, and sometimes has to maintain an unreasonable posture. However, in the present embodiment, since the pointer 301 has already been moved in the vicinity of the target by the first operation performed before the second operation, the time for performing the second operation can be shortened.

図6に示すx軸は表示領域310の水平方向を示し、y軸は表示領域310の奥行き方向を示し、z軸は表示領域310の鉛直方向(上下方向)を示す。
図1に示す使用者の頭部のX軸まわりの回転が検出された場合、制御部150は、例えば、ポインター301を図6に示すz軸方向、すなわち表示領域310の鉛直方向に移動させる。また、図1に示す使用者の頭部のY軸まわりの回転が検出された場合、制御部150は、例えば、ポインター301を図6に示すy軸方向、すなわち表示領域310の奥行き方向に移動させる。また、図1に示す使用者の頭部のZ軸まわりの回転が検出された場合、制御部150は、例えば、ポインター301を図6に示すx軸方向、すなわち表示領域310の水平方向に移動させる。
なお、使用者が頭部を傾ける方向と、ポインター301を移動させる移動方向との対応付けは、上述したものに限定されるものではなく、任意に設定することができる。
6 represents the horizontal direction of the display area 310, the y axis represents the depth direction of the display area 310, and the z axis represents the vertical direction (vertical direction) of the display area 310.
When rotation around the X axis of the user's head shown in FIG. 1 is detected, for example, the control unit 150 moves the pointer 301 in the z axis direction shown in FIG. 6, that is, in the vertical direction of the display area 310. Further, when the rotation of the user's head around the Y axis shown in FIG. 1 is detected, the control unit 150 moves the pointer 301 in the y axis direction shown in FIG. Let 1 is detected, the control unit 150 moves the pointer 301 in the x-axis direction shown in FIG. 6, that is, in the horizontal direction of the display area 310, for example. Let
The association between the direction in which the user tilts the head and the moving direction in which the pointer 301 is moved is not limited to the above-described one, and can be arbitrarily set.

また、本実施形態は、ポインター301を移動させる操作を第1操作から第2操作に切り替えるタイミングを、使用者の手や指(以下、手指という)がトラックパッド14から離れたか否かを検出することで行う。制御部150は、トラックパッド14の操作面への接触が検出される間は、使用者がトラックパッド14を操作する意志があると判断し、トラックパッド14の操作によりポインター301を移動させる。また、制御部150は、操作面への接触が検出できなくなり、手指が操作面から離れた場合、トラックパッド14を操作する意志がなくなったと判定し、ポインター301を移動させる操作を、第2操作に切り替える。
また、第1操作から第2操作への切り替えは、操作面への接触が検出されるか否かに限定されない。例えば、予め設定されたボタン11や、上下キー15、切替スイッチ16が操作された場合や、トラックパッド14を予め設定された回数叩く操作を受け付けた場合に、第1操作から第2操作へ切り替えてもよい。また、マイク63から入力される音声により第1操作から第2操作に切り替えてもよい。例えば、フィンガースナップの音や、使用者が発した言葉をマイク63から入力し、入力した音声データが予め設定された音声データに一致した場合に、第1操作から第2操作に切り替えてもよい。
In the present embodiment, the timing for switching the operation for moving the pointer 301 from the first operation to the second operation is detected whether or not the user's hand or finger (hereinafter referred to as a finger) has moved away from the track pad 14. Do that. The control unit 150 determines that the user intends to operate the track pad 14 while detecting contact with the operation surface of the track pad 14, and moves the pointer 301 by operating the track pad 14. In addition, when the contact with the operation surface cannot be detected and the finger is separated from the operation surface, the control unit 150 determines that the willingness to operate the track pad 14 is lost, and performs an operation for moving the pointer 301 as the second operation. Switch to.
Further, switching from the first operation to the second operation is not limited to whether or not contact with the operation surface is detected. For example, when the preset button 11, the up / down key 15, the changeover switch 16 is operated, or when an operation of tapping the track pad 14 for a preset number of times is accepted, the first operation is switched to the second operation. May be. In addition, the first operation may be switched to the second operation by sound input from the microphone 63. For example, when a finger snap sound or a word uttered by the user is input from the microphone 63 and the input voice data matches the preset voice data, the first operation may be switched to the second operation. .

本実施形態では、トラックパッド14によるポインター301の操作を第1操作とし、使用者の頭部の傾きに基づくポインター301の操作を第2操作としたが、第1操作及び第2操作は、これらの操作に限定されるものではない。例えば、使用者の頭部の傾きを検出してポインター301を移動させる操作を第1操作とし、トラックパッド14によるポインター301の操作を第2操作としてもよい。また、第1操作及び第2操作のいずれか一方に、ハンドサインやジェスチャーを用いてもよい。ハンドサインやジェスチャーは、本発明の「使用者の動作」に相当する。ハンドサインやジェスチャーにより第1又は第2操作を行う場合、記憶部125に、ハンドサインやジェスチャーの特定に用いる辞書を事前に記憶させておく。例えば、辞書には、指の位置や形状を示すデータがハンドサインごとに登録される。また、ジェスチャーが予め設定された手の形状(形態)を予め設定された順番に行うものである場合、各形状(形態)における指の位置や形状等を示すデータがジェスチャーごとに辞書に登録される。制御部150は、カメラ61の撮像画像から使用者の手や指が撮像された領域(以下、手指領域という)を検出し、検出した手指領域から手指の形状や位置を検出して、辞書に登録されたデータとのマッチングによりハンドサインやジェスチャーを認識する。
また、制御部150は、使用者の手の爪や、使用者が手指に嵌めた指輪、腕に嵌めた腕輪や、時計、バンドの動きを第1操作及び第2操作のいずれか一方として検出してもよい。制御部150は、カメラ61の撮像画像から使用者の手の爪や、使用者が手指に嵌めた指輪、腕に嵌めた腕輪や、時計、バンドの動きを検出し、検出した動きに応じてポインター301を移動させる。
In this embodiment, the operation of the pointer 301 by the track pad 14 is the first operation, and the operation of the pointer 301 based on the tilt of the user's head is the second operation. However, the first operation and the second operation are It is not limited to the operation of. For example, the operation of moving the pointer 301 by detecting the tilt of the user's head may be the first operation, and the operation of the pointer 301 by the track pad 14 may be the second operation. Moreover, you may use a hand sign and a gesture for any one of 1st operation and 2nd operation. The hand sign and the gesture correspond to the “user action” of the present invention. When the first or second operation is performed by hand sign or gesture, a dictionary used for specifying the hand sign or gesture is stored in the storage unit 125 in advance. For example, data indicating the position and shape of the finger is registered in the dictionary for each hand sign. In addition, if the gesture is to perform preset hand shapes (forms) in the preset order, data indicating the finger position and shape in each shape (form) is registered in the dictionary for each gesture. The The control unit 150 detects a region where the user's hand or finger is imaged (hereinafter referred to as a finger region) from the captured image of the camera 61, detects the shape or position of the finger from the detected finger region, and stores it in the dictionary. Recognize hand signs and gestures by matching with registered data.
In addition, the control unit 150 detects the movement of the fingernail of the user's hand, the ring fitted on the finger of the user, the bracelet fitted on the arm, the watch, or the band as one of the first operation and the second operation. May be. The control unit 150 detects movements of the user's fingernails, a ring fitted on the finger of the user, a bracelet fitted on the arm, a watch, and a band from the captured image of the camera 61, and according to the detected movement. The pointer 301 is moved.

制御部150は、動作モードとして第1の動作モードと第2の動作モードとを備え、これらの動作モードを切り替えて実行する。第1の動作モードは、使用者が画像表示部20越しに視認する外景に含まれる対象物体(図7では自動販売機320)をターゲットとし、ターゲットとしての対象物体をポインター301により指示するモードである。第2の動作モードは、画像表示部20が表示する複数の表示画像をターゲットとし、ターゲットとしての表示画像をポインター301により指示するモードである。
第1の動作モードと第2の動作モードとの動作モードの切替えは、例えば、ボタン11や、上下キー15、切替スイッチ16等の操作を受け付けた場合に行ってもよい。また、トラックパッド14を予め設定された回数叩く操作を受け付けた場合に、動作モードの切替えを行ってもよい。
The control unit 150 includes a first operation mode and a second operation mode as operation modes, and switches between these operation modes for execution. The first operation mode is a mode in which a target object (a vending machine 320 in FIG. 7) included in an outside scene visually recognized by the user through the image display unit 20 is a target, and the target object as a target is indicated by the pointer 301. is there. The second operation mode is a mode in which a plurality of display images displayed by the image display unit 20 are targeted, and the display image as the target is designated by the pointer 301.
Switching of the operation mode between the first operation mode and the second operation mode may be performed, for example, when an operation of the button 11, the up / down key 15, the changeover switch 16, or the like is received. The operation mode may be switched when an operation of hitting the track pad 14 a predetermined number of times is received.

また、HMD100に視線センサー(図史略)を搭載し、この視線センサーが検出する視線方向に対象物体が存在するか、表示画像が存在するかによって第1の動作モードと第2の動作モードとを切り替えてもよい。
ここで、視線センサーについて説明する。
視線センサー68は、使用者の右眼RE、及び、左眼LEのそれぞれに対応するように、右導光板26と左導光板28との中央位置に一対設けられる。視線センサーは、例えば、使用者の右眼REと左眼LEとをそれぞれ撮像する一対のカメラで構成される。視線センサーは、制御部150の制御に従って撮像を行い、制御部150が、撮像画像データから右眼RE及び左眼LEの眼球表面における反射光や瞳孔の画像を検出し、視線方向を特定する。
制御部150は、視線センサーにより検出される視線方向に対象物体が存在する場合、HMD100の動作モードを第1の動作モードに設定する。また、制御部150は、視線センサーにより検出される視線方向に表示画像が存在する場合、HMD100の動作モードを第2の動作モードに設定する。
Further, the HMD 100 is equipped with a line-of-sight sensor (not shown), and the first operation mode and the second operation mode are determined depending on whether the target object exists in the line-of-sight direction detected by the line-of-sight sensor or the display image exists. May be switched.
Here, the line-of-sight sensor will be described.
A pair of line-of-sight sensors 68 are provided at the center positions of the right light guide plate 26 and the left light guide plate 28 so as to correspond to the right eye RE and the left eye LE of the user, respectively. The line-of-sight sensor includes, for example, a pair of cameras that capture images of the right eye RE and left eye LE of the user. The line-of-sight sensor captures images according to the control of the control unit 150, and the control unit 150 detects reflected light and pupil images on the eyeball surfaces of the right eye RE and the left eye LE from the captured image data, and identifies the line-of-sight direction.
When the target object exists in the line-of-sight direction detected by the line-of-sight sensor, the control unit 150 sets the operation mode of the HMD 100 to the first operation mode. Moreover, the control part 150 sets the operation mode of HMD100 to a 2nd operation mode, when a display image exists in the gaze direction detected by a gaze sensor.

図7及び図8は、使用者が首を左側に傾けた状態で見る視界300を示す図である。図7は、外景内の対象物体として自動販売機320が見える状態を示し、図8は、画像表示部20が表示する表示画像として、ワープロソフトウェアの表示画面302が見える状態を示す。
使用者は、第2操作によってポインター301を操作する場合、首を左肩側又は右肩側に傾ける動作を行う場合がある。このとき、表示領域310も使用者の首の傾きに応じて傾くが、画像表示部20越しに見る対象物体は傾かないため、図7に示すように使用者には対象物体である自動販売機320が傾いて見える。
また、制御部150は、6軸センサー235の検出値に基づいて、画像表示部20が表示する表示画像の傾きを調整する。すなわち、表示画像は、図8に示すように頭部の傾きに応じて傾いた表示となり、使用者には、表示画像が水平に見える。
7 and 8 are views showing the field of view 300 viewed by the user with the neck tilted to the left. FIG. 7 shows a state where the vending machine 320 can be seen as a target object in the outside scene, and FIG. 8 shows a state where a display screen 302 of word processor software can be seen as a display image displayed by the image display unit 20.
When the user operates the pointer 301 by the second operation, the user may perform an operation of tilting the neck to the left shoulder side or the right shoulder side. At this time, the display area 310 is also tilted according to the tilt of the user's neck, but the target object seen through the image display unit 20 is not tilted. Therefore, as shown in FIG. 320 appears to tilt.
Further, the control unit 150 adjusts the inclination of the display image displayed by the image display unit 20 based on the detection value of the 6-axis sensor 235. That is, the display image is tilted according to the tilt of the head as shown in FIG. 8, and the display image looks horizontal to the user.

制御部150は、動作モードが第1の動作モードであって、6軸センサー235の検出値により画像表示部20の傾きを検出した場合、検出した傾きに応じて、ポインター301を対象物体に対して水平になるように移動させる。すなわち、第1の動作モードでは、対象物体を基準として、ポインター301を移動させる。図7には、対象物体である自動販売機320に対してポインター301を水平に移動させる様子を示す。
また、制御部150は、動作モードが第2の動作モードであって、6軸センサー235の検出値により画像表示部20の傾きを検出した場合、検出した傾きに合わせてポインター301を移動させる。すなわち、第2の動作モードでは、表示画像を基準として、ポインター301を移動させる。図8には、表示画像であるワープロソフトウェアの表示画面302の傾きに合わせてポインター301を移動させる様子を示す。
When the operation mode is the first operation mode and the inclination of the image display unit 20 is detected based on the detection value of the six-axis sensor 235, the control unit 150 moves the pointer 301 to the target object according to the detected inclination. And move it horizontally. That is, in the first operation mode, the pointer 301 is moved with reference to the target object. FIG. 7 shows a state in which the pointer 301 is moved horizontally with respect to the vending machine 320 that is the target object.
Further, when the operation mode is the second operation mode and the inclination of the image display unit 20 is detected based on the detection value of the 6-axis sensor 235, the control unit 150 moves the pointer 301 in accordance with the detected inclination. That is, in the second operation mode, the pointer 301 is moved with reference to the display image. FIG. 8 shows a state in which the pointer 301 is moved in accordance with the inclination of the display screen 302 of the word processor software that is a display image.

図9は、第1操作によりポインター301をターゲットの近傍に移動させた場合に表示される表示画像を示す図である。
第1操作によりポインター301を操作し、ポインター301をターゲットの近くに移動させると、図9に示すようにポインター301の近くに存在するターゲットが拡大表示される。
制御部150は、カメラ61が撮像する撮像画像データを取得し、取得した撮像画像データから対象物体を検出する。制御部150は、ポインター301の表示位置から予め設定された範囲内に対象物体を検出すると、この対象物体の画像を撮像画像データから抽出し、抽出した対象物体の画像を拡大して表示領域310に表示させる。
また、制御部150は、ポインター301の表示位置から予め設定された範囲内に対象物体を検出された場合に、対象物体の画像を拡大表示させるか否かを問い合わせる表示を表示領域310に表示させてもよい。制御部150は、例えば、対象物体の画像を拡大表示させる旨の指示をボタン11やトラックパッド14により受け付けた場合に、対象物体の画像を拡大して表示領域310に表示させる。拡大して表示された対象物体の画像を拡大画像303という。
FIG. 9 is a diagram illustrating a display image displayed when the pointer 301 is moved to the vicinity of the target by the first operation.
When the pointer 301 is operated by the first operation to move the pointer 301 close to the target, the target existing near the pointer 301 is enlarged and displayed as shown in FIG.
The control unit 150 acquires captured image data captured by the camera 61 and detects a target object from the acquired captured image data. When the control unit 150 detects a target object within a preset range from the display position of the pointer 301, the control unit 150 extracts an image of the target object from the captured image data, enlarges the extracted target object image, and displays the display region 310. To display.
In addition, when the target object is detected within a preset range from the display position of the pointer 301, the control unit 150 causes the display area 310 to display a display for inquiring whether to enlarge the target object image. May be. For example, when the instruction to enlarge the target object image is received by the button 11 or the track pad 14, the control unit 150 enlarges the target object image and displays it on the display area 310. An image of the target object displayed in an enlarged manner is referred to as an enlarged image 303.

使用者は、拡大画像303が表示された状態で、ポインター301がターゲットに重なるように、第2操作によりポインター301の位置を微調整する。使用者は、ポインター301がターゲットに重なると、確定操作を行う。制御部150は、確定操作を受け付けると、ポインター301の表示位置に重なるターゲットが選択されたと判定する。確定操作には、第2操作である使用者の頭部の傾きを検出してポインター301を移動させる操作以外の操作が用いられる。確定操作は、例えば、トラックパッド14の操作面を叩く操作であってもよいし、ボタン11、上下キー15、切替スイッチ16等の操作であってもよい。
また、HMD100は、無線接続した外部の装置から送信される信号を受信した場合に、確定操作を受け付けたと判定してもよい。外部の装置には、例えば、使用者の腕等の装着されるウェアラブル端末等を用いることができる。使用者は、ポインター301がターゲットに重なると、ウェアラブル端末により予め設定された操作を入力する。ウェアラブル端末は、予め設定された操作を受け付けると、HMD100に所定の信号を送信する。HMD100の制御部150は、ウェアラブル端末から所定の信号を受信した場合、確定操作を受け付けたと判定する。
The user finely adjusts the position of the pointer 301 by the second operation so that the pointer 301 overlaps the target while the enlarged image 303 is displayed. When the pointer 301 overlaps the target, the user performs a determination operation. When accepting the confirmation operation, control unit 150 determines that the target overlapping the display position of pointer 301 has been selected. For the confirmation operation, an operation other than an operation for detecting the tilt of the user's head and moving the pointer 301 as the second operation is used. The confirmation operation may be, for example, an operation of hitting the operation surface of the track pad 14, or an operation of the button 11, the up / down key 15, the changeover switch 16, and the like.
Further, the HMD 100 may determine that the confirmation operation has been received when receiving a signal transmitted from an external device wirelessly connected. For example, a wearable terminal on which a user's arm or the like is worn can be used as the external device. When the pointer 301 overlaps the target, the user inputs an operation preset by the wearable terminal. When the wearable terminal receives a preset operation, the wearable terminal transmits a predetermined signal to the HMD 100. When receiving a predetermined signal from the wearable terminal, the control unit 150 of the HMD 100 determines that a confirmation operation has been received.

図10は、ターゲットまでの距離と、ポインター301の移動距離との関係を示す図である。
上述した説明では、第1操作によりポインター301を操作する場合と、第2操作によりポインター301を操作する場合とで、ポインター301の移動距離や、移動速度、加速度を変更した。
これ以外の動作として、HMD100とターゲットとの距離に応じて、ポインター301の移動の態様である移動距離や、移動速度、加速度を変更してもよい。例えば、図10に示すようにターゲットがビーコン信号を送信するビーコン送信部321を備える場合、HMD100は、ターゲットから送信されるビーコン信号をビーコン受信部119で受信する。制御部150は、受信したビーコン信号の電波強度に基づき、ターゲットまでの距離を推定する。制御部150は、推定したターゲットまでの距離に応じて、第1又は第2操作により移動させるポインター301の移動距離や、移動速度、加速度を変更する。
FIG. 10 is a diagram illustrating the relationship between the distance to the target and the movement distance of the pointer 301.
In the above description, the moving distance, moving speed, and acceleration of the pointer 301 are changed between the case where the pointer 301 is operated by the first operation and the case where the pointer 301 is operated by the second operation.
As other operations, the movement distance, the movement speed, and the acceleration, which are modes of movement of the pointer 301, may be changed according to the distance between the HMD 100 and the target. For example, when the target includes a beacon transmission unit 321 that transmits a beacon signal as illustrated in FIG. 10, the HMD 100 receives a beacon signal transmitted from the target by the beacon reception unit 119. The control unit 150 estimates the distance to the target based on the radio wave intensity of the received beacon signal. The control unit 150 changes the moving distance, moving speed, and acceleration of the pointer 301 that is moved by the first or second operation according to the estimated distance to the target.

本実施形態は、図10に示すように、HMD100とターゲットとの距離が距離Aである場合のポインター301の移動距離を、ターゲットとの距離が距離Bである場合のポインター301の移動距離よりも小さく設定する。距離Aはしきい値よりも大きく、距離Bはしきい値よりも小さいと仮定する。
例えば、制御部150は、ビーコン信号の電波強度に基づいて推定した距離と、予め設定されたしきい値とを比較して、HMD100とターゲットとの距離がしきい値として設定された距離よりも大きいか否かを判定する。
制御部150は、HMD100とターゲットとの距離がしきい値よりも大きい(離れている)場合、第1操作であるトラックパッド14の操作を検出し、検出した第1操作に応じてポインター301の位置を移動させる。また、制御部150は、ターゲットとの距離がしきい値よりも大きい(離れている)場合に、第1操作により移動させるポインター301の移動距離を第1距離とする。
また、制御部150は、ターゲットとの距離がしきい値以下(近い)である場合、第2操作である頭部の傾きを検出し、検出した傾きに応じてポインター301の位置を移動させる。また、制御部150は、ターゲットとの距離がしきい値以下の場合、第2操作により移動させるポインター301の距離を第2距離とする。
第2距離は、第1距離よりも大きい値に設定される。すなわち、HMD100とターゲットとの距離が近くなるほど、ポインター301の移動距離が大きくなるように設定する。
In the present embodiment, as shown in FIG. 10, the movement distance of the pointer 301 when the distance between the HMD 100 and the target is a distance A is larger than the movement distance of the pointer 301 when the distance to the target is a distance B. Set smaller. Assume that distance A is greater than the threshold and distance B is less than the threshold.
For example, the control unit 150 compares the distance estimated based on the radio wave intensity of the beacon signal with a preset threshold value, and the distance between the HMD 100 and the target is greater than the distance set as the threshold value. Determine whether it is larger.
When the distance between the HMD 100 and the target is larger (separated) than the threshold value, the control unit 150 detects the operation of the track pad 14 as the first operation, and the pointer 301 of the pointer 301 is detected according to the detected first operation. Move position. In addition, when the distance from the target is larger (separated) from the target, the control unit 150 sets the moving distance of the pointer 301 moved by the first operation as the first distance.
Further, when the distance from the target is equal to or less than the threshold value (close), the control unit 150 detects the tilt of the head, which is the second operation, and moves the position of the pointer 301 according to the detected tilt. In addition, when the distance from the target is equal to or smaller than the threshold value, the control unit 150 sets the distance of the pointer 301 moved by the second operation as the second distance.
The second distance is set to a value larger than the first distance. That is, the moving distance of the pointer 301 is set to be larger as the distance between the HMD 100 and the target is shorter.

HMD100とターゲットとの間が離れている場合、使用者の視界300内でのターゲット(自動販売機320や商品ボタン)のサイズは小さい。第1操作によるポインター301の移動距離を大きく設定すると、ポインター301がターゲットから大きく外れてしまう場合がある。このため、HMD100とターゲットとの間の距離がしきい値よりも離れている場合、ポインター301の移動距離を小さく設定する。また、HMD100とターゲットとの間が近い場合、使用者の視界300内でのターゲットのサイズは大きい。このため、ポインター301の移動距離を大きく設定しても、ポインター301がターゲットから大きく外れる場合は少ない。このため、HMD100とターゲットとの間の距離がしきい値よりも近い場合、ポインター301の移動距離を大きく設定する。   When the HMD 100 and the target are separated from each other, the size of the target (the vending machine 320 or the product button) in the user's field of view 300 is small. If the moving distance of the pointer 301 by the first operation is set to be large, the pointer 301 may be greatly deviated from the target. For this reason, when the distance between the HMD 100 and the target is larger than the threshold value, the moving distance of the pointer 301 is set small. When the HMD 100 and the target are close to each other, the size of the target in the user's field of view 300 is large. For this reason, even if the moving distance of the pointer 301 is set to be large, the pointer 301 is hardly deviated from the target. For this reason, when the distance between the HMD 100 and the target is closer than the threshold value, the moving distance of the pointer 301 is set large.

また、ポインター301の移動距離を、ターゲットとHMD100との距離に応じて連続的に変更してもよい。制御部150は、ビーコン信号の電波強度に基づいてターゲットまでの距離を推定し、推定した距離に応じて第1又は第2操作によりポインター301を移動させる移動距離を変更する。制御部150は、ターゲットとの距離が近くなるほど、第1又は第2操作によりポインター301を移動させる距離が大きくなるように設定する。
また、上述した説明とは逆に、HMD100とターゲットとの距離が近くなるほど、第1又は第2操作によりポインター301を移動させる距離を小さくなるように設定してもよい。
また、上述した説明では、ターゲットとの距離がしきい値よりも大きい場合には第1操作を選択し、ターゲットとの距離がしきい値以下の場合には第2操作を選択した。これ以外に、第1操作と第2操作とのいずれか一方の操作によりポインター301の位置を移動させてもよい。すなわち、ターゲットとの距離がしきい値よりも大きい場合と、しきい値以下の場合との両方において、第1操作又は第2操作のいずれか一方によりポインター301を操作してもよい。
また、図10の説明では、ターゲットから送信されるビーコン信号の電波強度に基づきHMD100との距離を推定したが、HMD100がカメラ61としてステレオカメラを備える場合、このカメラ61の撮像画像によりターゲットまでの距離を求めてもよい。
Further, the moving distance of the pointer 301 may be continuously changed according to the distance between the target and the HMD 100. The control unit 150 estimates the distance to the target based on the radio wave intensity of the beacon signal, and changes the moving distance for moving the pointer 301 by the first or second operation according to the estimated distance. The control unit 150 sets the distance to move the pointer 301 by the first or second operation as the distance from the target is shorter.
In contrast to the above description, the distance by which the pointer 301 is moved by the first or second operation may be set to be smaller as the distance between the HMD 100 and the target is shorter.
In the above description, the first operation is selected when the distance to the target is greater than the threshold value, and the second operation is selected when the distance to the target is less than or equal to the threshold value. In addition to this, the position of the pointer 301 may be moved by any one of the first operation and the second operation. That is, the pointer 301 may be operated by either the first operation or the second operation both when the distance to the target is larger than the threshold and when the distance is less than the threshold.
In the description of FIG. 10, the distance from the HMD 100 is estimated based on the radio wave intensity of the beacon signal transmitted from the target. However, when the HMD 100 includes a stereo camera as the camera 61, the distance from the target to the target is determined by the captured image of the camera 61. The distance may be obtained.

図11は、HMD100の動作を示すフローチャートである。
制御部150は、トラックパッド14の操作面に対する接触操作を検出したか否かを判定する(ステップS1)。制御部150は、トラックパッド14から入力される操作信号に基づき、接触操作を検出したか否かを判定する(ステップS1)。制御部150は、接触操作を検出していない場合(ステップS1/NO)、接触操作を検出するまで待機し、他に実行可能な処理があればこの処理を実行する。また、制御部150は、接触操作を検出した場合(ステップS1/YES)、ポインター301を移動させる(ステップS2)。制御部150がポインター301を移動させる移動距離は、操作面上での使用者の手指の移動距離に対応する距離であり、移動方向は、操作面上での使用者の手指の移動方向に対応する方向である。
FIG. 11 is a flowchart showing the operation of the HMD 100.
The controller 150 determines whether or not a contact operation on the operation surface of the track pad 14 has been detected (step S1). The control unit 150 determines whether or not a contact operation is detected based on the operation signal input from the track pad 14 (step S1). If the contact operation is not detected (step S1 / NO), control unit 150 waits until a contact operation is detected, and executes this process if there is another process that can be executed. Moreover, the control part 150 moves the pointer 301, when a contact operation is detected (step S1 / YES) (step S2). The moving distance by which the control unit 150 moves the pointer 301 is a distance corresponding to the moving distance of the user's finger on the operation surface, and the moving direction corresponds to the moving direction of the user's finger on the operation surface. Direction.

次に、制御部150は、使用者の手指等が操作面に接触しているか否かを判定する(ステップS3)。本実施形態は、手指等の操作面への接触が継続している間は、第1操作である操作面に対する接触操作によりポインター301を移動させる。また、手指等の操作面への接触が検出されなくなると、制御部150は、ポインター301の操作を、第1操作から第2操作に切り替える。制御部150は、第2操作では、使用者の頭部の傾きを検出し、検出した頭部の傾きに応じてポインター301を移動させる。
制御部150は、操作面への接触を検出した場合(ステップS3/YES)、ステップS1に戻り接触操作を検出したか否かを判定し(ステップS1)、検出した接触操作に応じてポインター301を移動させる(ステップS2)。
Next, the control unit 150 determines whether or not the user's finger or the like is in contact with the operation surface (step S3). In this embodiment, while the contact with the operation surface such as a finger is continued, the pointer 301 is moved by the contact operation with respect to the operation surface which is the first operation. When contact with the operation surface such as a finger is no longer detected, the control unit 150 switches the operation of the pointer 301 from the first operation to the second operation. In the second operation, the control unit 150 detects the tilt of the user's head and moves the pointer 301 according to the detected tilt of the head.
When detecting a contact with the operation surface (step S3 / YES), the control unit 150 returns to step S1 to determine whether or not a contact operation has been detected (step S1), and the pointer 301 is determined according to the detected contact operation. Is moved (step S2).

また、制御部150は、操作面への接触が検出できない場合(ステップS3/NO)、ポインター301の操作を第2操作に切り替える。制御部150は、まず、6軸センサー235の検出値を取得する(ステップS4)。
制御部150は、取得した6軸センサー235の検出値に基づき使用者の頭部の傾きが検出されたか否かを判定する(ステップS5)。制御部150は、使用者の頭部に傾きがないと判定した場合(ステップS5/NO)、ポインター301の操作を終了させる終了操作を受け付けたか否かを判定する(ステップS6)。制御部150は、終了操作を受け付けていない場合(ステップS6/NO)、ステップS4の判定に戻り、引き続き6軸センサー235の検出値に基づき使用者の頭部の傾きを検出する(ステップS5)。また、制御部150は、終了操作を受け付けた場合(ステップS6/YES)、この処理フローを終了する。
In addition, when the contact with the operation surface cannot be detected (step S3 / NO), the control unit 150 switches the operation of the pointer 301 to the second operation. First, the control unit 150 acquires the detection value of the 6-axis sensor 235 (step S4).
The control unit 150 determines whether or not the tilt of the user's head has been detected based on the acquired detection value of the 6-axis sensor 235 (step S5). When it is determined that the user's head is not tilted (step S5 / NO), the control unit 150 determines whether an end operation for ending the operation of the pointer 301 has been received (step S6). If the end operation has not been received (step S6 / NO), the control unit 150 returns to the determination of step S4 and continues to detect the tilt of the user's head based on the detection value of the 6-axis sensor 235 (step S5). . Moreover, the control part 150 complete | finishes this process flow, when completion | finish operation is received (step S6 / YES).

また、制御部150は、使用者の頭部に傾きがあると判定した場合(ステップS5/YES)、画像表示部20が左又は右に傾いた状態であるか否かを判定する(ステップS7)。この判定では、使用者が頭部を左又は右に傾ける動きを行ったか否かが判定される。使用者の頭部が左又は右に傾くと、使用者が画像表示部20越しに視認する外景内の対象物体が左又は右に傾いた状態で視認される。そこで、制御部150は、画像表示部20が左右に傾いた状態であると判定される場合に、この画像表示部20の傾きに対応するようにポインター301の移動を制御する。   When it is determined that the user's head is tilted (step S5 / YES), the control unit 150 determines whether the image display unit 20 is tilted left or right (step S7). ). In this determination, it is determined whether or not the user has moved the head to the left or right. When the user's head tilts to the left or right, the target object in the outside scene that the user visually recognizes through the image display unit 20 is viewed in a state tilted to the left or right. Therefore, when it is determined that the image display unit 20 is tilted left and right, the control unit 150 controls the movement of the pointer 301 so as to correspond to the tilt of the image display unit 20.

制御部150は、画像表示部20が左又は右に傾いた状態ではないと判定した場合(ステップS7/NO)、6軸センサー235の検出値に基づき使用者の頭部の傾きを検出し、検出した傾きに対応する方向にポインター301を移動させる(ステップS8)。
例えば、使用者の顔を上に向ける動作が検出された場合、制御部150は、ポインター301を図6に示すz軸の正方向である上方に移動させる。また、使用者の顔を下に向ける動作が検出された場合、制御部150は、ポインター301をz軸の負方向である下方に移動させる。
また、使用者の顔を左に向ける、すなわち、Z軸まわりの左回転が検出された場合、制御部150は、ポインター301を図6に示すx軸の正方向である左方向に移動させる。また、使用者の顔を右に向ける、すなわち、Z軸まわりの右回転が検出された場合、制御部150は、ポインター301を図6に示すx軸の負方向である右方向に移動させる。
また、制御部150は、対象物体を基準としてポインター301を移動させる場合に、磁気センサー237の検出値に基づき、ポインター301を水平に移動させてもよい。
When it is determined that the image display unit 20 is not tilted left or right (step S7 / NO), the control unit 150 detects the tilt of the user's head based on the detection value of the six-axis sensor 235, The pointer 301 is moved in the direction corresponding to the detected inclination (step S8).
For example, when an operation of turning the user's face upward is detected, the control unit 150 moves the pointer 301 upward, which is the positive direction of the z axis shown in FIG. In addition, when an operation of turning the user's face downward is detected, the control unit 150 moves the pointer 301 downward, which is the negative direction of the z axis.
When the user's face is turned to the left, that is, when a left rotation around the Z axis is detected, the control unit 150 moves the pointer 301 to the left, which is the positive direction of the x axis shown in FIG. When the user's face is turned to the right, that is, when a right rotation around the Z axis is detected, the control unit 150 moves the pointer 301 to the right, which is the negative direction of the x axis shown in FIG.
In addition, when moving the pointer 301 with reference to the target object, the control unit 150 may move the pointer 301 horizontally based on the detection value of the magnetic sensor 237.

また、制御部150は、画像表示部20が左又は右に傾いた状態であると判定した場合(ステップS7/YES)、制御部150の動作モードが第1の動作モードであるか否かを判定する(ステップS9)。第1の動作モードでは、ポインター301を水平方向に移動させる場合に、外景に対して水平になるようにポインター301を移動させる。使用者の頭部が左又は右に傾いた状態では、使用者には、画像表示部20越しに見える外景内の対象物体も傾いて見える。このため、制御部150は、動作モードが第1の動作モードの場合(ステップS9/YES)、ポインター301を、対象物体を基準にして移動させる(ステップS10)。すなわち、制御部150は、ポインター301が外景内の対象物体に対して水平に移動するように表示を調整する(ステップS10)。制御部150は、6軸センサー235の検出値に基づき、Y軸まわりの回転角を検出して、画像表示部20の傾きを判定する。制御部150は、判定した画像表示部20の傾きに基づき、ポインター301が対象物体に対して水平に移動するように表示を調整する(ステップS10)。   Further, when the control unit 150 determines that the image display unit 20 is tilted left or right (step S7 / YES), it is determined whether or not the operation mode of the control unit 150 is the first operation mode. Determine (step S9). In the first operation mode, when the pointer 301 is moved in the horizontal direction, the pointer 301 is moved so as to be horizontal with respect to the outside scene. In the state where the user's head is tilted to the left or right, the target object in the outside scene that can be seen through the image display unit 20 also appears to tilt. Therefore, when the operation mode is the first operation mode (step S9 / YES), the control unit 150 moves the pointer 301 with reference to the target object (step S10). That is, the control unit 150 adjusts the display so that the pointer 301 moves horizontally with respect to the target object in the outside scene (step S10). The control unit 150 detects the rotation angle around the Y axis based on the detection value of the 6-axis sensor 235 and determines the tilt of the image display unit 20. Based on the determined inclination of the image display unit 20, the control unit 150 adjusts the display so that the pointer 301 moves horizontally with respect to the target object (step S10).

また、制御部150は、動作モードが第1の動作モードではなく(ステップS9/NO)、第2の動作モードであると判定した場合、ポインター301を、表示画像を基準にして移動させる(ステップS11)。すなわち、制御部150は、ポインター301を、表示画像に対して水平になるように表示を調整する。制御部150は、ポインター301を移動させると、ステップS4に戻り6軸センサー235の検出値を新たに取得して、頭部の傾きを検出する(ステップS5)。   Further, when determining that the operation mode is not the first operation mode (step S9 / NO) and the second operation mode, the control unit 150 moves the pointer 301 with reference to the display image (step S9 / NO). S11). That is, the control unit 150 adjusts the display so that the pointer 301 is horizontal with respect to the display image. When the pointer 301 is moved, the control unit 150 returns to step S4 to newly acquire the detection value of the 6-axis sensor 235 and detects the tilt of the head (step S5).

制御部150は、ステップS5の判定において、頭部の傾きが検出されない場合(ステップS5/NO)、確定操作を受け付けたか否かを判定する(ステップS6)。制御部150は、例えば、トラックパッド14の操作面を叩く操作を受け付けた場合に、確定操作を受け付けたと判定する。制御部150は、確定操作を受け付けた場合、ポインター301と重なる位置のターゲットが選択されたと判定し、選択されたターゲットに応じた処理を実行する。制御部150は、ターゲットが対象物体である場合、キャリブレーションにより生成したパラメーターを取得し、取得したパラメーターに基づいて、ポインター301が表示された表示領域310の座標を、撮像画像データ上の座標に変換する。そして、制御部150は、変換した撮像画像データ上の座標に写った対象物体を特定し、特定した対象物体に応じた処理を実行する。例えば、ターゲットとして、自動販売機320の商品ボタンが選択された場合、制御部150は、この自動販売機320と無線通信を行って、選択された商品ボタンの商品を購入する処理を実行する。また、制御部150は、ターゲットとして表示画像が選択された場合、この表示画像に対応付けられた処理を実行する。例えば、表示画像がメニュー画面であり、ポインター301によりメニュー画面の項目が選択された場合、制御部150は、選択された項目に対応する処理を実行する。   When the head tilt is not detected in the determination in step S5 (step S5 / NO), the control unit 150 determines whether or not a confirmation operation has been accepted (step S6). For example, the control unit 150 determines that the confirmation operation has been received when an operation of hitting the operation surface of the track pad 14 is received. When accepting the confirmation operation, the control unit 150 determines that the target at the position overlapping the pointer 301 has been selected, and executes processing according to the selected target. When the target is the target object, the control unit 150 acquires the parameter generated by the calibration, and based on the acquired parameter, the coordinate of the display area 310 on which the pointer 301 is displayed is the coordinate on the captured image data. Convert. And the control part 150 specifies the target object reflected in the coordinate on the converted captured image data, and performs the process according to the specified target object. For example, when the product button of the vending machine 320 is selected as a target, the control unit 150 performs processing for purchasing the product of the selected product button by performing wireless communication with the vending machine 320. In addition, when a display image is selected as the target, the control unit 150 executes processing associated with the display image. For example, when the display image is a menu screen and an item on the menu screen is selected by the pointer 301, the control unit 150 executes processing corresponding to the selected item.

図12は、使用者の靴底又は靴内部に装着した検知装置の配置を示す配置図である。
上述した実施形態は、HMD100により第1操作及び第2操作を検出する構成であったが、外部の装置により第1操作又は第2操作を検出する構成であってもよい。図12には、使用者の靴底又は靴内部に検知装置330を配置し、この検知装置330により第1操作又は第2操作を検出する構成を示す。検知装置330は、例えば、足裏に生じる圧力を検出する圧力センサーと、近距離無線通信によりHMD100と無線通信を行って、圧力センサーが検出した検出値をHMD100に送信する通信装置(ともに不図示)とを備える。
FIG. 12 is a layout diagram illustrating the layout of the detection device mounted on the shoe sole or the shoe interior of the user.
The embodiment described above is configured to detect the first operation and the second operation by the HMD 100, but may be configured to detect the first operation or the second operation by an external device. FIG. 12 shows a configuration in which a detection device 330 is arranged in the shoe sole or inside of a user and the first operation or the second operation is detected by the detection device 330. The detection device 330 is, for example, a pressure sensor that detects pressure generated on the sole, and a communication device that performs wireless communication with the HMD 100 by short-range wireless communication and transmits a detection value detected by the pressure sensor to the HMD 100 (both not shown). ).

図12には、右足の靴底又は靴内部であって、靴の中央部に検知装置330を配置した例を示す。使用者は、ポインター301を移動させる方向に応じて、爪先側(前側)、踵側(後側)、左側、右側のいずれかの方向に体重をかける。検知装置330は、前後左右の4方向のうち、圧力が最も高い方向を検出し、検出した方向を示す信号をHMD100に送信する。HMD100は、検知装置330から送信される信号に基づいて、前後左右の4方向のうちのいずれの方向が選択されたのかを判定する。HMD100は、判定した方向に対応する方向にポインター301を移動させる。
例えば、使用者が体重を爪先側にかけた場合、制御部150は、ポインター301を図6に示すz軸の正方向である上方に移動させる。また、使用者が体重を踵側にかけた場合、制御部150は、ポインター301をz軸の負方向である下方に移動させる。また、使用者が体重を左側にかけた場合、制御部150は、ポインター301を図6に示すx軸の正方向である左方向に移動させる。また、使用者が体重を右側にかけた場合、制御部150は、ポインター301を図6に示すx軸の負方向である右方向に移動させる。また、例えば、ポインター301を表示領域の奥行方向(Y軸方向)に移動させたい場合、前後左右の4方向に順番に体重がかかるように円運動を行う。制御部150は、例えば、前、右、後、左の右回転が検出された場合、ポインター301を図6に示すy軸の正方向である手前側に移動させる。また、制御部150は、例えば、前、左、後、右の左回転が検出された場合、ポインター301を図6に示すy軸の負方向である奥側に移動させる。
FIG. 12 shows an example in which the detection device 330 is arranged in the center of the shoe, in the sole of the right foot or inside the shoe. The user puts weight on the toe side (front side), the heel side (rear side), the left side, or the right side according to the direction in which the pointer 301 is moved. The detection device 330 detects the direction with the highest pressure among the four directions, front, rear, left, and right, and transmits a signal indicating the detected direction to the HMD 100. Based on the signal transmitted from the detection device 330, the HMD 100 determines which one of the four directions, front, rear, left, and right has been selected. The HMD 100 moves the pointer 301 in a direction corresponding to the determined direction.
For example, when the user puts his / her weight on the toe side, the control unit 150 moves the pointer 301 upward, which is the positive direction of the z axis shown in FIG. When the user puts his / her weight on the heel side, the control unit 150 moves the pointer 301 downward, which is the negative direction of the z axis. When the user puts his / her weight on the left side, the control unit 150 moves the pointer 301 to the left which is the positive direction of the x axis shown in FIG. When the user puts his / her weight on the right side, the control unit 150 moves the pointer 301 in the right direction, which is the negative direction of the x axis shown in FIG. For example, when the pointer 301 is desired to be moved in the depth direction (Y-axis direction) of the display area, the circular motion is performed so that the weight is applied in order in the four directions of front, rear, left and right. For example, when front, right, rear, and left rotations are detected, the control unit 150 moves the pointer 301 to the front side that is the positive direction of the y-axis illustrated in FIG. In addition, for example, when front, left, rear, and right left rotations are detected, the control unit 150 moves the pointer 301 to the back side, which is the negative direction of the y-axis illustrated in FIG.

図13は、検知装置の他の配置例を示す図である。
図12には、靴底又は靴内部に1つの検知装置330を設けた例を示したが、図13に示すように靴底又は靴内部の中央に1つの検知装置331を配置し、爪先側に2つの検知装置332、333を配置してもよい。検知装置331、332、333の構成は、図12に示す検知装置330と同一であるが、検知装置331、332及び333は、各検知装置331、332及び333がそれぞれに備える圧力センサーが検出する圧力の検出値をHMD100に送信する。
使用者が前方(爪先側)に体重をかけると、検知装置332及び333の検出値は上昇し、検知装置331の検出値は下降する。また、使用者が後方(踵側)に体重をかけると、検知装置331の検出値は上昇し、検知装置332及び333の検出値は下降する。
また、使用者が体重を左側又は右側にかけた場合、検知装置332の検出値と、検知装置333の検出値とが大きく異なる値になる。使用者が体重を左側にかけた場合、検知装置332の検出値が上昇し、検知装置333の検出値が下降する。また、使用者が体重を右側にかけた場合、検知装置332の検出値が下降し、検知装置333の検出値が上昇する。
FIG. 13 is a diagram illustrating another arrangement example of the detection devices.
FIG. 12 shows an example in which one detection device 330 is provided in the shoe sole or the inside of the shoe. However, as shown in FIG. 13, one detection device 331 is arranged in the center of the shoe sole or the inside of the shoe, and the toe side is arranged. Two detectors 332 and 333 may be arranged in the same. The configuration of the detection devices 331, 332, and 333 is the same as that of the detection device 330 shown in FIG. 12, but the detection devices 331, 332, and 333 are detected by pressure sensors included in the detection devices 331, 332, and 333, respectively. The detected pressure value is transmitted to the HMD 100.
When the user puts weight on the front (toe side), the detection values of the detection devices 332 and 333 increase, and the detection value of the detection device 331 decreases. Further, when the user puts his / her weight on the back (heel side), the detection value of the detection device 331 increases and the detection values of the detection devices 332 and 333 decrease.
Further, when the user puts his / her weight on the left side or the right side, the detection value of the detection device 332 and the detection value of the detection device 333 become significantly different values. When the user puts his / her weight on the left side, the detection value of the detection device 332 increases and the detection value of the detection device 333 decreases. When the user puts his / her weight on the right side, the detection value of the detection device 332 decreases and the detection value of the detection device 333 increases.

図14は、検知装置の他の例を示す図である。
図14に示す検知装置の配置例は、左右の両足の靴底又は靴内部に、検知装置334、335をそれぞれ配置した例を示す。検知装置334、335の構成は、図12に示す検知装置330と同一であるが、図12に示す検知装置330と同様に前後左右の4方向のうち、圧力が最も高い方向を検出し、検出した方向を示す信号をHMD100に送信する。
使用者は、例えば、ポインター301の表示位置に表示された表示画像を拡大表示させる操作を入力すると仮定する。この場合、使用者は、両足の爪先の内側に体重をかけ、両足の爪先を広げる動作、すなわち両足の爪先を離す動作を行う。この場合、左足の検知装置334は、左足の内側(右側)の圧力が高いと判定し、右側の圧力が高いことを示す信号をHMD100に送信する。また、右足の検知装置335は、右足の内側(左側)の圧力が高いと判定し、左側の圧力が高いことを示す信号をHMD100に送信する。
HMD100は、左足の検知装置334から受信した信号により、左足の右側の圧力が高いと判定し、右足の検知装置335から受信した信号により、右足の左側の圧力が高いと判定した場合、ピンチアウトの操作が入力されたと判定する。この場合、HMD100の制御部150は、例えば、ポインター301と重なる位置に表示された表示画像を拡大表示させる。本実施形態では、ピンチアウトの操作を表示画像の拡大に対応付けた例を説明したが、ポインター301と重なる位置に表示された表示画像を選択する選択操作や、操作を確定させる確定操作に対応付けてもよい。
FIG. 14 is a diagram illustrating another example of the detection device.
The arrangement example of the detection device shown in FIG. 14 shows an example in which the detection devices 334 and 335 are arranged in the shoe soles of the left and right feet or inside the shoes, respectively. The configuration of the detection devices 334 and 335 is the same as that of the detection device 330 shown in FIG. 12, but the direction with the highest pressure is detected among the four directions of front, rear, left and right as in the detection device 330 shown in FIG. A signal indicating the selected direction is transmitted to the HMD 100.
For example, it is assumed that the user inputs an operation for enlarging and displaying the display image displayed at the display position of the pointer 301. In this case, the user puts weight on the inside of the toes of both feet and performs an operation of spreading the toes of both feet, that is, an operation of releasing the toes of both feet. In this case, the left foot detection device 334 determines that the pressure on the inside (right side) of the left foot is high, and transmits a signal indicating that the pressure on the right foot is high to the HMD 100. Also, the right foot detection device 335 determines that the pressure on the inside (left side) of the right foot is high, and transmits a signal indicating that the pressure on the left foot is high to the HMD 100.
When the HMD 100 determines that the pressure on the right side of the left foot is high based on the signal received from the detection device 334 for the left foot and determines that the pressure on the left side of the right foot is high based on the signal received from the detection device 335 on the right foot, the pinch out It is determined that the operation is input. In this case, the control unit 150 of the HMD 100 enlarges and displays the display image displayed at a position overlapping the pointer 301, for example. In this embodiment, an example in which a pinch-out operation is associated with enlargement of a display image has been described. However, a selection operation for selecting a display image displayed at a position overlapping the pointer 301 and a confirmation operation for confirming the operation are supported. May be attached.

使用者は、例えば、ポインター301の表示位置に表示された表示画像を縮小表示させる操作を入力すると仮定する。この場合、使用者は、両足の爪先の内側に体重をかけ、広げた両足の爪先を閉じる動作を行う。この場合、左足の検知装置334は、左足の外側(左側)の圧力が高いと判定し、左側の圧力が高いことを示す信号をHMD100に送信する。また、右足の検知装置335は、右足の外側(右側)の圧力が高いと判定し、右側の圧力が高いことを示す信号をHMD100に送信する。
HMD100は、左足の検知装置334から受信した信号により、左足の左側の圧力が高いと判定し、右足の検知装置335から受信した信号により、右足の右側の圧力が高いと判定した場合、ピンチインの操作が入力されたと判定する。この場合、HMD100の制御部150は、例えば、ポインター301と重なる位置に表示された表示画像を縮小表示させる。本実施形態では、ピンチインの操作を表示画像の拡大に対応付けた例を説明したが、ポインター301と重なる位置に表示された表示画像を選択する選択操作や、操作を確定させる確定操作に対応付けてもよい。
For example, it is assumed that the user inputs an operation for reducing the display image displayed at the display position of the pointer 301. In this case, the user puts weight on the inside of the toes of both feet and performs an operation of closing the toes of the spread both feet. In this case, the left foot detection device 334 determines that the pressure on the outside (left side) of the left foot is high and transmits a signal indicating that the left pressure is high to the HMD 100. The right foot detection device 335 determines that the pressure on the outside (right side) of the right foot is high, and transmits a signal indicating that the pressure on the right foot is high to the HMD 100.
The HMD 100 determines that the pressure on the left side of the left foot is high based on the signal received from the detection device 334 on the left foot, and determines that the pressure on the right side of the right foot is high based on the signal received from the detection device 335 on the right foot. It is determined that an operation has been input. In this case, the control unit 150 of the HMD 100 reduces the display image displayed at a position overlapping the pointer 301, for example. In this embodiment, the example in which the pinch-in operation is associated with the enlargement of the display image has been described. However, the operation is associated with the selection operation for selecting the display image displayed at the position overlapping the pointer 301 and the confirmation operation for confirming the operation. May be.

以上、詳細に説明したように本実施形態のHMD100は、画像表示部20と、表示制御部153と、トラックパッド14と、操作制御部149と、6軸センサー235と、検出制御部151とを備える。
画像表示部20は、外景を透過し、外景とともに視認できるように表示画像を表示領域310に表示する。表示制御部153は、指示位置を示すポインター301を画像表示部20により表示領域310に表示させる。トラックパッド14及び操作制御部149は、第1操作であるトラックパッド14の操作面に対する操作を検出し、操作に対応する操作データを出力する。また、6軸センサー235及び検出制御部151は、第2操作としての使用者の頭部の傾きを検出し、検出した頭部の傾きに応じた操作データを出力する。表示制御部153は、検出部が検出する第1操作に応じてポインター301の位置を移動させる。また、表示制御部153は、第1操作に応じたポインター301の位置の移動後に、検出制御部151が検出する第2操作に応じて、ポインター301の位置を、第1操作に応じたポインター301の位置の移動とは異なる態様で移動させる。
従って、ポインター301の移動の態様が増えるため、ポインター301を操作する場合の操作性を向上させ、HMD100の使い勝手を向上させることができる。
As described above in detail, the HMD 100 according to the present embodiment includes the image display unit 20, the display control unit 153, the track pad 14, the operation control unit 149, the six-axis sensor 235, and the detection control unit 151. Prepare.
The image display unit 20 displays the display image in the display area 310 so that the outside scene is transmitted and can be visually recognized together with the outside scene. The display control unit 153 causes the image display unit 20 to display the pointer 301 indicating the designated position on the display area 310. The track pad 14 and the operation control unit 149 detect an operation on the operation surface of the track pad 14 that is the first operation, and output operation data corresponding to the operation. The 6-axis sensor 235 and the detection control unit 151 detect the tilt of the user's head as the second operation, and output operation data corresponding to the detected tilt of the head. The display control unit 153 moves the position of the pointer 301 according to the first operation detected by the detection unit. In addition, the display control unit 153 changes the position of the pointer 301 according to the second operation detected by the detection control unit 151 after the movement of the position of the pointer 301 according to the first operation to the pointer 301 according to the first operation. It is moved in a manner different from the movement of the position.
Accordingly, since the manner of movement of the pointer 301 is increased, the operability when the pointer 301 is operated can be improved, and the usability of the HMD 100 can be improved.

また、6軸センサー235及び検出制御部151は、使用者の動作を第2操作として検出するが、使用者の動作を第1操作として検出することも可能である。
従って、使用者の動作によってポインター301の位置を移動させることができる。
Moreover, although the 6-axis sensor 235 and the detection control part 151 detect a user's operation | movement as 2nd operation, it is also possible to detect a user's operation | movement as 1st operation.
Therefore, the position of the pointer 301 can be moved by the user's action.

また、HMD100は、外景を撮像するカメラ61を備える。
表示制御部163は、カメラ61の撮像画像に基づき、ポインター301に重なって視認される対象物体を特定する第1の動作モードを備える。また、表示制御部163は、表示領域310に表示される複数の表示画像からポインター301の位置に対応する表示画像を特定する第2の動作モードを備える。表示制御部163は、第1の動作モードと第2の動作モードとを切り替えて実行する。
従って、ポインター301の移動により対象物体を特定することも、表示画像を特定することもできる。
The HMD 100 also includes a camera 61 that captures an outside scene.
The display control unit 163 includes a first operation mode that identifies a target object that is visually recognized by overlapping with the pointer 301 based on a captured image of the camera 61. In addition, the display control unit 163 includes a second operation mode for specifying a display image corresponding to the position of the pointer 301 from a plurality of display images displayed in the display area 310. The display control unit 163 performs switching between the first operation mode and the second operation mode.
Therefore, the target object can be specified by moving the pointer 301, and the display image can be specified.

また、本発明は、表示制御部153は、第1の動作モードを実行中である場合と、第2の動作モードを実行中である場合とで、ポインター301の位置を異なる態様で移動させる。
従って、ポインター301により特定する対象が対象物体であるか表示画像であるかに応じてポインター301の位置の移動の態様を変更することができる。
Further, according to the present invention, the display control unit 153 moves the position of the pointer 301 in a different manner between when the first operation mode is being executed and when the second operation mode is being executed.
Therefore, the manner of movement of the position of the pointer 301 can be changed according to whether the target specified by the pointer 301 is a target object or a display image.

また、6軸センサー235及び検出制御部151は、第2操作として使用者の頭部の傾きを検出する。表示制御部153は、第1の動作モードの実行中に、検出制御部151により頭部の傾きが検出された場合は、ポインター301を、使用者が視認する外景を基準として移動させる。また、表示制御部153は、第2の動作モードの実行中に、検出制御部151により頭部の傾きが検出された場合は、ポインター301を、使用者が視認する表示画像を基準として移動させる。
従って、第1の動作モードの実行中は、使用者が第2操作により頭部を傾けても、ポインター301の位置を、外景を基準として移動させることができる。また、第2の動作モードの実行中は、ポインター301の位置を、表示画像を基準として移動させることができる。
The 6-axis sensor 235 and the detection control unit 151 detect the tilt of the user's head as the second operation. When the detection control unit 151 detects the tilt of the head during execution of the first operation mode, the display control unit 153 moves the pointer 301 with reference to the outside scene visually recognized by the user. In addition, when the detection control unit 151 detects the tilt of the head during the execution of the second operation mode, the display control unit 153 moves the pointer 301 with reference to the display image visually recognized by the user. .
Therefore, during execution of the first operation mode, the position of the pointer 301 can be moved with reference to the outside scene even if the user tilts the head by the second operation. Further, during execution of the second operation mode, the position of the pointer 301 can be moved with reference to the display image.

また、表示制御部153は、第2操作に応じてポインター301を移動させる場合の移動量を、第1操作に応じてポインター301を移動させる場合の移動量よりも小さくする。
従って、第2操作よりも移動量が大きい第1操作によりポインター301を移動させた後に、第1操作よりも移動量が小さい第2操作によりポインター301を移動させることができる。従って、第1操作によりポインター301を移動させ、その後、第2操作によりポインター301の位置を調整することができる。
In addition, the display control unit 153 makes the movement amount when the pointer 301 is moved according to the second operation smaller than the movement amount when the pointer 301 is moved according to the first operation.
Therefore, after the pointer 301 is moved by the first operation having a larger movement amount than the second operation, the pointer 301 can be moved by the second operation having the smaller movement amount than the first operation. Therefore, the pointer 301 can be moved by the first operation, and then the position of the pointer 301 can be adjusted by the second operation.

また、HMD100は、ビーコン信号により対象物体までの距離を検出するビーコン受信部119を備える。
表示制御部153は、ビーコン受信部119が検出する対象物体までの距離に応じて、ポインター301を異なる態様で移動させる。
従って、ポインター301の操作の操作性を向上させ、HMD100の使い勝手を向上させることができる。
Moreover, HMD100 is provided with the beacon receiving part 119 which detects the distance to a target object with a beacon signal.
The display control unit 153 moves the pointer 301 in a different manner according to the distance to the target object detected by the beacon receiving unit 119.
Therefore, the operability of the operation of the pointer 301 can be improved and the usability of the HMD 100 can be improved.

また、表示制御部153は、対象物体までの距離がしきい値よりも大きい場合に、操作制御部149が検出する操作を第1操作とし、対象物体までの距離がしきい値以下である場合に、検出制御部151が検出する操作を第2操作とする。
表示制御部153は、第1操作によりポインター301を移動させる移動量を、第2操作によりポインター301を移動させる移動量よりも小さくする。
従って、対象物体までの距離がしきい値よりも大きい場合、ポインター301の移動量を小さくして、第1操作によりポインター301の位置が大きく移動してしまうことを防止することができる。
Further, when the distance to the target object is greater than the threshold value, the display control unit 153 sets the operation detected by the operation control unit 149 as the first operation, and the distance to the target object is equal to or less than the threshold value. In addition, the operation detected by the detection control unit 151 is defined as a second operation.
The display control unit 153 makes the movement amount for moving the pointer 301 by the first operation smaller than the movement amount for moving the pointer 301 by the second operation.
Therefore, when the distance to the target object is greater than the threshold value, the amount of movement of the pointer 301 can be reduced to prevent the position of the pointer 301 from moving greatly due to the first operation.

なお、この発明は上記各実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、上述した実施形態では、制御装置10が画像表示部20と有線接続される構成を例示したが、本発明はこれに限定されず、制御装置10に対して画像表示部20が無線接続される構成であってもよい。この場合の無線通信方式は通信部117が対応する通信方式として例示した方式を採用してもよいし、その他の通信方式であってもよい。
In addition, this invention is not restricted to the structure of said each embodiment, In the range which does not deviate from the summary, it can be implemented in a various aspect.
For example, in the above-described embodiment, the configuration in which the control device 10 is wired to the image display unit 20 is illustrated. However, the present invention is not limited to this, and the image display unit 20 is wirelessly connected to the control device 10. It may be a configuration. In this case, the wireless communication method may be the method exemplified as the communication method supported by the communication unit 117, or may be another communication method.

また、制御部150は、HMD100が第1操作を検出する状態にある場合には、第1操作を検出する状態であることを示す画像やメッセージを生成し、生成した画像やメッセージを画像表示部20により表示させる。また、制御部150は、HMD100が第2操作を検出する状態にある場合には、第2操作を検出する状態であることを示す画像やメッセージを生成し、生成した画像やメッセージを画像表示部20により表示させる。
また、制御部150は、HMD100の動作モードが第1の動作モードである場合に、動作モードが第1の動作モードであることを示す画像やメッセージを生成し、生成した画像やメッセージを画像表示部20により表示させる。また、制御部150は、HMD100の動作モードが第2の動作モードである場合に、動作モードが第2の動作モードであることを示す画像やメッセージを生成し、生成した画像やメッセージを画像表示部20により表示させる。
In addition, when the HMD 100 is in a state of detecting the first operation, the control unit 150 generates an image or a message indicating that the HMD 100 is in a state of detecting the first operation, and the generated image or message is displayed in the image display unit. 20 is displayed. In addition, when the HMD 100 is in a state of detecting the second operation, the control unit 150 generates an image or a message indicating that the HMD 100 is in a state of detecting the second operation, and the generated image or message is displayed in the image display unit. 20 is displayed.
In addition, when the operation mode of the HMD 100 is the first operation mode, the control unit 150 generates an image or message indicating that the operation mode is the first operation mode, and displays the generated image or message as an image. Displayed by the unit 20. In addition, when the operation mode of the HMD 100 is the second operation mode, the control unit 150 generates an image or message indicating that the operation mode is the second operation mode, and displays the generated image or message as an image. Displayed by the unit 20.

また、制御装置10が備える一部の機能を画像表示部20に設けてもよく、制御装置10を複数の装置により実現してもよい。すなわち、制御装置10は、箱形のケース10Aを備える構成に限定されない。例えば、制御装置10に代えて、使用者の身体、着衣又は、使用者が身につける装身具に取り付け可能なウェアラブルデバイスを用いてもよい。この場合のウェアラブルデバイスは、例えば、時計型の装置、指輪型の装置、レーザーポインター、マウス、エアーマウス、ゲームコントローラー、ペン型のデバイス等であってもよい。   In addition, some functions of the control device 10 may be provided in the image display unit 20, and the control device 10 may be realized by a plurality of devices. That is, the control device 10 is not limited to the configuration including the box-shaped case 10A. For example, instead of the control device 10, a wearable device that can be attached to a user's body, clothes, or an accessory worn by the user may be used. The wearable device in this case may be, for example, a watch-type device, a ring-type device, a laser pointer, a mouse, an air mouse, a game controller, a pen-type device, or the like.

さらに、上記各実施形態では、画像表示部20と制御装置10とが分離され、接続ケーブル40を介して接続された構成を例に挙げて説明した。本発明はこれに限定されず、制御装置10と画像表示部20とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。   Further, in each of the above embodiments, the configuration in which the image display unit 20 and the control device 10 are separated and connected via the connection cable 40 has been described as an example. The present invention is not limited to this, and the control device 10 and the image display unit 20 may be configured integrally and mounted on the user's head.

また、制御装置10として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、制御装置10として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。   As the control device 10, a notebook computer, a tablet computer, or a desktop computer may be used. The control device 10 may be a game machine, a portable phone, a portable electronic device including a smartphone or a portable media player, other dedicated devices, or the like.

また、上記各実施形態において、使用者が表示部を透過して外景を視認する構成は、右導光板26及び左導光板28が外光を透過する構成に限定されない。例えば外景を視認できない状態で画像を表示する表示装置にも適用可能である。具体的には、カメラ61の撮像画像、この撮像画像に基づき生成される画像やCG、予め記憶された映像データや外部から入力される映像データに基づく映像等を表示する表示装置に、本発明を適用できる。この種の表示装置としては、外景を視認できない、いわゆるクローズ型の表示装置を含むことができる。また、上記実施形態で説明したように実空間に重ねて画像を表示するAR表示や、撮像した実空間の画像と仮想画像とを組み合わせるMR(Mixed Reality)表示といった処理を行わない表示装置に本発明を適用できる。また、仮想画像を表示するVR(Virtual Reality)表示といった処理を行わない表示装置にも本発明を適用できる。例えば、外部から入力される映像データ又はアナログ映像信号を表示する表示装置も、本発明の適用対象として勿論含まれる。   In each of the above embodiments, the configuration in which the user visually recognizes the outside scene through the display unit is not limited to the configuration in which the right light guide plate 26 and the left light guide plate 28 transmit external light. For example, the present invention can be applied to a display device that displays an image in a state where an outside scene cannot be visually recognized. Specifically, the present invention is applied to a display device that displays a captured image of the camera 61, an image or CG generated based on the captured image, video based on video data stored in advance or video data input from the outside, and the like. Can be applied. This type of display device can include a so-called closed display device in which an outside scene cannot be visually recognized. Further, as described in the above embodiment, the present invention is applied to a display device that does not perform processing such as AR display that displays an image superimposed on real space or MR (Mixed Reality) display that combines a captured real space image and a virtual image. The invention can be applied. The present invention can also be applied to a display device that does not perform processing such as VR (Virtual Reality) display for displaying a virtual image. For example, a display device that displays video data or an analog video signal input from the outside is naturally included as an application target of the present invention.

また、例えば、画像表示部20に代えて、例えば帽子のように装着する画像表示部等の他の方式の画像表示部を採用してもよく、使用者の左眼LEに対応して画像を表示する表示部と、使用者の右眼REに対応して画像を表示する表示部とを備えていればよい。また、本発明の表示装置は、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよい。この場合、使用者の身体に対する位置を位置決めする部分、及び当該部分に対し位置決めされる部分を装着部とすることができる。   Further, for example, instead of the image display unit 20, an image display unit of another method such as an image display unit worn like a hat may be adopted, and an image corresponding to the left eye LE of the user is displayed. What is necessary is just to provide the display part which displays, and the display part which displays an image corresponding to a user's right eye RE. The display device of the present invention may be configured as a head mounted display mounted on a vehicle such as an automobile or an airplane. Further, for example, it may be configured as a head-mounted display built in a body protective device such as a helmet. In this case, the part for positioning the position with respect to the user's body and the part positioned with respect to the part can be used as the mounting portion.

また、画像光を使用者の眼に導く光学系として、右導光板26及び左導光板28の一部に、ハーフミラー261、281により虚像が形成される構成を例示した。本発明はこれに限定されず、右導光板26及び左導光板28の全面又は大部分を占める面積を有する表示領域に、画像を表示する構成としてもよい。この場合、画像の表示位置を変化させる動作において、画像を縮小する処理を含めてもよい。
さらに、本発明の光学素子は、ハーフミラー261、281を有する右導光板26、左導光板28に限定されず、画像光を使用者の眼に入射させる光学部品であればよく、具体的には、回折格子、プリズム、ホログラフィー表示部を用いてもよい。
In addition, as an optical system that guides image light to the user's eyes, a configuration in which virtual images are formed by half mirrors 261 and 281 on part of the right light guide plate 26 and the left light guide plate 28 is illustrated. The present invention is not limited to this, and an image may be displayed on a display region having an area that occupies the entire or most of the right light guide plate 26 and the left light guide plate 28. In this case, a process of reducing the image may be included in the operation of changing the display position of the image.
Furthermore, the optical element of the present invention is not limited to the right light guide plate 26 and the left light guide plate 28 having the half mirrors 261 and 281, and may be any optical component that allows image light to enter the user's eyes. A diffraction grating, a prism, or a holographic display unit may be used.

また、図4、図5等に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部150が実行するプログラムは、不揮発性記憶部121又は制御装置10内の他の記憶装置(図示略)に記憶されてもよい。また、外部の装置に記憶されたプログラムを通信部117や外部コネクター184を介して取得して実行する構成としてもよい。また、制御装置10に形成された構成のうち、操作部110が使用者インターフェイス(UI)として形成されてもよい。   In addition, at least a part of the functional blocks shown in FIGS. 4 and 5 may be realized by hardware, or may be realized by cooperation of hardware and software. As described above, the present invention is not limited to a configuration in which independent hardware resources are arranged. Further, the program executed by the control unit 150 may be stored in the nonvolatile storage unit 121 or another storage device (not shown) in the control device 10. A program stored in an external device may be acquired and executed via the communication unit 117 or the external connector 184. Moreover, the operation part 110 may be formed as a user interface (UI) among the structures formed in the control apparatus 10.

また、図11に示すフローチャートの処理単位は、HMD100の制御部150の処理を理解容易にするために、主な処理内容に応じて分割したものであり、処理単位の分割の仕方や名称によって本発明が制限されることはない。また、制御部150の処理は、処理内容に応じて、さらに多くの処理単位に分割することもできるし、1つの処理単位がさらに多くの処理を含むように分割することもできる。また、上記のフローチャートの処理順序も、図示した例に限られるものではない。   Further, the processing unit of the flowchart shown in FIG. 11 is divided according to main processing contents in order to make the processing of the control unit 150 of the HMD 100 easy to understand. The invention is not limited. Further, the processing of the control unit 150 can be divided into more processing units according to the processing content, or can be divided so that one processing unit includes more processing. Further, the processing order of the above flowchart is not limited to the illustrated example.

1…システム、10…制御装置、10A…ケース、11…ボタン、12、67…LEDインジケーター、14…トラックパッド、15…上下キー、16…切替スイッチ、17…LED表示部、18…電源スイッチ、19…バイブレーター、20…画像表示部(表示部)、21…右保持部、22…右表示ユニット、23…左保持部、24…左表示ユニット、26…右導光板、27…前部フレーム、28…左導光板、30…ヘッドセット、32…右イヤホン、34…左イヤホン、40…接続ケーブル、46…コネクター、61…カメラ(撮像部)、63…マイク、65…照度センサー、100…HMD(受信装置、表示装置)、110…操作部、111…6軸センサー、113…磁気センサー、115…GPS受信部、117…通信部、119…ビーコン受信部(距離検出部)、120…コントローラー基板、121…不揮発性記憶部、123…メモリー、125…記憶部、127…設定データ、128…コンテンツデータ、130…電源部、132…バッテリー、134…電源制御回路、140…メインプロセッサー、143…オペレーティングシステム、145…画像処理部、147…撮像制御部、149…操作制御部(検出部)、150…制御部、151…検出制御部(検出部)、153…表示制御部、180…音声コーデック、182…音声インターフェイス、184…外部コネクター、186…外部メモリーインターフェイス、188…USBコネクター、192…センサーハブ、194…FPGA、196…インターフェイス、200…ビーコン装置、211…インターフェイス、213…受信部、215…EEPROM、217…温度センサー、221…OLEDユニット、223…OLEDパネル、225…OLED駆動回路、231…インターフェイス、233…受信部、235…6軸センサー(検出部)、237…磁気センサー、239…温度センサー、241…OLEDユニット、243…OLEDパネル、245…OLED駆動回路、251…右光学系、252…左光学系、261、281…ハーフミラー、300…視界、301…ポインター、303…拡大画像、310…表示領域、320…自動販売機、330〜335…検知装置。   DESCRIPTION OF SYMBOLS 1 ... System, 10 ... Control apparatus, 10A ... Case, 11 ... Button, 12, 67 ... LED indicator, 14 ... Track pad, 15 ... Up / down key, 16 ... Changeover switch, 17 ... LED display part, 18 ... Power switch, DESCRIPTION OF SYMBOLS 19 ... Vibrator, 20 ... Image display part (display part), 21 ... Right holding part, 22 ... Right display unit, 23 ... Left holding part, 24 ... Left display unit, 26 ... Right light guide plate, 27 ... Front frame, 28 ... Left light guide plate, 30 ... Headset, 32 ... Right earphone, 34 ... Left earphone, 40 ... Connection cable, 46 ... Connector, 61 ... Camera (imaging part), 63 ... Microphone, 65 ... Illuminance sensor, 100 ... HMD (Receiving device, display device), 110 ... operation unit, 111 ... 6-axis sensor, 113 ... magnetic sensor, 115 ... GPS receiving unit, 117 ... communication unit, 119 ... bi CON receiver (distance detector), 120 ... controller board, 121 ... nonvolatile storage, 123 ... memory, 125 ... storage, 127 ... setting data, 128 ... content data, 130 ... power supply, 132 ... battery, 134 DESCRIPTION OF SYMBOLS ... Power supply control circuit 140 ... Main processor 143 ... Operating system 145 ... Image processing part 147 ... Imaging control part 149 ... Operation control part (detection part), 150 ... Control part, 151 ... Detection control part (detection part) 153, display control unit, 180, audio codec, 182 ... audio interface, 184 ... external connector, 186 ... external memory interface, 188 ... USB connector, 192 ... sensor hub, 194 ... FPGA, 196 ... interface, 200 ... beacon Device, 211 ... Interface 213 ... receiver, 215 ... EEPROM, 217 ... temperature sensor, 221 ... OLED unit, 223 ... OLED panel, 225 ... OLED drive circuit, 231 ... interface, 233 ... receiver, 235 ... 6-axis sensor (detector) 237 ... magnetic sensor, 239 ... temperature sensor, 241 ... OLED unit, 243 ... OLED panel, 245 ... OLED drive circuit, 251 ... right optical system, 252 ... left optical system, 261,281 ... half mirror, 300 ... field of view, DESCRIPTION OF SYMBOLS 301 ... Pointer, 303 ... Enlarged image, 310 ... Display area, 320 ... Vending machine, 330-335 ... Detection apparatus.

Claims (14)

使用者の頭部に装着される頭部装着型表示装置であって、
外景を透過し、前記外景とともに視認できるように表示画像を表示領域に表示する表示部と、
指示位置を示すマーカーを前記表示部により前記表示領域に表示させる表示制御部と、
第1操作と、第2操作とを検出する検出部と、を備え、
前記表示制御部は、前記検出部が検出する前記第1操作に応じて前記マーカーの位置を移動させ、前記第1操作に応じた前記マーカーの位置の移動後に、前記検出部が検出する前記第2操作に応じて、前記マーカーの位置を、前記第1操作に応じた前記マーカーの位置の移動とは異なる態様で移動させる頭部装着型表示装置。
A head-mounted display device mounted on a user's head,
A display unit that displays a display image in a display area so as to transmit the outside scene and be visible together with the outside scene;
A display control unit that causes the display unit to display a marker indicating the indicated position in the display area;
A detection unit for detecting a first operation and a second operation,
The display control unit moves the position of the marker according to the first operation detected by the detection unit, and the detection unit detects the first position after movement of the marker position according to the first operation. A head-mounted display device that moves the position of the marker according to two operations in a manner different from the movement of the position of the marker according to the first operation.
前記検出部は、前記使用者の動作を前記第1操作及び前記第2操作の少なくともいずれかとして検出する請求項1記載の頭部装着型表示装置。   The head-mounted display device according to claim 1, wherein the detection unit detects an operation of the user as at least one of the first operation and the second operation. 前記検出部は、前記頭部装着型表示装置の備える操作部が受け付ける操作を第1操作として検出し、前記頭部の動きを第2操作として検出する請求項1又は2記載の頭部装着型表示装置。   The head-mounted type according to claim 1 or 2, wherein the detection unit detects an operation received by an operation unit included in the head-mounted display device as a first operation and detects a movement of the head as a second operation. Display device. 前記外景を撮像する撮像部を備え、
前記表示制御部は、前記撮像部の撮像画像に基づき、前記マーカーに重なって視認される対象物体を特定する第1の動作モードと、前記表示領域に表示される複数の前記表示画像から前記マーカーの位置に対応する前記表示画像を特定する第2の動作モードとを切り替えて実行することを特徴とする請求項1から3のいずれか一項記載の頭部装着型表示装置。
An imaging unit for imaging the outside scene;
The display control unit includes: a first operation mode that identifies a target object that is visually recognized by overlapping the marker based on a captured image of the imaging unit; and the marker from a plurality of the display images displayed in the display area. The head-mounted display device according to any one of claims 1 to 3, wherein the second operation mode for specifying the display image corresponding to the position is switched and executed.
前記表示制御部は、前記第1の動作モードを実行中である場合と、前記第2の動作モードを実行中である場合とで、前記マーカーを異なる態様で移動させる請求項4記載の頭部装着型表示装置。   5. The head according to claim 4, wherein the display control unit moves the marker in a different manner between when the first operation mode is being executed and when the second operation mode is being executed. 6. Wearable display device. 前記表示制御部は、前記第1の動作モードの実行中に、前記検出部により前記第1操作又は前記第2操作が検出された場合に、前記第1操作又は前記第2操作に応じて前記マーカーを前記使用者が視認する前記外景を基準として移動させ、
前記第2の動作モードを実行中に、前記検出部により前記第1操作又は前記第2操作が検出された場合に、前記第1操作又は前記第2操作に応じて前記マーカーを前記使用者が視認する前記表示画像を基準として移動させる請求項5記載の頭部装着型表示装置。
When the first operation or the second operation is detected by the detection unit during the execution of the first operation mode, the display control unit performs the operation according to the first operation or the second operation. Move the marker with reference to the outside scene visually recognized by the user,
When the first operation or the second operation is detected by the detection unit during the execution of the second operation mode, the user can select the marker according to the first operation or the second operation. The head-mounted display device according to claim 5, wherein the display is moved with reference to the visually recognized display image.
前記表示制御部は、前記第2操作に応じて前記マーカーを移動させる場合の移動量を、前記第1操作に応じて前記マーカーを移動させる場合の移動量よりも小さくする請求項1から6のいずれか1項記載の頭部装着型表示装置。   7. The display control unit according to claim 1, wherein the display control unit makes a movement amount when the marker is moved according to the second operation smaller than a movement amount when the marker is moved according to the first operation. The head-mounted display device according to any one of the preceding claims. 前記使用者が前記表示部を透過して視認する前記対象物体までの距離を検出する距離検出部を備え、
前記表示制御部は、前記距離検出部が検出する前記対象物体までの距離に応じて、前記マーカーを異なる態様で移動させる請求項4記載の頭部装着型表示装置。
A distance detection unit that detects a distance to the target object that the user sees through the display unit;
The head-mounted display device according to claim 4, wherein the display control unit moves the marker in a different manner according to a distance to the target object detected by the distance detection unit.
前記表示制御部は、前記距離検出部が検出する前記対象物体までの距離がしきい値よりも大きい場合に、前記検出部が検出する操作を前記第1操作とし、前記距離検出部が検出する前記対象物体までの距離がしきい値以下である場合に、前記検出部が検出する操作を前記第2操作とし、
前記第1操作により前記マーカーを移動させる移動量を、前記第2操作により前記マーカーを移動させる移動量よりも小さくする請求項8記載の頭部装着型表示装置。
The display control unit detects the operation detected by the detection unit as the first operation when the distance to the target object detected by the distance detection unit is greater than a threshold value, and the distance detection unit detects the first operation. When the distance to the target object is less than or equal to a threshold value, the operation detected by the detection unit is the second operation,
The head-mounted display device according to claim 8, wherein a movement amount for moving the marker by the first operation is smaller than a movement amount for moving the marker by the second operation.
使用者の頭部に装着される頭部装着型表示装置であって、
外景を透過し、前記外景とともに視認できるように表示画像を表示領域に表示する表示部と、
前記外景を撮像する撮像部と、
指示位置を示すマーカーを前記表示部により前記表示領域に表示させる表示制御部と、を備え、
前記表示制御部は、前記撮像部の撮像画像に基づき、前記マーカーに重なって視認される対象物体を特定する第1の動作モードと、前記表示領域に表示される複数の前記表示画像から前記マーカーの位置に対応する前記表示画像を特定する第2の動作モードとを切り替えて実行する頭部装着型表示装置。
A head-mounted display device mounted on a user's head,
A display unit that displays a display image in a display area so as to transmit the outside scene and be visible together with the outside scene;
An imaging unit for imaging the outside scene;
A display control unit that causes the display unit to display a marker indicating an indication position on the display area,
The display control unit includes: a first operation mode that identifies a target object that is visually recognized by overlapping the marker based on a captured image of the imaging unit; and the marker from a plurality of the display images displayed in the display area. A head-mounted display device that switches between and executes a second operation mode for specifying the display image corresponding to the position of the head.
操作を検出する検出部を備え、
前記表示制御部は、前記第1の動作モードの実行中に、前記検出部により操作が検出された場合に、検出された前記操作に応じて前記マーカーを前記使用者が視認する前記外景を基準として移動させ、
前記第2の動作モードの実行中に、前記検出部により操作が検出された場合に、検出された前記操作に応じて前記マーカーを前記使用者が視認する前記表示画像を基準として移動させる請求項10記載の頭部装着型表示装置。
A detection unit for detecting operation;
The display control unit is configured to reference the outside scene where the user visually recognizes the marker according to the detected operation when an operation is detected by the detection unit during the execution of the first operation mode. Move as
When an operation is detected by the detection unit during execution of the second operation mode, the marker is moved based on the display image visually recognized by the user according to the detected operation. The head-mounted display device according to 10.
前記検出部は、頭部装着型表示装置の備える操作部が受け付ける操作を第1操作として検出し、前記使用者の頭部の動きを第2操作として検出し、
前記表示制御部は、前記検出部が検出する前記第1操作に応じて前記マーカーの位置を移動させ、前記第1操作に応じた前記マーカーの位置の移動後に、前記検出部が検出する前記第2操作に応じて前記マーカーの位置を移動させ、
前記第2操作に応じて前記マーカーを移動させる場合の移動量を、前記第1操作に応じて前記マーカーを移動させる場合の移動量よりも小さくする請求項11記載の頭部装着型表示装置。
The detection unit detects an operation received by an operation unit included in the head-mounted display device as a first operation, detects a movement of the user's head as a second operation,
The display control unit moves the position of the marker according to the first operation detected by the detection unit, and the detection unit detects the first position after movement of the marker position according to the first operation. 2 Move the position of the marker according to the operation,
The head-mounted display device according to claim 11, wherein a movement amount when the marker is moved according to the second operation is smaller than a movement amount when the marker is moved according to the first operation.
外景を透過し、前記外景とともに視認できるように表示画像を表示領域に表示する表示部と、指示位置を示すマーカーを前記表示部により前記表示領域に表示させる表示制御部と、第1操作と、第2操作とを検出する検出部と、を備え、使用者の頭部に装着される頭部装着型表示装置に実装されるコンピューターに実行させるプログラムであって、
コンピューターに、
前記検出部が検出する前記第1操作に応じて前記マーカーの位置を移動させる手順と、
前記第1操作に応じた前記マーカーの位置の移動後に、前記検出部が検出する前記第2操作に応じて、前記マーカーの位置を、前記第1操作に応じた前記マーカーの位置の移動とは異なる態様で移動させる手順と、
を実行させるためのプログラム。
A display unit that transmits an outside scene and displays a display image in a display area so as to be visible together with the outside scene, a display control unit that displays a marker indicating an indication position on the display area by the display unit, a first operation, A detection unit that detects a second operation, and a program that is executed by a computer mounted on a head-mounted display device that is mounted on a user's head,
On the computer,
A procedure for moving the position of the marker according to the first operation detected by the detection unit;
After the movement of the position of the marker according to the first operation, the movement of the marker according to the first operation is changed from the position of the marker according to the second operation detected by the detection unit. Procedures to move in different ways;
A program for running
外景を透過し、前記外景とともに視認できるように表示画像を表示領域に表示する表示部と、指示位置を示すマーカーを前記表示部により前記表示領域に表示させる表示制御部と、第1操作と、第2操作とを検出する検出部と、を備え、使用者の頭部に装着される頭部装着型表示装置の制御方法であって、
前記検出部が検出する前記第1操作に応じて前記マーカーの位置を移動させるステップと、
前記第1操作に応じた前記マーカーの位置の移動後に、前記検出部が検出する前記第2操作に応じて、前記マーカーの位置を、前記第1操作に応じた前記マーカーの位置の移動とは異なる態様で移動させるステップと、
を有することを特徴とする頭部装着型表示装置の制御方法。
A display unit that transmits an outside scene and displays a display image in a display area so as to be visible together with the outside scene, a display control unit that displays a marker indicating an indication position on the display area by the display unit, a first operation, A detection unit that detects a second operation, and a control method for a head-mounted display device mounted on a user's head,
Moving the position of the marker according to the first operation detected by the detection unit;
After the movement of the position of the marker according to the first operation, the movement of the marker according to the first operation is changed from the position of the marker according to the second operation detected by the detection unit. Moving in different ways;
A control method for a head-mounted display device, comprising:
JP2016232373A 2016-11-30 2016-11-30 Head-mounted display, program, and head-mounted display control method Active JP6932917B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016232373A JP6932917B2 (en) 2016-11-30 2016-11-30 Head-mounted display, program, and head-mounted display control method
US15/801,711 US10474226B2 (en) 2016-11-30 2017-11-02 Head-mounted display device, computer program, and control method for head-mounted display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016232373A JP6932917B2 (en) 2016-11-30 2016-11-30 Head-mounted display, program, and head-mounted display control method

Publications (2)

Publication Number Publication Date
JP2018091882A true JP2018091882A (en) 2018-06-14
JP6932917B2 JP6932917B2 (en) 2021-09-08

Family

ID=62565927

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016232373A Active JP6932917B2 (en) 2016-11-30 2016-11-30 Head-mounted display, program, and head-mounted display control method

Country Status (1)

Country Link
JP (1) JP6932917B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020077023A (en) * 2018-11-05 2020-05-21 株式会社コーエーテクモゲームス Program, information processing method and information processing apparatus
CN111198608A (en) * 2018-11-16 2020-05-26 广东虚拟现实科技有限公司 Information prompting method and device, terminal equipment and computer readable storage medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11288342A (en) * 1998-02-09 1999-10-19 Toshiba Corp Device and method for interfacing multimodal input/ output device
JP2001067179A (en) * 1999-08-27 2001-03-16 Nec Corp Pointing device and computer system using the same
JP2004233909A (en) * 2003-01-31 2004-08-19 Nikon Corp Head-mounted display
JP2005512226A (en) * 2001-12-13 2005-04-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ User interface with graphics-assisted voice control system
JP2014120963A (en) * 2012-12-18 2014-06-30 Seiko Epson Corp Display device, head-mounted display device, display device control method, and head-mounted display device control method
JP2016126381A (en) * 2014-12-26 2016-07-11 セイコーエプソン株式会社 Head-mounted display device, control method thereof, and computer program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11288342A (en) * 1998-02-09 1999-10-19 Toshiba Corp Device and method for interfacing multimodal input/ output device
JP2001067179A (en) * 1999-08-27 2001-03-16 Nec Corp Pointing device and computer system using the same
JP2005512226A (en) * 2001-12-13 2005-04-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ User interface with graphics-assisted voice control system
JP2004233909A (en) * 2003-01-31 2004-08-19 Nikon Corp Head-mounted display
JP2014120963A (en) * 2012-12-18 2014-06-30 Seiko Epson Corp Display device, head-mounted display device, display device control method, and head-mounted display device control method
JP2016126381A (en) * 2014-12-26 2016-07-11 セイコーエプソン株式会社 Head-mounted display device, control method thereof, and computer program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020077023A (en) * 2018-11-05 2020-05-21 株式会社コーエーテクモゲームス Program, information processing method and information processing apparatus
JP7222663B2 (en) 2018-11-05 2023-02-15 株式会社コーエーテクモゲームス Program, information processing method, and information processing apparatus
CN111198608A (en) * 2018-11-16 2020-05-26 广东虚拟现实科技有限公司 Information prompting method and device, terminal equipment and computer readable storage medium

Also Published As

Publication number Publication date
JP6932917B2 (en) 2021-09-08

Similar Documents

Publication Publication Date Title
US11310483B2 (en) Display apparatus and method for controlling display apparatus
US10635182B2 (en) Head mounted display device and control method for head mounted display device
US10474226B2 (en) Head-mounted display device, computer program, and control method for head-mounted display device
US10948974B2 (en) Head-mounted display device, program, and method for controlling head-mounted display device
US10976836B2 (en) Head-mounted display apparatus and method of controlling head-mounted display apparatus
US20170289533A1 (en) Head mounted display, control method thereof, and computer program
US10782531B2 (en) Head-mounted type display device and method of controlling head-mounted type display device
US10261327B2 (en) Head mounted display and control method for head mounted display
JP2018142857A (en) Head mounted display device, program, and control method of head mounted display device
JP2018124651A (en) Display system
JP2018084886A (en) Head mounted type display device, head mounted type display device control method, computer program
JP6776578B2 (en) Input device, input method, computer program
JP6996115B2 (en) Head-mounted display device, program, and control method of head-mounted display device
JP6439448B2 (en) Display system, program, and control method for display device
JP2018022426A (en) Display device, head-mounted display device, and method for controlling display device
JP6932917B2 (en) Head-mounted display, program, and head-mounted display control method
JP2019053644A (en) Head mounted display device and control method for head mounted display device
JP2017134630A (en) Display device, control method of display device, and program
JP2017182460A (en) Head-mounted type display device, method for controlling head-mounted type display device, and computer program
JP2017182413A (en) Head-mounted type display device, control method for the same, and computer program
JP6790769B2 (en) Head-mounted display device, program, and control method of head-mounted display device
JP6459516B2 (en) Display system, program, server device, and display device control method
JP2018067160A (en) Head-mounted display device and control method therefor, and computer program
JP2018056791A (en) Display device, reception device, program, and control method of reception device
JP6631299B2 (en) DISPLAY DEVICE, DISPLAY DEVICE CONTROL METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210720

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210802

R150 Certificate of patent or registration of utility model

Ref document number: 6932917

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150