JP2016213663A - Display device, control method for the same, and program - Google Patents

Display device, control method for the same, and program Download PDF

Info

Publication number
JP2016213663A
JP2016213663A JP2015095603A JP2015095603A JP2016213663A JP 2016213663 A JP2016213663 A JP 2016213663A JP 2015095603 A JP2015095603 A JP 2015095603A JP 2015095603 A JP2015095603 A JP 2015095603A JP 2016213663 A JP2016213663 A JP 2016213663A
Authority
JP
Japan
Prior art keywords
unit
imaging
display
light
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015095603A
Other languages
Japanese (ja)
Other versions
JP6565310B2 (en
Inventor
國益 符
Guoyi Fu
國益 符
チェンチェヴ マーガリット
Chenchev Margarit
チェンチェヴ マーガリット
佳 李
Yoshi Ri
佳 李
佐藤 慎也
Shinya Sato
慎也 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015095603A priority Critical patent/JP6565310B2/en
Priority to US15/092,041 priority patent/US10306217B2/en
Publication of JP2016213663A publication Critical patent/JP2016213663A/en
Application granted granted Critical
Publication of JP6565310B2 publication Critical patent/JP6565310B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a display device comprising an imaging section and being capable of detecting movement of the imaging section, and a control method for the display device and a program.SOLUTION: A virtual image display device 1 comprises: a display section 3 displaying an image so as to allow an outside scene to be visually recognized; an imaging section 23 imaging an imaging range overlapping with a range visually recognized through the display section 3; a coupling section having at least one movable portion and coupling the imaging section 23 to the display section 3; and LEDs 81A, 81B, 81C and 81D fixedly provided with respect to the display section 3. The LEDs 81A, 81B, 81C and 81D emit light including predetermined patterns. Light on an object can be imaged by the imaging section 23 when the light of the LEDs 81A, 81B, 81C and 81D is projected onto the object positioned in the imaging range of the imaging section 23.SELECTED DRAWING: Figure 2

Description

本発明は、表示装置、表示装置の制御方法、及び、プログラムに関する。   The present invention relates to a display device, a display device control method, and a program.

従来、使用者(ユーザー)の頭部に装着されるHMD(Head Mounted Display)等の表示装置が知られている(例えば、特許文献1参照)。この種の表示装置において、ビデオカメラ等の撮像部を備え、撮影画像を表示に利用するものがあった。例えば、特許文献1記載のHMDは、撮像部をHMDに対して上下方向に動かすスライダーを具備する。   Conventionally, a display device such as an HMD (Head Mounted Display) mounted on the head of a user (user) is known (see, for example, Patent Document 1). Some of these types of display devices include an imaging unit such as a video camera and use captured images for display. For example, the HMD described in Patent Document 1 includes a slider that moves the imaging unit in the vertical direction with respect to the HMD.

特開2005−38321号公報JP 2005-38321 A

特許文献1に記載の構成ではユーザーがビデオカメラを動かして、表示するCGの視点を変化させる。これに対し、撮像部が動いても表示画像を変化させないようにする場合、撮像部の動きを検出する必要がある。撮像部の動きを検出する方法として、特許文献1には、撮像部からの映像を画像解析して位置姿勢を求める等の記載があるが、単に画像を解析するだけでは正確な検出はできない。
本発明は、上記課題に鑑みてなされたものであり、撮像部を備え、撮像部の動きを検出することが可能な表示装置、表示装置の制御方法、及び、プログラムを提供することを目的とする。
In the configuration described in Patent Document 1, the user moves the video camera to change the CG viewpoint to be displayed. On the other hand, when the display image is not changed even when the imaging unit moves, it is necessary to detect the movement of the imaging unit. As a method for detecting the movement of the imaging unit, Patent Document 1 describes that the position and orientation are obtained by analyzing the video from the imaging unit, but accurate detection cannot be performed simply by analyzing the image.
The present invention has been made in view of the above problems, and an object of the present invention is to provide a display device that includes an imaging unit and can detect the movement of the imaging unit, a control method for the display device, and a program. To do.

上記課題を解決するため、本発明の表示装置は、外景を視認可能に、画像を表示する表示部と、前記表示部を通して視認される範囲に重なる撮像範囲を撮像する撮像部と、少なくとも1つの可動部を有し、前記撮像部を前記表示部に連結する連結部と、前記表示部に対して固定的に設けられる発光部と、を備え、前記発光部は所定パターンを含む光を発し、前記撮像部の撮像範囲に位置する対象物に前記発光部の光が投射された場合に、前記対象物上の前記光を前記撮像部で撮像可能であること、を特徴とする。
本発明によれば、発光部が発する光が対象物に投射された場合に、対象物上の光を撮像部で撮像し、撮像画像を利用して、表示部に対する撮像部の相対位置や相対方向等を検出できる。
上記表示装置において、前記可動部により前記撮像部の撮像方向が変化する範囲の少なくとも一部において、前記撮像部の撮像範囲に、前記発光部が光を発する方向を含む構成としてもよい。また、前記所定パターンは位置検出用のパターンであってもよい。
In order to solve the above-described problem, a display device according to the present invention includes a display unit that displays an image so that an outside scene can be visually recognized, an imaging unit that captures an imaging range that overlaps a range visually recognized through the display unit, and at least one A connecting portion that has a movable portion and connects the imaging portion to the display portion; and a light emitting portion that is fixedly provided to the display portion, the light emitting portion emits light including a predetermined pattern, When the light of the light emitting unit is projected onto an object located in the imaging range of the imaging unit, the light on the object can be imaged by the imaging unit.
According to the present invention, when light emitted from the light emitting unit is projected onto an object, the light on the object is imaged by the imaging unit, and the relative position or relative position of the imaging unit with respect to the display unit is captured using the captured image. The direction and the like can be detected.
The display device may be configured to include a direction in which the light emitting unit emits light in an imaging range of the imaging unit in at least a part of a range in which an imaging direction of the imaging unit is changed by the movable unit. The predetermined pattern may be a position detection pattern.

また、本発明は、上記表示装置において、前記発光部は複数の光源を備え、複数の前記光源が発する光により前記所定パターンが形成されること、を特徴とする。
本発明によれば、撮像部により、表示部に対する撮像部の相対位置や相対方向等を高精度で検出可能な撮像画像を得ることができる。
In the display device according to the present invention, the light emitting unit includes a plurality of light sources, and the predetermined pattern is formed by light emitted from the plurality of light sources.
According to the present invention, it is possible to obtain a captured image in which the relative position and relative direction of the imaging unit with respect to the display unit can be detected with high accuracy by the imaging unit.

また、本発明は、上記表示装置において、前記発光部は、光源と、前記光源が発する光を前記所定パターンに基づき変調する変調部とを備えること、を特徴とする。
本発明によれば、表示部に対する撮像部の相対位置や相対方向等を検出するためのパターンを容易に得ることができる。
In the display device according to the present invention, the light emitting unit includes a light source and a modulating unit that modulates light emitted from the light source based on the predetermined pattern.
According to the present invention, it is possible to easily obtain a pattern for detecting the relative position and relative direction of the imaging unit with respect to the display unit.

また、上記表示装置において、前記光源は固体光源で構成されてもよい。   In the display device, the light source may be a solid light source.

また、上記課題を解決するため、本発明は、外景を視認可能に、画像を表示する表示部と、前記表示部を通して視認される範囲に重なる撮像範囲を撮像する第1撮像部と、少なくとも1つの可動部を有し、前記第1撮像部を前記表示部に連結する連結部と、前記表示部に対して固定的に設けられる第2撮像部と、前記第1撮像部の撮像画像と前記第2撮像部の撮像画像とに基づいて、前記第1撮像部と前記表示部との相対位置を検出する制御部と、を備えることを特徴とする。
本発明によれば、複数の撮像部の撮像画像を利用して、表示部に対する撮像部の相対的な位置関係を検出できる。
上記表示装置において、前記可動部により前記第1撮像部の撮像方向と前記第2撮像部の撮像方向との相対方向が変化する範囲の少なくとも一部において、前記第1撮像部の撮像範囲と前記第2撮像部の撮像範囲との少なくとも一部が重複する構成としてもよい。また、前記制御部は、前記第1撮像部の撮像画像に基づき前記表示部に画像を表示させて、前記第1撮像部の撮像画像と前記第2撮像部の撮像画像とに基づいて、前記第1撮像部と前記表示部との相対位置を検出してもよい。
In order to solve the above-described problem, the present invention provides a display unit that displays an image so that an outside scene can be visually recognized, a first imaging unit that captures an imaging range that overlaps a range visually recognized through the display unit, and at least one A movable part, a connecting part for connecting the first imaging part to the display part, a second imaging part fixed to the display part, a captured image of the first imaging part, and the And a control unit that detects a relative position between the first imaging unit and the display unit based on a captured image of the second imaging unit.
ADVANTAGE OF THE INVENTION According to this invention, the relative positional relationship of the imaging part with respect to a display part is detectable using the captured image of a some imaging part.
In the above display device, the imaging range of the first imaging unit and the imaging range of the first imaging unit in at least part of the range in which the relative direction between the imaging direction of the first imaging unit and the imaging direction of the second imaging unit is changed by the movable unit. It is good also as a structure with which at least one part overlaps with the imaging range of a 2nd imaging part. Further, the control unit displays an image on the display unit based on a captured image of the first imaging unit, and based on the captured image of the first imaging unit and the captured image of the second imaging unit, A relative position between the first imaging unit and the display unit may be detected.

また、上記課題を解決するため、本発明の表示装置の制御方法は、外景を視認可能に画像を表示する表示部と、前記表示部を通して視認される範囲に重なる撮像範囲を撮像する撮像部と、少なくとも1つの可動部を有し、前記撮像部を前記表示部に連結する連結部と、前記表示部に対して固定的に設けられる発光部と、を有した表示装置を制御して、前記発光部が発する光が対象物に投射された場合に、前記対象物上の前記光を前記撮像部により撮像し、前記撮像部の撮像画像から前記光を検出し、前記撮像画像における前記光の位置を求め、前記撮像画像における前記光の位置に基づき、前記撮像部と前記表示部との相対位置関係の変化、または相対位置関係を求めること、を特徴とする。
本発明によれば、発光部が発する光が対象物に投射された場合に、対象物上の光を撮像部で撮像し、撮像画像を利用して、表示部に対する撮像部の相対位置関係の変化、または相対位置関係を検出できる。
In order to solve the above-described problem, the display device control method of the present invention includes a display unit that displays an image so that an outside scene can be visually recognized, and an imaging unit that captures an imaging range that overlaps a range that is viewed through the display unit. Controlling a display device having at least one movable part, a connecting part for connecting the imaging part to the display part, and a light emitting part fixedly provided to the display part, When the light emitted from the light emitting unit is projected onto the object, the light on the object is imaged by the imaging unit, the light is detected from the captured image of the imaging unit, and the light in the captured image is detected. A position is obtained, and a change in relative positional relationship between the imaging unit and the display unit or a relative positional relationship is obtained based on the position of the light in the captured image.
According to the present invention, when the light emitted from the light emitting unit is projected onto the target, the light on the target is captured by the imaging unit, and the relative positional relationship of the imaging unit with respect to the display unit is obtained using the captured image. A change or relative positional relationship can be detected.

また、上記課題を解決するため、本発明の表示装置の制御方法は、外景を視認可能に画像を表示する表示部と、前記表示部を通して視認される範囲に重なる撮像範囲を撮像する第1撮像部と、少なくとも1つの可動部を有し、前記第1撮像部を前記表示部に連結する連結部と、前記表示部に対して固定的に設けられる第2撮像部と、を備える表示装置を制御して、前記第1撮像部の撮像画像と前記第2撮像部の撮像画像とに基づいて、前記第1撮像部と前記表示部との相対位置を検出すること、を特徴とする。
本発明によれば、複数の撮像部の撮像画像を利用して、表示部に対する撮像部の相対的な位置関係を検出できる。
In order to solve the above-described problem, the display device control method of the present invention includes a display unit that displays an image so that an outside scene can be visually recognized, and a first imaging that captures an imaging range that overlaps a range that is visually recognized through the display unit. A display device comprising: a connecting portion that has a portion, at least one movable portion, and connects the first imaging portion to the display portion; and a second imaging portion that is fixedly provided to the display portion. And controlling to detect a relative position between the first imaging unit and the display unit based on a captured image of the first imaging unit and a captured image of the second imaging unit.
ADVANTAGE OF THE INVENTION According to this invention, the relative positional relationship of the imaging part with respect to a display part is detectable using the captured image of a some imaging part.

また、上記課題を解決するため、本発明は、外景を視認可能に画像を表示する表示部と、前記表示部を通して視認される範囲に重なる撮像範囲を撮像する撮像部と、少なくとも1つの可動部を有し、前記撮像部を前記表示部に連結する連結部と、前記表示部に対して固定的に設けられる発光部と、を有した表示装置を制御するコンピューターが実行可能なプログラムであって、前記コンピューターを、前記発光部が発する光が対象物に投射された場合に、前記対象物上の前記光を前記撮像部により撮像し、前記撮像部の撮像画像から前記光を検出し、前記撮像画像における前記光の位置を求め、前記撮像画像における前記光の位置に基づき、前記撮像部と前記表示部との相対位置関係の変化、または相対位置関係を求める制御部として機能させるプログラムである。
本発明によれば、発光部が発する光が対象物に投射された場合に、対象物上の光を撮像部で撮像し、撮像画像を利用して、表示部に対する撮像部の相対位置関係の変化、または相対位置関係を検出できる。
In order to solve the above problems, the present invention provides a display unit that displays an image so that an outside scene can be visually recognized, an imaging unit that captures an imaging range that overlaps a range visually recognized through the display unit, and at least one movable unit. A computer-executable program for controlling a display device, comprising: a coupling unit that couples the imaging unit to the display unit; and a light-emitting unit that is fixed to the display unit. , When the light emitted from the light emitting unit is projected onto an object, the computer captures the light on the object by the imaging unit, detects the light from the captured image of the imaging unit, The position of the light in the captured image is obtained, and based on the position of the light in the captured image, the relative position relationship between the imaging unit and the display unit is changed, or the control unit obtains the relative position relationship. Is that program.
According to the present invention, when the light emitted from the light emitting unit is projected onto the target, the light on the target is captured by the imaging unit, and the relative positional relationship of the imaging unit with respect to the display unit is obtained using the captured image. A change or relative positional relationship can be detected.

また、上記課題を解決するため、本発明は、外景を視認可能に画像を表示する表示部と、前記表示部を通して視認される範囲に重なる撮像範囲を撮像する第1撮像部と、少なくとも1つの可動部を有し、前記第1撮像部を前記表示部に連結する連結部と、前記表示部に対して固定的に設けられる第2撮像部と、を備える表示装置を制御するコンピューターが実行可能なプログラムであって、前記コンピューターを、前記第1撮像部の撮像画像と前記第2撮像部の撮像画像とに基づいて、前記第1撮像部と前記表示部との相対位置を検出する制御部として機能させるプログラムである。
本発明によれば、複数の撮像部の撮像画像を利用して、表示部に対する撮像部の相対的な位置関係を検出できる。
In order to solve the above problems, the present invention includes a display unit that displays an image so that an outside scene can be visually recognized, a first imaging unit that captures an imaging range that overlaps a range visually recognized through the display unit, and at least one A computer that controls a display device that includes a movable unit and includes a coupling unit that couples the first imaging unit to the display unit and a second imaging unit that is fixedly provided to the display unit is executable. A control unit that detects a relative position between the first imaging unit and the display unit based on a captured image of the first imaging unit and a captured image of the second imaging unit. It is a program that functions as
ADVANTAGE OF THE INVENTION According to this invention, the relative positional relationship of the imaging part with respect to a display part is detectable using the captured image of a some imaging part.

第1実施形態に係るHMDを示す斜視図。The perspective view which shows HMD which concerns on 1st Embodiment. 第1実施形態における虚像表示装置を示す斜視図。The perspective view which shows the virtual image display apparatus in 1st Embodiment. 第1実施形態における虚像表示装置を示す斜視図。The perspective view which shows the virtual image display apparatus in 1st Embodiment. 第1実施形態における虚像表示装置を示す上面図。The top view which shows the virtual image display apparatus in 1st Embodiment. 第1実施形態における虚像表示装置を示す側面図。The side view which shows the virtual image display apparatus in 1st Embodiment. 第1実施形態におけるアーム部及び表示部を示す斜視図。The perspective view which shows the arm part and display part in 1st Embodiment. 第1実施形態における虚像表示装置を示す側面図。The side view which shows the virtual image display apparatus in 1st Embodiment. 第1実施形態における虚像表示装置を示す側面図。The side view which shows the virtual image display apparatus in 1st Embodiment. 第1実施形態におけるHMDの機能ブロック図。The functional block diagram of HMD in 1st Embodiment. HMDの制御の説明図であり、(A)はAR表示の例を示し、(B)は位置検出の様子を示す。It is explanatory drawing of control of HMD, (A) shows the example of AR display, (B) shows the mode of a position detection. 第1実施形態におけるHMDの動作を示すフローチャート。The flowchart which shows operation | movement of HMD in 1st Embodiment. 第2実施形態における虚像表示装置の斜視図。The perspective view of the virtual image display apparatus in 2nd Embodiment. HMDの説明図であり、(A)は位置検出の様子を示し、(B)はプロジェクターの構成を示す。It is explanatory drawing of HMD, (A) shows the mode of position detection, (B) shows the structure of a projector. 第2実施形態におけるHMDの機能ブロック図。The functional block diagram of HMD in 2nd Embodiment. 第3実施形態におけるHMDの機能ブロック図。The functional block diagram of HMD in 3rd Embodiment. 第4実施形態における虚像表示装置の斜視図。The perspective view of the virtual image display apparatus in 4th Embodiment. 第4実施形態におけるHMDの動作の説明図。Explanatory drawing of operation | movement of HMD in 4th Embodiment. 第4実施形態におけるHMDの機能ブロック図。The functional block diagram of HMD in 4th Embodiment. 第4実施形態におけるHMDの動作を示すフローチャート。The flowchart which shows operation | movement of HMD in 4th Embodiment.

[第1実施形態]
図1から図11に基づき、本発明を適用した第1実施形態について説明する。
[First Embodiment]
A first embodiment to which the present invention is applied will be described with reference to FIGS.

[虚像表示装置の概略構成]
図1は、本実施形態に係るHMD(Head Mounted Display:頭部装着型表示装置)100の構成を示す斜視図であり、虚像表示装置1が使用者に装着された状態を示す。また、図2及び図3は、虚像表示装置1を正面側及び背面側から見た斜視図である。換言すると、図2は、虚像表示装置1を使用者側とは反対側から見た斜視図であり、図3は、使用者側から見た斜視図である。
[Schematic configuration of virtual image display device]
FIG. 1 is a perspective view showing a configuration of an HMD (Head Mounted Display) 100 according to the present embodiment, and shows a state in which the virtual image display device 1 is worn by a user. 2 and 3 are perspective views of the virtual image display device 1 as viewed from the front side and the back side. In other words, FIG. 2 is a perspective view of the virtual image display device 1 seen from the side opposite to the user side, and FIG. 3 is a perspective view seen from the user side.

HMD100(表示装置)は、使用者(観察者、ユーザー)USの頭部に装着された状態で使用者に虚像を視認させる虚像表示装置1と、虚像表示装置1を制御する制御装置300と、を備えている。制御装置300は、使用者がHMD100を操作するコントローラーとしても機能する。本明細書では、HMD100によって使用者が視認する虚像を便宜的に「表示画像」と呼ぶ。また、画像データに基づいて生成された画像光を虚像表示装置1が射出することを「画像を表示する」ともいう。   The HMD 100 (display device) includes a virtual image display device 1 that allows a user to visually recognize a virtual image while being worn on the head of a user (observer, user) US, a control device 300 that controls the virtual image display device 1, and It has. The control device 300 also functions as a controller for the user to operate the HMD 100. In this specification, a virtual image visually recognized by the user with the HMD 100 is referred to as a “display image” for convenience. The virtual image display device 1 emitting image light generated based on image data is also referred to as “displaying an image”.

虚像表示装置1は、ケーブルCBで制御装置300に接続される。ケーブルCBは、制御装置300から虚像表示装置1へ電源を供給する電源ケーブル(図示略)、及び、虚像表示装置1と制御装置300とが各種データを送受信するデータ通信ケーブル(図示略)を内蔵する。
また、制御装置300には、ケーブルCBと分岐するオーディオケーブルCOが接続する。オーディオケーブルCOは、右イヤホン33及び左イヤホン34と、マイク63とが接続される。右イヤホン33及び左イヤホン34は、音声処理部187(図10)が出力する音声信号に基づき音声を出力する。
The virtual image display device 1 is connected to the control device 300 by a cable CB. The cable CB incorporates a power cable (not shown) for supplying power from the control device 300 to the virtual image display device 1 and a data communication cable (not shown) for transmitting and receiving various data between the virtual image display device 1 and the control device 300. To do.
In addition, the control device 300 is connected to a cable CB and a branching audio cable CO. The audio cable CO is connected to the right earphone 33 and the left earphone 34 and the microphone 63. The right earphone 33 and the left earphone 34 output sound based on the sound signal output from the sound processing unit 187 (FIG. 10).

マイク63は、音声を集音して、音声信号を後述する音声処理部187(図10)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
ここで、虚像表示装置1が電池等の電源を有する場合には、虚像表示装置1と制御装置300とを無線通信により接続することも可能である。
The microphone 63 collects sound and outputs the sound signal to the sound processing unit 187 (FIG. 10) described later. For example, the microphone 63 may be a monaural microphone or a stereo microphone, may be a directional microphone, or may be an omnidirectional microphone.
Here, when the virtual image display device 1 has a power source such as a battery, the virtual image display device 1 and the control device 300 can be connected by wireless communication.

虚像表示装置1は、詳しくは、観察者によって視認可能に虚像を表示するとともに、外光を透過させて外界(外景)を観察可能とするシースルー型の表示装置である。この虚像表示装置1は、図1〜図3に示すように、使用者の頭部又は頭部に装着されたヘルメット等に装着される本体部としてのヘッドバンド部2と、虚像を表示する表示部3と、ヘッドバンド部2に対して回動可能に取り付けられ、これらヘッドバンド部2及び表示部3を接続する一対のアーム部4と、表示部3をアーム部4に対して移動させる移動機構5(図6参照)とを備える。   Specifically, the virtual image display device 1 is a see-through display device that displays a virtual image so as to be visually recognized by an observer and allows external light to pass through and observe the outside (outside scene). As shown in FIGS. 1 to 3, the virtual image display device 1 includes a headband unit 2 as a main body unit mounted on a user's head or a helmet mounted on the head, and a display for displaying a virtual image. A pair of arm portions 4 that are pivotably attached to the head portion 3 and the headband portion 2, connect the headband portion 2 and the display portion 3, and move to move the display portion 3 relative to the arm portion 4. And a mechanism 5 (see FIG. 6).

なお、以下の説明において、Z方向は、虚像表示装置1を装着した使用者が正面を向いた場合の視方向であり、X方向及びY方向は、当該Z方向に直交し、かつ、互いに直交する方向である。これらのうち、X方向は、虚像表示装置1を装着した使用者から見て左から右に向かう方向であり、Y方向は、当該使用者から見て下から上に向う方向である。更に、Z方向側とは、Z方向における下流側(Z方向先端側)を指し、Z方向とは反対側とは、Z方向における上流側(Z方向基端側)を指す。他の方向も同様である。   In the following description, the Z direction is a viewing direction when the user wearing the virtual image display device 1 faces the front, and the X direction and the Y direction are orthogonal to the Z direction and orthogonal to each other. Direction. Among these, the X direction is a direction from left to right as viewed from the user wearing the virtual image display device 1, and the Y direction is a direction from bottom to top as viewed from the user. Furthermore, the Z direction side refers to the downstream side in the Z direction (Z direction tip side), and the opposite side to the Z direction refers to the upstream side in the Z direction (Z direction base end side). The same applies to the other directions.

[ヘッドバンド部の構成]
ヘッドバンド部2は、後述するアーム部4の一端が取り付けられるとともに、虚像表示装置1における機能の一部を制御するものである。
このヘッドバンド部2は、使用者USの頭部に沿う円弧状の外形を有し、図2に示すように、使用者USの頭部に沿って配置される本体ケース21と、当該ヘッドバンド部2を使用者USの頭部やヘルメット等の固定部位に固定する固定部としてのバンド22と、撮像部23と、制御基板24とを有する。なお、固定部位は、使用者USの頭部(詳しくは、眉及び耳を通る頭部の外周線より上側の部位)に応じた位置であり、頭部とヘッドバンド部2との間にヘルメット等が介在していてもよい。
制御基板24は、ケーブルCBにより制御装置300に接続される。制御基板24は、撮像部23及び撮像部23に付随する回路(図示略)、及び、9軸センサー238(図9)を実装する。また、制御基板24は、後述する発光部81とケーブルCBとを接続する。制御基板24は、制御装置300に対し、撮像部23の撮像画像及び9軸センサー238の検出値等を送受信し、制御装置300が発光部81の点灯を制御する信号を、発光部81に送出する。
[Configuration of headband]
The headband unit 2 is attached with one end of an arm unit 4 to be described later, and controls a part of functions in the virtual image display device 1.
The headband portion 2 has an arcuate outer shape along the head of the user US, and as shown in FIG. 2, a main body case 21 disposed along the head of the user US, and the headband. It has the band 22 as a fixing | fixed part which fixes the part 2 to fixing parts, such as a user's US head and a helmet, the imaging part 23, and the control board 24. FIG. The fixed part is a position corresponding to the head of the user US (specifically, the part above the outer circumference of the head that passes through the eyebrows and ears), and the helmet is placed between the head and the headband part 2. Etc. may intervene.
The control board 24 is connected to the control device 300 by a cable CB. The control board 24 mounts the imaging unit 23, a circuit (not shown) associated with the imaging unit 23, and a 9-axis sensor 238 (FIG. 9). Moreover, the control board 24 connects the light emission part 81 and the cable CB which are mentioned later. The control board 24 transmits / receives a captured image of the imaging unit 23, a detection value of the 9-axis sensor 238, and the like to the control device 300, and sends a signal for controlling the lighting of the light emitting unit 81 to the light emitting unit 81. To do.

図4は、虚像表示装置1をY方向とは反対方向から見た平面図である。また、図5は、虚像表示装置1をX方向から見た側面図である。
本体ケース21は、図4に示すように、使用者US(図4における点線で輪郭を示す使用者US)の前額部に沿って配置され、頭部にバンド22によって固定される。この本体ケース21は、上記制御基板24(図2参照)やケーブルCB等を内部に収納し、かつ、撮像部23やアーム部4を支持する筐体である。
この本体ケース21は、使用者USの前額部及び側頭部の形状に沿う略半円形状(略U字状)の外形を有する。すなわち、本体ケース21において、使用者USの前額部から側頭部に対向する内面211は、Y方向側から見て、使用者USの頭部に沿って湾曲している。
また、図5に示すように、本体ケース21の円弧状の両端近傍には、それぞれのアーム部4の一端を回動可能に軸支する回動軸部25が設けられている。なお、後に詳述するが、各アーム部4における当該一端は、本体ケース21の内部に配置されている。
FIG. 4 is a plan view of the virtual image display device 1 as viewed from the direction opposite to the Y direction. FIG. 5 is a side view of the virtual image display device 1 as viewed from the X direction.
As shown in FIG. 4, the main body case 21 is disposed along the forehead portion of the user US (the user US whose outline is indicated by a dotted line in FIG. 4), and is fixed to the head by a band 22. The main body case 21 is a housing that houses the control board 24 (see FIG. 2), the cable CB, and the like and supports the imaging unit 23 and the arm unit 4.
The main body case 21 has a substantially semicircular (substantially U-shaped) outer shape along the shape of the forehead and the temporal region of the user US. That is, in the main body case 21, the inner surface 211 facing the temporal region from the forehead portion of the user US is curved along the head of the user US as viewed from the Y direction side.
Further, as shown in FIG. 5, in the vicinity of both ends of the arcuate shape of the main body case 21, a rotation shaft portion 25 that pivotally supports one end of each arm portion 4 is provided. As will be described in detail later, one end of each arm portion 4 is disposed inside the main body case 21.

バンド22は、当該本体ケース21を使用者USの頭部に固定する。このバンド22は、図4に示すように、本体ケース21の内面211に取り付けられるバンド本体221と、バンド本体221に取り付けられる帯部222とを有する。
バンド本体221は、図3及び図4に示すように、両端に帯部222を取り付ける環状部221Aを有する。
帯部222は、図4に示すように、バンド本体221の両端の環状部221Aに取り付けられ、バンド本体221とともに環状のバンド22を構成する。帯部222は、例えば、伸縮性を有する帯状の部材で形成される。この帯部222が、バンド本体221側に向かって使用者USの頭部やヘルメット等の装着対象を押圧することにより、バンド22ひいてはヘッドバンド部2が、使用者USの頭部に固定される。
The band 22 fixes the main body case 21 to the head of the user US. As shown in FIG. 4, the band 22 includes a band main body 221 attached to the inner surface 211 of the main body case 21 and a band portion 222 attached to the band main body 221.
As shown in FIGS. 3 and 4, the band main body 221 has an annular portion 221 </ b> A for attaching the band portion 222 to both ends.
As shown in FIG. 4, the band portion 222 is attached to the annular portions 221 </ b> A at both ends of the band main body 221 and constitutes the annular band 22 together with the band main body 221. The band part 222 is formed of, for example, a band-shaped member having elasticity. This band part 222 presses the user US's head, a helmet or other mounting target toward the band body 221 side, so that the band 22 and thus the headband part 2 are fixed to the user's US head. .

撮像部23は、図2及び図4に示すように、本体ケース21において上記内面211とは反対側に位置する外面212における略中央に配置されており、使用者USの前方、すなわち、当該使用者USの視野における一部の領域を撮像する。この撮像部23は、図2に示すように、ステレオカメラ231と、外光の照度を検出する照度センサー232と、LED233と、これらを内部に収納するモジュール筐体234とを備える。なお、LED233は、例えば、虚像表示装置1の駆動時に点灯され、非駆動時に消灯されるパワーインジケーターとして機能する。   As shown in FIGS. 2 and 4, the imaging unit 23 is disposed at the approximate center of the outer surface 212 located on the opposite side of the inner surface 211 in the main body case 21, and is in front of the user US, that is, the usage. An image of a part of the field of view of the person US is taken. As shown in FIG. 2, the imaging unit 23 includes a stereo camera 231, an illuminance sensor 232 that detects the illuminance of external light, an LED 233, and a module housing 234 that houses these. For example, the LED 233 functions as a power indicator that is turned on when the virtual image display device 1 is driven and is turned off when the virtual image display device 1 is not driven.

モジュール筐体234は、図2に示すように、Z方向側の面に、透光性部材によって覆われた窓部235を有し、上記ステレオカメラ231は、当該窓部235を介して外部を撮像する他、上記照度センサー232は、窓部235を介して入射される外光の照度を検出する。
また、モジュール筐体234のX方向に交差する側面234Aには、当該側面234AからX方向に沿って突出する回動軸部236が設けられている。詳述すると、回動軸部236は、側面234AにおけるY方向とは反対側の位置に突設されている。この回動軸部236は、モジュール筐体234が配置される本体ケース21の凹部213に設けられた軸受け部(図示省略)によって支持されている。これら回動軸部236及び軸受け部等により、本発明の調整機構が構成される。なお、図2では、2つの側面234AのX方向の基端側における回動軸部236のみを図示しているが、X方向の先端側の側面の対応する位置にも回動軸部が設けられている。
このようなモジュール筐体234は、回動軸部236によって規定されるX方向に平行な回動軸R1を中心として所定範囲内にて回動可能である。このため、本体ケース21に対するモジュール筐体234の姿勢を調整することにより、ステレオカメラ231の撮像方向(すなわち、撮像部23による撮像方向)を調整できる。
As shown in FIG. 2, the module housing 234 has a window portion 235 covered with a translucent member on the surface on the Z direction side, and the stereo camera 231 is connected to the outside through the window portion 235. In addition to imaging, the illuminance sensor 232 detects the illuminance of external light incident through the window portion 235.
Further, on the side surface 234A that intersects the X direction of the module housing 234, a rotation shaft portion 236 that protrudes from the side surface 234A along the X direction is provided. Specifically, the rotation shaft portion 236 protrudes at a position on the side opposite to the Y direction on the side surface 234A. The rotation shaft portion 236 is supported by a bearing portion (not shown) provided in the concave portion 213 of the main body case 21 in which the module housing 234 is disposed. The rotating shaft portion 236, the bearing portion, and the like constitute the adjusting mechanism of the present invention. In FIG. 2, only the rotation shaft portion 236 on the base end side in the X direction of the two side surfaces 234A is shown, but the rotation shaft portion is also provided at a corresponding position on the side surface on the tip side in the X direction. It has been.
Such a module housing 234 can rotate within a predetermined range about a rotation axis R1 parallel to the X direction defined by the rotation shaft portion 236. For this reason, by adjusting the attitude of the module housing 234 with respect to the main body case 21, the imaging direction of the stereo camera 231 (that is, the imaging direction by the imaging unit 23) can be adjusted.

[表示部の構成]
表示部3は、入力される画像情報に応じた画像を形成して、当該画像を虚像として使用者に視認させる。この表示部3は、使用者の右眼と左眼のそれぞれに対して配置される一対の光学装置31(左眼用及び右眼用光学装置を、それぞれ31L,31Rとする)と、一対の光学装置31を保持する略U字状のフレーム部32とを備える。一対の光学装置31のうちの左眼用光学装置31Lは、ハーフミラーを含む導光部材313Lを有し、右眼用光学装置31Rは、ハーフミラーを含む導光部材313Rを有する。なお、左眼用光学装置31Lと、右眼用光学装置31Rとは、互いに鏡面対称の関係を有する。
[Configuration of display section]
The display unit 3 forms an image corresponding to the input image information, and causes the user to visually recognize the image as a virtual image. The display unit 3 includes a pair of optical devices 31 (the left-eye optical device and the right-eye optical device are respectively 31L and 31R) arranged for the right eye and the left eye of the user, and a pair of optical devices 31 And a substantially U-shaped frame portion 32 for holding the optical device 31. Of the pair of optical devices 31, the left-eye optical device 31L includes a light guide member 313L including a half mirror, and the right-eye optical device 31R includes a light guide member 313R including a half mirror. Note that the left-eye optical device 31L and the right-eye optical device 31R have a mirror symmetry relationship with each other.

図6は、カバー部材311の一部を除き、光学装置31の内部を示す図である。
一対の光学装置31のそれぞれは、カバー部材311と、光学ユニット312(図6参照)と、導光部材313(図3参照)とを有する。
カバー部材311は、光学ユニット312を内部に収納する筐体である。
光学ユニット312は、カバー部材311の内部に配置されており、後述する画像生成部20が生成する画像光を、対応する導光部材313に出射する。
FIG. 6 is a view showing the inside of the optical device 31 except for a part of the cover member 311.
Each of the pair of optical devices 31 includes a cover member 311, an optical unit 312 (see FIG. 6), and a light guide member 313 (see FIG. 3).
The cover member 311 is a housing that houses the optical unit 312 inside.
The optical unit 312 is disposed inside the cover member 311 and emits image light generated by the image generation unit 20 described later to the corresponding light guide member 313.

導光部材313(右眼用及び左眼用の導光部材を、それぞれ313R,313Lとする)は、使用者USの眼に応じた位置に配置される。この導光部材313は、内部に、ハーフミラーの形態を有する半透過層(半反射層)が形成されており、当該半透過層を介して外界を観察可能に構成されている他、上記光学ユニット312から出射されて当該半透過層にて反射された画像光が眼に入射されることにより虚像が視認される。このような導光部材313は、可視光領域で高い光透過性を示す樹脂(例えばシクロオレフィンポリマー)により主に形成される。   The light guide members 313 (the light guide members for the right eye and the left eye are respectively 313R and 313L) are arranged at positions corresponding to the eyes of the user US. The light guide member 313 has a semi-transmissive layer (semi-reflective layer) in the form of a half mirror formed therein so that the outside can be observed through the semi-transmissive layer. A virtual image is visually recognized when the image light emitted from the unit 312 and reflected by the semi-transmissive layer enters the eye. Such a light guide member 313 is mainly formed of a resin (for example, cycloolefin polymer) that exhibits high light transmittance in the visible light region.

光学装置31R,31Lには、光学ユニット312に画像光を送出する画像生成部20R、20Lがそれぞれ配置される。画像生成部20R、20Lには、画像情報(画像信号)を出力するケーブルCRが接続されており、当該ケーブルCRは、図3及び図6に示すように、カバー部材311外に延出した後、図5に示すように、アーム部4内に挿入される。画像生成部20(画像生成部20R、20L)は、図10を参照して後述するように、制御装置300(図1)の制御により発光する光源としてのバックライト、及び、制御装置300が出力する画像信号に基づき画像光を生成するLCD等を備える。画像生成部20が生成する画像光は光学ユニット312に入射され、光学ユニット312から導光部材313を経て使用者の眼球に照射される。   In the optical devices 31R and 31L, image generation units 20R and 20L that transmit image light to the optical unit 312 are arranged, respectively. A cable CR that outputs image information (image signal) is connected to the image generation units 20R and 20L, and the cable CR is extended outside the cover member 311 as shown in FIGS. As shown in FIG. 5, the arm portion 4 is inserted. As will be described later with reference to FIG. 10, the image generation unit 20 (image generation units 20 </ b> R and 20 </ b> L) outputs a backlight as a light source that emits light under the control of the control device 300 (FIG. 1) and the control device 300 outputs. And an LCD for generating image light based on the image signal to be processed. The image light generated by the image generation unit 20 is incident on the optical unit 312, and is irradiated on the user's eyeball from the optical unit 312 through the light guide member 313.

フレーム部32は、Y方向の先端側において、一対の光学装置31を保持する。このフレーム部32のX方向の基端側には、左眼用光学装置31Lが固定され、X方向の先端側には、右眼用光学装置31Rが固定される。   The frame part 32 holds a pair of optical devices 31 on the front end side in the Y direction. The left-eye optical device 31L is fixed to the base end side in the X direction of the frame portion 32, and the right-eye optical device 31R is fixed to the distal end side in the X direction.

[アーム部の構成]
一対のアーム部4は、図2及び図3に示したように、ヘッドバンド部2の本体ケース21と、表示部3の各カバー部材311とを接続するとともに、当該本体ケース21に対して回動可能に構成されている。これらアーム部4における本体ケース21側の端部は、図5に示すように、当該本体ケース21の下面214(Y方向とは反対側の面214)に形成された開口部214Aを介して、本体ケース21の内に回動自在に支持されている。これらアーム部4は、それぞれ、第1端部41及び第2端部42を有する。
[Configuration of arm part]
As shown in FIGS. 2 and 3, the pair of arm portions 4 connect the main body case 21 of the headband portion 2 to each cover member 311 of the display portion 3 and rotate with respect to the main body case 21. It is configured to be movable. As shown in FIG. 5, the end portions of the arm portions 4 on the side of the main body case 21 are connected via an opening 214 </ b> A formed on the lower surface 214 (the surface 214 opposite to the Y direction) of the main body case 21. The main body case 21 is rotatably supported. Each of these arm portions 4 has a first end portion 41 and a second end portion 42.

第1端部41は、アーム部4においてZ方向とは反対側の端部であり、X方向側から見た場合に、略円形状に形成されている。この第1端部41は、上記開口部214Aを挿通して、本体ケース21内にて回動軸部25によって軸支されている。このため、アーム部4は、当該第1端部41の軸支位置を通り、かつ、X方向に平行な回動軸R2を中心とする所定範囲で回動可能である。   The first end portion 41 is an end portion on the opposite side to the Z direction in the arm portion 4 and is formed in a substantially circular shape when viewed from the X direction side. The first end portion 41 is inserted through the opening portion 214 </ b> A and is pivotally supported by the rotation shaft portion 25 in the main body case 21. For this reason, the arm part 4 can rotate within a predetermined range centering on the rotation axis R2 that passes through the pivotal support position of the first end part 41 and is parallel to the X direction.

第2端部42は、アーム部4においてZ方向側の端部であり、当該第2端部42には、後述する移動機構5を構成するスライド部材52が設けられている。このスライド部材52は、当該移動機構5を構成し、表示部3のカバー部材311内に配置されたガイドレール51と係合しており、これにより、第2端部42と表示部3とが接続される。   The second end portion 42 is an end portion on the Z direction side in the arm portion 4, and the second end portion 42 is provided with a slide member 52 constituting a moving mechanism 5 described later. The slide member 52 constitutes the moving mechanism 5 and is engaged with the guide rail 51 disposed in the cover member 311 of the display unit 3, whereby the second end 42 and the display unit 3 are connected to each other. Connected.

図7は、表示部3及びアーム部4が回動する様子を示す図である。図7では、図5に示す状態から、X軸に平行、すなわち視方向に略直交する回動軸R2を中心に時計回りにアーム部4が回転された場合を示す。
本実施形態では、図7に示すように、アーム部4は、表示部3及びアーム部4のいずれかがヘッドバンド部2と接触するまで、当該ヘッドバンド部2側に上記回動軸R2を中心として、図中に矢印RAで示す方向に回動可能である。一方、アーム部4は、開口部214AのZ方向とは反対側の端部と、アーム部4とが接触するまで、上記とは逆方向すなわち図中に矢印RBで示す方向に回動可能である。
FIG. 7 is a diagram illustrating a state in which the display unit 3 and the arm unit 4 are rotated. FIG. 7 shows a case where the arm unit 4 is rotated clockwise from the state shown in FIG. 5 around a rotation axis R2 parallel to the X axis, that is, substantially orthogonal to the viewing direction.
In the present embodiment, as shown in FIG. 7, the arm unit 4 has the rotation axis R <b> 2 on the headband unit 2 side until either the display unit 3 or the arm unit 4 comes into contact with the headband unit 2. As a center, it can be rotated in a direction indicated by an arrow RA in the drawing. On the other hand, the arm portion 4 can be rotated in the opposite direction, that is, in the direction indicated by the arrow RB in the drawing until the arm portion 4 comes into contact with the end portion of the opening 214A opposite to the Z direction. is there.

このようにアーム部4を回動させることにより、表示部3の位置や角度を調整でき、図7に示すように、虚像を視認しづらくなる位置、すなわち、外界(使用者USの周囲)を観察しやすい位置に当該表示部3を移動させることができる。また、使用者が、表示部3で表示される画像を視認しなくてよいとき等に、アーム部4を回動させて表示部3をRA方向に動かすことで、使用者の視界から表示部3を退避させることができる。   By rotating the arm unit 4 in this way, the position and angle of the display unit 3 can be adjusted, and as shown in FIG. 7, a position where it is difficult to visually recognize the virtual image, that is, the outside world (around the user US). The display unit 3 can be moved to a position where it can be easily observed. Further, when the user does not have to visually recognize the image displayed on the display unit 3, the display unit 3 is moved from the user's field of view by rotating the arm unit 4 and moving the display unit 3 in the RA direction. 3 can be retreated.

また、虚像表示装置1は、ヘッドバンド部2と表示部3とを別体とし、アーム部4により連結した構成を有する。この構成により、虚像表示装置1の荷重による使用者への負荷を軽減している。すなわち、虚像表示装置1は、ヘッドバンド部2により使用者の頭部に装着されるので、使用者は虚像表示装置1の荷重を頭部で支えればよく、使用者は鼻や耳で荷重を受け止めなくて良いので、負担感が軽い。このような構成でありながら、虚像表示装置1は、使用者の眼前に表示部3を位置させて、後述するAR(Augmented Reality:拡張現実)表示を行うことができる。また、ヘッドバンド部2は使用者の頭部に直接接触する必要はなく、例えば使用者が保護帽の上から虚像表示装置1を装着できる。   In addition, the virtual image display device 1 has a configuration in which the headband unit 2 and the display unit 3 are separated and connected by an arm unit 4. With this configuration, the load on the user due to the load of the virtual image display device 1 is reduced. That is, since the virtual image display device 1 is attached to the user's head by the headband unit 2, the user only has to support the load of the virtual image display device 1 with the head, and the user applies the load with the nose or ear. There is no need to accept it, so the burden is light. In spite of such a configuration, the virtual image display device 1 can perform AR (Augmented Reality) display described later by positioning the display unit 3 in front of the user's eyes. Moreover, the headband part 2 does not need to contact a user's head directly, For example, a user can mount | wear with the virtual image display apparatus 1 from a protective cap.

なお、上記表示部3からアーム部4内に挿入されたケーブルCR(図6参照)は、図5に示すように当該アーム部4内を通って、第1端部41から上記本体ケース21内に侵入する。そして、このケーブルCRは、上記本体ケース21内にて制御基板24から延出するケーブルCBとともに、図1〜図7に示すように、本体ケース21の一端(X方向とは反対側の端部)から、外部に延出する。   The cable CR (see FIG. 6) inserted from the display unit 3 into the arm unit 4 passes through the arm unit 4 as shown in FIG. Break into. The cable CR, together with the cable CB extending from the control board 24 in the main body case 21, as shown in FIGS. 1 to 7, is one end of the main body case 21 (the end on the opposite side to the X direction). ) To the outside.

[移動機構の構成]
移動機構5は、表示部3とアーム部4とを接続するとともに、アーム部4に対して表示部3を、ヘッドバンド部2に接離する方向(すなわちY方向及びY方向とは反対方向)に移動可能に構成されている。この移動機構5は、図6に示すように、ガイドレール51及びスライド部材52を2組備える。
[Configuration of moving mechanism]
The moving mechanism 5 connects the display unit 3 and the arm unit 4 and moves the display unit 3 to and away from the headband unit 2 with respect to the arm unit 4 (that is, the direction opposite to the Y direction and the Y direction). It is configured to be movable. As shown in FIG. 6, the moving mechanism 5 includes two sets of guide rails 51 and slide members 52.

ガイドレール51は、上記第2端部42に設けられたスライド部材52のY方向及びY方向とは反対方向への移動を案内するものであり、それぞれのカバー部材311の内部に固定されている。このガイドレール51は、円柱状の部材であり、導光部材313から使用者の眼に向かう画像光の進行方向がZ方向に平行となる場合に、軸方向がY方向に沿うように配置されている。このようなガイドレール51の外周面には、スライド部材52の停止位置を決めるための周方向に沿う溝511が、軸方向に沿った複数位置に形成され、スライド部材52をガイドレール51に沿って段階的に移動させることができるように構成されている他、スライド部材52のスライド時にクリック感を生じさせている。   The guide rail 51 guides the movement of the slide member 52 provided at the second end portion 42 in the direction opposite to the Y direction and the Y direction, and is fixed inside each cover member 311. . The guide rail 51 is a cylindrical member, and is arranged so that the axial direction is along the Y direction when the traveling direction of the image light from the light guide member 313 toward the user's eyes is parallel to the Z direction. ing. Grooves 511 along the circumferential direction for determining the stop position of the slide member 52 are formed at a plurality of positions along the axial direction on the outer peripheral surface of the guide rail 51, and the slide member 52 is extended along the guide rail 51. In addition to being configured to be moved step by step, a click feeling is generated when the slide member 52 slides.

図8は、移動機構5によって表示部3が移動される様子を示す図である。なお、図8では、移動機構5による移動方向が、Y方向に沿うようにアーム部4が位置決めされている状態を図示している。
スライド部材52は、上記のように、各アーム部4の第2端部42におけるZ方向側の面から突設されている。このスライド部材52は、ガイドレール51の軸方向に沿って摺動可能に係合されている。これにより、図8に示すように、表示部3がY方向に移動され、ヘッドバンド部2と表示部3との距離を調整することができる。すなわち、表示部3は、矢印TAで示すようにY方向に沿って上昇する方向、及び、矢印TBで示すように、Y方向に沿って下降するように、動かすことができる。
FIG. 8 is a diagram illustrating a state in which the display unit 3 is moved by the moving mechanism 5. FIG. 8 illustrates a state in which the arm portion 4 is positioned so that the moving direction of the moving mechanism 5 is along the Y direction.
As described above, the slide member 52 protrudes from the Z-direction side surface of the second end portion 42 of each arm portion 4. The slide member 52 is slidably engaged along the axial direction of the guide rail 51. Thereby, as shown in FIG. 8, the display part 3 is moved to a Y direction, and the distance of the headband part 2 and the display part 3 can be adjusted. That is, the display unit 3 can be moved so as to rise along the Y direction as indicated by the arrow TA and to descend along the Y direction as indicated by the arrow TB.

このように表示部3を上下にスライド可能に支持することにより、使用者は、例えば作業の状況に合わせて表示部3の表示画像の位置を自在に調整できる。例えば、AR表示により作業支援を行う場合、使用者は、手元を見ながら作業をする場合に表示部3をTB方向に下降させ、棚など上部の作業時には表示部3をTA方向に上昇させればよい。この場合、使用者が作業のために外部(手元や上方)を見やすいように、表示部3をスライドさせ、表示部3の位置を変更できる。表示部3を移動させる方向としては、理想的には、使用者の眼球の回転中心を通る軸の回りで、表示部3を回動させることが好ましいが、表示部3を眼の近くで上下(TA、TB方向)にスライドさせることで、理想的な回動に代えることができる。   In this way, by supporting the display unit 3 so as to be slidable up and down, the user can freely adjust the position of the display image on the display unit 3 in accordance with, for example, the situation of work. For example, when performing work support by AR display, the user can lower the display unit 3 in the TB direction when working while looking at the hand, and can raise the display unit 3 in the TA direction when working on the upper part such as a shelf. That's fine. In this case, the position of the display unit 3 can be changed by sliding the display unit 3 so that the user can easily see the outside (on hand or above) for work. As a direction in which the display unit 3 is moved, ideally, it is preferable to rotate the display unit 3 around an axis passing through the rotation center of the user's eyeball, but the display unit 3 is moved up and down near the eyes. By sliding in the (TA and TB directions), it can be replaced with ideal rotation.

また、上述のように、表示部3は、第1端部41のR2軸を中心として回動させることができる。このR2軸まわりの回動は、表示部3を使用者の視界から退避させる退避用の動作として有用であるが、回動により表示部3と使用者の眼球との間の距離が変化することから、R2軸まわりに表示部3を動かすと、移動量(回動角)が小さくても表示部3が見にくくなることがある。これに対し、移動機構5を利用して表示部3を上下にスライドさせる動作、及び、眼球の回転中心を通る軸を中心として表示部3を回動させる動作は、表示部3と眼との間の距離を一定にしたまま表示部3を変位させるので、視認性は良好に保たれる。
虚像表示装置1は、R2軸を中心として表示部3を回動させる機構と、移動機構5により表示部3を上下にスライドさせる機構との両方を具備することで、使用者の視界から表示部3を退避させることも、表示部3の表示を見る位置を変更することもできる。なお、眼球の回転中心を通る仮想軸を中心として表示部3を回動させる機構が採用され、当該構造において表示部3の回動範囲で表示部3が利用者の顔に抵触しないような構成(例えば長い回動半径、または小さい表示部3)が採用されてもよい。そのような機構によれば、適切に表示部3を退避させることと、適切に表示部3の表示を見る位置を変更することと、を一つの可動部で実現し得る。
Further, as described above, the display unit 3 can be rotated around the R2 axis of the first end portion 41. This rotation around the R2 axis is useful as a retraction operation for retracting the display unit 3 from the user's field of view, but the distance between the display unit 3 and the user's eyeball is changed by the rotation. Therefore, when the display unit 3 is moved around the R2 axis, the display unit 3 may be difficult to see even if the movement amount (rotation angle) is small. On the other hand, the operation of sliding the display unit 3 up and down using the moving mechanism 5 and the operation of rotating the display unit 3 about the axis passing through the rotation center of the eyeball are performed between the display unit 3 and the eye. Since the display unit 3 is displaced while keeping the distance between them constant, the visibility is kept good.
The virtual image display device 1 includes both a mechanism for rotating the display unit 3 around the R2 axis and a mechanism for sliding the display unit 3 up and down by the moving mechanism 5 so that the display unit can be viewed from the user's field of view. 3 can be withdrawn, or the display position of the display unit 3 can be changed. It should be noted that a mechanism for rotating the display unit 3 around a virtual axis passing through the center of rotation of the eyeball is employed, and the display unit 3 does not touch the user's face within the rotation range of the display unit 3 in the structure. (For example, a long turning radius or a small display unit 3) may be employed. According to such a mechanism, it is possible to appropriately retract the display unit 3 and appropriately change the position of viewing the display of the display unit 3 with a single movable unit.

また、ヘッドバンド部2においては、回動軸R1を中心として撮像部23、図8に矢印RCで示す方向、及びその逆方向(矢印RD)に回動させることにより、ステレオカメラ231の撮像方向を動かすことができる。これにより、ステレオカメラ231の撮像範囲Aを上下に調整できる。
虚像表示装置1は、ヘッドバンド部2と表示部3とを、アーム部4を介してRA、RB方向の回動及びTA、TB方向のスライドが可能なように連結することで、撮像部23の撮像範囲と表示部3の位置との相対位置が変化する。この構成は、撮像部23をヘッドバンド部2に設けることで表示部3を軽量化できる点で有利である。表示部3を軽量化することで、表示部3を支える構造、例えば移動機構5、及び第1端部41の支持構造をシンプルかつ軽量な構成とすることができる。また、使用者の意図に応じて、使用者が弱い力で表示部3を動かすことができるという利点もある。撮像部23の撮像範囲は、少なくとも、表示部3を通して視認される範囲に重なる。撮像部23の撮像範囲に、表示部3を通して視認される範囲を含んでもよい。
Further, in the headband unit 2, the imaging direction of the stereo camera 231 is rotated by rotating the imaging unit 23 around the rotation axis R <b> 1, the direction indicated by the arrow RC in FIG. 8, and the opposite direction (arrow RD). Can be moved. Thereby, the imaging range A of the stereo camera 231 can be adjusted up and down.
The virtual image display device 1 connects the headband unit 2 and the display unit 3 via the arm unit 4 so as to be rotatable in the RA and RB directions and slidable in the TA and TB directions, whereby the imaging unit 23 is connected. The relative position of the imaging range and the position of the display unit 3 changes. This configuration is advantageous in that the display unit 3 can be reduced in weight by providing the imaging unit 23 in the headband unit 2. By reducing the weight of the display unit 3, the structure for supporting the display unit 3, for example, the moving mechanism 5 and the support structure for the first end 41 can be made simple and lightweight. There is also an advantage that the display unit 3 can be moved with a weak force according to the user's intention. The imaging range of the imaging unit 23 overlaps at least the range visually recognized through the display unit 3. The imaging range of the imaging unit 23 may include a range visually recognized through the display unit 3.

なお、スライド部材52は、図7に示すように、上記ガイドレール51が挿通する孔部521と、Y方向における中間位置に孔部521を横切るように形成されたスリット522と、図示を省略するが、アナンゴム等の弾性体により形成されたOリングとを有する。Oリングは、スリット522に配置され、ガイドレール51が挿通される。このOリングがガイドレール51を内径方向に締め付けることにより、適度な抵抗感を付与しつつ、スライド部材52がガイドレール51に沿ってスライド可能とされている。そして、当該Oリングが、ガイドレール51の溝511に嵌合することにより、これらの相対位置が維持される。しかしながら、移動機構5の構成はこれに限らず、スライド部材52は、ガイドレール51の高さ方向に沿って連続的に相対移動可能としてもよい。この場合、溝511を設けなくてもよい。   As shown in FIG. 7, the slide member 52 is omitted from illustration, and a hole 521 through which the guide rail 51 is inserted, a slit 522 formed so as to cross the hole 521 at an intermediate position in the Y direction, and the illustration. Has an O-ring formed of an elastic body such as Annan rubber. The O-ring is disposed in the slit 522, and the guide rail 51 is inserted therethrough. The O-ring tightens the guide rail 51 in the inner diameter direction, so that the slide member 52 can slide along the guide rail 51 while giving an appropriate resistance. Then, the relative position is maintained by fitting the O-ring into the groove 511 of the guide rail 51. However, the configuration of the moving mechanism 5 is not limited to this, and the slide member 52 may be continuously movable relative to the guide rail 51 in the height direction. In this case, the groove 511 may not be provided.

また、虚像表示装置1は、表示部3の両側端部から光を発する構成を具備する。
図1、図2及び他の各図に示すように、表示部3は、左右両端部に、4つの発光部81を備える。発光部81は、LED、或いはレーザーダイオード等の固体光源、或いはランプを有して構成され、光を前方に照射する。本実施形態の発光部81は、光源としてLEDを備える。より詳細には、発光部81は、表示部3の右側の端部においてカバー部材311に埋設設置されるLED81A、81B、及び、表示部3の左側の端部においてカバー部材311に埋設設置されるLED81C、81Dにより構成される。これら4つのLED81A、81B、81C、81Dが発する光LA、LB、LC、LD(図5参照)は、使用者の略視線方向に向けて照射される。光LA、LB、LC、LDは、ステレオカメラ231により撮像可能な波長域の光であって、可視領域内の光であってもよいし、赤外光等の可視領域外の光であってもよい。また、LED81A、81B、81C、81Dが発する光は、好ましくは直進性の高い光であり、例えばLED81A、81B、81C、81Dに光の照射方向を制限するレンズ等の光学部品を設けてもよい。
The virtual image display device 1 includes a configuration that emits light from both side ends of the display unit 3.
As shown in FIGS. 1, 2 and other figures, the display unit 3 includes four light emitting units 81 at both left and right ends. The light emitting unit 81 includes a solid light source such as an LED or a laser diode, or a lamp, and irradiates light forward. The light emitting unit 81 of the present embodiment includes an LED as a light source. More specifically, the light emitting unit 81 is embedded in the cover member 311 at the left end of the display unit 3 and the LEDs 81A and 81B embedded in the cover member 311 at the right end of the display unit 3. It is comprised by LED81C, 81D. Lights LA, LB, LC, and LD (see FIG. 5) emitted by these four LEDs 81A, 81B, 81C, and 81D are emitted toward the direction of the user's approximate line of sight. The light LA, LB, LC, and LD are light in a wavelength region that can be imaged by the stereo camera 231 and may be light in the visible region or light outside the visible region such as infrared light. Also good. Further, the light emitted from the LEDs 81A, 81B, 81C, 81D is preferably light that travels straight forward. For example, the LEDs 81A, 81B, 81C, 81D may be provided with an optical component such as a lens that restricts the light irradiation direction. .

表示部3の右端部の上部にはLED81Aが配置され、下部にはLED81Bが配置される。また、表示部3の左端部において上部にはLED81Cが配置され、下部にはLED81Dが配置される。これらの4つのLED81A、81B、81C、81Dが発する光LA、LB、LC、LDは、ほぼ直進するとともに、わずかに表示部3の幅方向中央を向くように傾いて、使用者USの視線方向に向けて照射される。   The LED 81A is arranged at the upper part of the right end of the display unit 3, and the LED 81B is arranged at the lower part. In the left end portion of the display unit 3, an LED 81C is arranged at the upper part, and an LED 81D is arranged at the lower part. Lights LA, LB, LC, and LD emitted by these four LEDs 81A, 81B, 81C, and 81D are almost straight and are slightly inclined toward the center in the width direction of the display unit 3, so that the line of sight of the user US Irradiated towards.

このように構成される虚像表示装置1では、以下の利点がある。
使用者USの頭部に沿う本体部としてのヘッドバンド部2は、当該ヘッドバンド部2とアーム部4を介して接続される表示部3によって表示される虚像が使用者USによって視認可能な位置に固定される。これによれば、ヘッドバンド部2は、額に沿って配置された状態で、使用者USの額等の固定部位に固定されるので、虚像表示装置1の荷重が使用者の鼻に加わることを抑制できる。従って、虚像表示装置1の使用時における使用者USへの負荷を軽減でき、使用感を向上させることができる。
The virtual image display device 1 configured as described above has the following advantages.
The headband part 2 as the main body part along the head of the user US is a position where a virtual image displayed by the display part 3 connected to the headband part 2 and the arm part 4 is visible by the user US. Fixed to. According to this, the headband unit 2 is fixed to a fixed part such as the forehead of the user US while being arranged along the forehead, so that the load of the virtual image display device 1 is applied to the nose of the user. Can be suppressed. Therefore, the load on the user US when using the virtual image display device 1 can be reduced, and the usability can be improved.

アーム部4は、ヘッドバンド部2との接続部位を中心として回動可能であるので、当該アーム部4を回動させることにより、ヘッドバンド部2に対する表示部3の位置や角度を調整できる。これによれば、装着時の使用者USの視線方向に応じた位置に表示部3を位置させて、当該表示部3によって表示される虚像の視認性を向上させることができる。また、上記虚像を視認しない場合には、使用者の眼前から表示部3を退避させることができる。従って、虚像表示装置1の利便性を向上させることができる。   Since the arm portion 4 can be rotated around the connection portion with the headband portion 2, the position and angle of the display portion 3 with respect to the headband portion 2 can be adjusted by rotating the arm portion 4. According to this, the display part 3 can be located in the position according to the visual line direction of the user US at the time of mounting | wearing, and the visibility of the virtual image displayed by the said display part 3 can be improved. Further, when the virtual image is not visually recognized, the display unit 3 can be retracted from the user's eyes. Therefore, the convenience of the virtual image display device 1 can be improved.

アーム部4は、上記回動軸R2を中心として回動可能にヘッドバンド部2に接続されている。これによれば、アーム部4に対する回動操作によって、表示部3の位置を簡易に調整できる他、上記虚像を視認しない場合に、使用者の眼前から表示部3を確実に退避させることができる。従って、虚像表示装置1の利便性を確実に向上させることができる。   The arm portion 4 is connected to the headband portion 2 so as to be rotatable about the rotation axis R2. According to this, the position of the display unit 3 can be easily adjusted by the turning operation with respect to the arm unit 4, and the display unit 3 can be reliably retracted from the front of the user when the virtual image is not visually recognized. . Therefore, the convenience of the virtual image display device 1 can be improved reliably.

移動機構5は、ヘッドバンド部2に対して接離する方向に表示部3を移動させる。これによれば、使用者USの眼の位置に応じて、視方向に重なるように表示部3の位置を調整しやすくすることができる。従って、使用者USに応じて表示部3の位置を調整でき、虚像表示装置1の利便性及び汎用性を向上させることができる。   The moving mechanism 5 moves the display unit 3 in a direction in which the headband unit 2 is in contact with or separated from the headband unit 2. According to this, it is possible to easily adjust the position of the display unit 3 so as to overlap the viewing direction according to the position of the eyes of the user US. Therefore, the position of the display unit 3 can be adjusted according to the user US, and the convenience and versatility of the virtual image display device 1 can be improved.

ヘッドバンド部2が有する撮像部23により、使用者USの視野における一部の領域を撮像できるので、例えば、撮像部23による撮像画像を表示部3に表示したり、或いは、当該撮像画像を外部に出力したりすることにより、使用者USの周囲の状況を、当該使用者US又は他者が把握できる。
ここで、表示部3に撮像部23が位置する場合には、撮像部23の荷重によって虚像表示装置1の重量バランスがずれることが考えられる。これに対し、撮像部23は、上記固定部位に固定されるヘッドバンド部2に位置することにより、表示部3の重量を低減できるだけでなく、虚像表示装置1の重量バランスを適正化しやすくすることができる。従って、使用者USへの負荷を一層軽減できる。
Since the imaging unit 23 included in the headband unit 2 can capture a partial region in the visual field of the user US, for example, an image captured by the imaging unit 23 is displayed on the display unit 3 or the captured image is externally displayed. Or the like, the user US or another person can grasp the situation around the user US.
Here, when the imaging unit 23 is positioned on the display unit 3, it is conceivable that the weight balance of the virtual image display device 1 is shifted due to the load of the imaging unit 23. On the other hand, the imaging unit 23 is not only able to reduce the weight of the display unit 3 but also to facilitate the optimization of the weight balance of the virtual image display device 1 by being positioned on the headband unit 2 fixed to the fixed part. Can do. Therefore, the load on the user US can be further reduced.

撮像部23は、回動軸R2を中心に回動可能に構成される。これにより、使用者USの視線方向に応じた位置に、撮像部23の撮像方向を調整できる。従って、撮像部23によって、使用者USの視野における少なくとも一部の領域を確実に撮像できる。   The imaging unit 23 is configured to be rotatable about a rotation axis R2. Thereby, the imaging direction of the imaging part 23 can be adjusted to the position according to the visual line direction of the user US. Therefore, at least a part of the area in the visual field of the user US can be reliably imaged by the imaging unit 23.

虚像表示装置1の少なくとも一部の機能を制御する制御基板24は、ヘッドバンド部2内に配置されている。これにより、上記撮像部23と同様に、表示部3に制御基板24が設けられる場合と比べて、表示部3の重量を低減できるだけでなく、虚像表示装置1の重量バランスを適正化しやすくすることができる。従って、使用者USへの負荷を一層軽減できる。   A control board 24 that controls at least some of the functions of the virtual image display device 1 is disposed in the headband unit 2. As a result, as with the imaging unit 23, the weight of the display unit 3 can be reduced and the weight balance of the virtual image display device 1 can be easily optimized as compared with the case where the control board 24 is provided in the display unit 3. Can do. Therefore, the load on the user US can be further reduced.

ここで、表示部3からケーブルを直接外部に延出させる場合には、ケーブルが動くことを考慮して、表示部3の外形を構成する筐体としてのカバー部材311やフレーム部32の強度を高める必要がある。また、表示部3からケーブルが外部に延出していると見た目がよくないという問題がある。
これに対し、表示部3から延出したケーブルCRは、アーム部4内及びヘッドバンド部2内を通って制御基板24に接続される。また、制御基板24から延出したケーブルCBは、ヘッドバンド部2内を通って外部に延出する。これによれば、カバー部材311やフレーム部32等の強度を高める必要がない他、虚像表示装置1の外観を良好なものにすることができる。
Here, when extending the cable directly from the display unit 3 to the outside, the strength of the cover member 311 or the frame unit 32 as a casing constituting the outer shape of the display unit 3 is considered in consideration of the movement of the cable. Need to increase. Further, there is a problem that the appearance is not good when the cable extends from the display unit 3 to the outside.
On the other hand, the cable CR extending from the display unit 3 is connected to the control board 24 through the arm unit 4 and the headband unit 2. The cable CB extending from the control board 24 extends through the headband unit 2 to the outside. According to this, it is not necessary to increase the strength of the cover member 311, the frame portion 32, and the like, and the appearance of the virtual image display device 1 can be improved.

ヘッドバンド部2は、使用者USの頭部に沿う円弧状の外形を有する。これによれば、当該ヘッドバンド部2をより確実に頭部に沿うように配置できるため、装着感を向上させることができる他、虚像表示装置1の装着時の外観を良好なものとすることができる。   The headband part 2 has an arcuate outer shape along the head of the user US. According to this, since the said headband part 2 can be arrange | positioned so that it may follow a head more reliably, a feeling of mounting can be improved and the external appearance at the time of mounting | wearing of the virtual image display apparatus 1 shall be made favorable. Can do.

表示部3は、左眼用光学装置31L及び右眼用光学装置31Rにより、使用者USの左目及び右目にてそれぞれ同じ虚像を視認させることができるだけでなく、それぞれ異なる虚像を視認させることができる。従って、虚像表示装置1の利便性及び汎用性を向上させることができる。   The display unit 3 can not only visually recognize the same virtual image with the left eye and the right eye of the user US, but also visually recognize different virtual images with the left-eye optical device 31L and the right-eye optical device 31R. . Therefore, the convenience and versatility of the virtual image display device 1 can be improved.

虚像表示装置1は、虚像を形成する光を使用者USの眼に導光するとともに、外光を透過する導光部材313を有する、シースルー型の構成を採用している。これにより、導光部材313を介して、上記虚像と使用者の周囲とを観察できる。このため、虚像を視認中の使用者USに安心感を付与できる他、周囲の風景に重ね合わせた虚像を視認させることにより、拡張現実を実現できる。従って、虚像表示装置1の利便性及び汎用性を一層向上させることができる。   The virtual image display device 1 employs a see-through configuration having a light guide member 313 that guides light forming a virtual image to the eyes of the user US and transmits external light. Thereby, the virtual image and the user's surroundings can be observed through the light guide member 313. For this reason, in addition to giving a sense of security to the user US who is visually recognizing the virtual image, augmented reality can be realized by visually recognizing the virtual image superimposed on the surrounding landscape. Therefore, the convenience and versatility of the virtual image display device 1 can be further improved.

[制御系の構成]
図10は、HMD100を構成する各部の機能ブロック図である。
図10に示すように、HMD100は、インターフェイス125を介して外部機器OAに接続される。インターフェイス125は、制御装置300に対して、コンテンツの供給元となる種々の外部機器OAを接続する。インターフェイス125としては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを用いることができる。
外部機器OAは、HMD100に画像を供給する画像供給装置として用いられ、例えば、パーソナルコンピューター(PC)や携帯電話端末、ゲーム端末等が用いられる。
[Control system configuration]
FIG. 10 is a functional block diagram of each part constituting the HMD 100.
As shown in FIG. 10, the HMD 100 is connected to the external device OA via the interface 125. The interface 125 connects various external devices OA that are content supply sources to the control device 300. As the interface 125, for example, an interface corresponding to a wired connection such as a USB interface, a micro USB interface, or a memory card interface can be used.
The external device OA is used as an image supply device that supplies an image to the HMD 100. For example, a personal computer (PC), a mobile phone terminal, a game terminal, or the like is used.

制御装置300は、制御部140と、操作部111と、入力情報取得部110と、記憶部120と、送信部(Tx)131及び送信部(Tx)132とを有している。制御装置300は、表示部3に設けられる画像生成部20が備える受信部133、134に対し、各種信号を送信する。   The control device 300 includes a control unit 140, an operation unit 111, an input information acquisition unit 110, a storage unit 120, a transmission unit (Tx) 131, and a transmission unit (Tx) 132. The control device 300 transmits various signals to the reception units 133 and 134 included in the image generation unit 20 provided in the display unit 3.

操作部111は、使用者による操作を検出する。操作部111は、図1に示した電源スイッチ301、トラックパッド302、キースイッチ部303、及び上下キー305を含む。入力情報取得部110は、使用者による操作入力に対応して操作部111が出力する操作信号あるいは操作データを取得する。
また、制御装置300は、電源部130を備え、制御装置300及び虚像表示装置1の各部に電源を供給する。
The operation unit 111 detects an operation by the user. The operation unit 111 includes the power switch 301, the track pad 302, the key switch unit 303, and the up / down key 305 shown in FIG. The input information acquisition unit 110 acquires an operation signal or operation data output from the operation unit 111 in response to an operation input by the user.
The control device 300 includes a power supply unit 130 and supplies power to each unit of the control device 300 and the virtual image display device 1.

記憶部120は、不揮発性の記憶装置であって、種々のコンピュータープログラムを格納している。また、記憶部120には、HMD100の虚像表示装置1に表示する画像データが格納されていても良い。また、制御部140が、記憶部120に記憶されるプログラムを実行することにより、虚像表示装置1が表示する表示データを生成してもよい。   The storage unit 120 is a nonvolatile storage device, and stores various computer programs. The storage unit 120 may store image data to be displayed on the virtual image display device 1 of the HMD 100. Further, the control unit 140 may generate display data to be displayed by the virtual image display device 1 by executing a program stored in the storage unit 120.

制御部140には、3軸センサー113、GPS115、及び通信部117が接続される。3軸センサー113は3軸の加速度センサーであり、3軸センサー113の検出値を制御部140が取得可能である。GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置300の現在位置を求める。GPS115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部140に出力する。GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御装置300の制御部140が計時する時刻を修正させる機能を備えてもよい。   A three-axis sensor 113, a GPS 115, and a communication unit 117 are connected to the control unit 140. The triaxial sensor 113 is a triaxial acceleration sensor, and the control unit 140 can acquire the detection value of the triaxial sensor 113. The GPS 115 includes an antenna (not shown), receives a GPS (Global Positioning System) signal, and obtains the current position of the control device 300. The GPS 115 outputs the current position and the current time obtained based on the GPS signal to the control unit 140. The GPS 115 may have a function of acquiring the current time based on information included in the GPS signal and correcting the time counted by the control unit 140 of the control device 300.

通信部117は、無線LAN(WiFi(登録商標))や、Miracast(登録商標)等の無線通信の規格に準じた無線データ通信を実行する。また、通信部117は、Bluetooth(登録商標)や、Bluetooth Low Energy、RFID、Felica(登録商標)等の近距離無線通信の規格に準じた無線データ通信を実行することも可能である。   The communication unit 117 executes wireless data communication conforming to a wireless communication standard such as a wireless LAN (WiFi (registered trademark)) or Miracast (registered trademark). The communication unit 117 can also perform wireless data communication conforming to a short-range wireless communication standard such as Bluetooth (registered trademark), Bluetooth Low Energy, RFID, or Felica (registered trademark).

外部機器OAが、通信部117に無線接続された場合、制御部140は、コンテンツデータを通信部117より取得して、虚像表示装置1に画像を表示するための制御を行う。一方、外部機器OAが、インターフェイス125に有線接続された場合には、制御部140は、コンテンツデータをインターフェイス125より取得して、虚像表示装置1に画像を表示するための制御を行う。よって、通信部117及びインターフェイス125を、以下総称してデータ取得部と呼ぶ。データ取得部は、外部機器OAからコンテンツデータを取得する。また、コンテンツデータは、例えば記憶部120に記憶してもよい。   When the external device OA is wirelessly connected to the communication unit 117, the control unit 140 acquires content data from the communication unit 117 and performs control for displaying an image on the virtual image display device 1. On the other hand, when the external device OA is wired to the interface 125, the control unit 140 acquires content data from the interface 125 and performs control for displaying an image on the virtual image display device 1. Therefore, the communication unit 117 and the interface 125 are hereinafter collectively referred to as a data acquisition unit. The data acquisition unit acquires content data from the external device OA. Further, the content data may be stored in the storage unit 120, for example.

制御部140は、CPU、ROM、RAM(いずれも図示略)等を備える。制御部140は、記憶部120またはROMに記憶したプログラムを読み出して実行することにより、HMD100の各部を制御する。また、制御部140は、上記プログラムを実行して、オペレーティングシステム(OS)150、画像処理部160、表示制御部170、撮像制御部181、位置検出制御部182、AR表示制御部183、及び音声処理部187として機能する。   The control unit 140 includes a CPU, a ROM, a RAM (all not shown), and the like. The control unit 140 controls each unit of the HMD 100 by reading and executing a program stored in the storage unit 120 or the ROM. In addition, the control unit 140 executes the above-described program, and operates the operating system (OS) 150, the image processing unit 160, the display control unit 170, the imaging control unit 181, the position detection control unit 182, the AR display control unit 183, and the sound. It functions as the processing unit 187.

画像処理部160は、コンテンツに含まれる画像信号を取得する。画像処理部160は、コンテンツに含まれる画像を表示するための垂直同期信号VSync、水平同期信号HSync等の同期信号、クロック信号PCLK、及びディジタル画像データ(図中、Data)を送信部131により、画像生成部20R、20Lのそれぞれに送信する。また、画像処理部160は、必要に応じて、画像データに対して、解像度変換処理や、輝度、彩度の調整といった種々の色調補正処理、キーストーン補正処理等の画像処理を実行してもよい。送信部131、132は、制御装置300と虚像表示装置1との間におけるシリアル伝送のためのトランシーバーとして機能する。   The image processing unit 160 acquires an image signal included in the content. The image processing unit 160 sends a synchronization signal such as a vertical synchronization signal VSync and a horizontal synchronization signal HSync for displaying an image included in the content, a clock signal PCLK, and digital image data (Data in the figure) by the transmission unit 131. It transmits to each of image generation parts 20R and 20L. Further, the image processing unit 160 may execute image processing such as resolution conversion processing, various tone correction processing such as adjustment of luminance and saturation, and keystone correction processing on the image data as necessary. Good. The transmission units 131 and 132 function as a transceiver for serial transmission between the control device 300 and the virtual image display device 1.

画像生成部20R、20Lは、画像処理部160から受信部133、134を介して入力される信号に基づき、右バックライト205、左バックライト206が発する光を変調して画像光を生成する。
画像生成部20Rは、LED等の光源と拡散板とを有する右バックライト205と、右バックライト205を駆動する右バックライト制御部201とを備える。また、右バックライト205が発する光の光路上に配置される透過型の右LCD241、及び、右LCD241を駆動する右LCD制御部203を備える。
右LCD241を透過した画像光は光学ユニット312に入射する。右LCD241は、複数の画素をマトリクス状に配置した透過型液晶パネルである。
The image generation units 20R and 20L modulate the light emitted from the right backlight 205 and the left backlight 206 based on signals input from the image processing unit 160 via the reception units 133 and 134, and generate image light.
The image generation unit 20 </ b> R includes a right backlight 205 having a light source such as an LED and a diffusion plate, and a right backlight control unit 201 that drives the right backlight 205. Further, a transmissive right LCD 241 disposed on the optical path of light emitted from the right backlight 205 and a right LCD control unit 203 that drives the right LCD 241 are provided.
The image light transmitted through the right LCD 241 enters the optical unit 312. The right LCD 241 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix.

同様に、画像生成部20Lは、LED等の光源と拡散板とを有する左バックライト206と、左バックライト206を制御する左バックライト制御部202とを備える。また、左バックライト206が発する光の光路上に配置される透過型の左LCD242、及び、左LCD242を駆動する左LCD制御部204を備える。左LCD242を透過した画像光は光学ユニット312に入射する。左LCD242は、複数の画素をマトリクス状に配置した透過型液晶パネルである。   Similarly, the image generation unit 20L includes a left backlight 206 having a light source such as an LED and a diffusion plate, and a left backlight control unit 202 that controls the left backlight 206. Further, a transmissive left LCD 242 disposed on the optical path of light emitted from the left backlight 206, and a left LCD control unit 204 that drives the left LCD 242 are provided. The image light transmitted through the left LCD 242 enters the optical unit 312. The left LCD 242 is a transmissive liquid crystal panel in which a plurality of pixels are arranged in a matrix.

表示制御部170は、虚像表示装置1が備える画像生成部20R、20Lに対して制御信号を送信する。表示制御部170は、画像生成部20R、20Lが備える右バックライト205、左バックライト206の点灯を制御する右バックライト制御部201及び左バックライト制御部202に対して制御信号を送信する。
右バックライト制御部201及び左バックライト制御部202は、表示制御部170から受信する制御信号に従って、右バックライト205及び左バックライト206のそれぞれに対し、点灯、消灯の制御および発光輝度の制御を行う。右バックライト205及び左バックライト206は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体であり、レーザー光源やランプを用いて構成してもよい。
The display control unit 170 transmits a control signal to the image generation units 20R and 20L included in the virtual image display device 1. The display control unit 170 transmits a control signal to the right backlight control unit 201 and the left backlight control unit 202 that control lighting of the right backlight 205 and the left backlight 206 included in the image generation units 20R and 20L.
The right backlight control unit 201 and the left backlight control unit 202 control lighting on / off and light emission luminance for the right backlight 205 and the left backlight 206, respectively, in accordance with a control signal received from the display control unit 170. I do. The right backlight 205 and the left backlight 206 are, for example, light emitters such as LEDs and electroluminescence (EL), and may be configured using a laser light source or a lamp.

表示制御部170は、虚像表示装置1が備える画像生成部20R、20Lのそれぞれに制御信号を送信する。右バックライト制御部201及び左バックライト制御部202は、表示制御部170から受信する制御信号に従って、右バックライト205及び左バックライト206のそれぞれに対し、点灯、消灯の制御および発光輝度の制御を行う。右バックライト205及び左バックライト206は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体であり、レーザー光源やランプを用いて構成してもよい。   The display control unit 170 transmits a control signal to each of the image generation units 20R and 20L included in the virtual image display device 1. The right backlight control unit 201 and the left backlight control unit 202 control lighting on / off and light emission luminance for the right backlight 205 and the left backlight 206, respectively, in accordance with a control signal received from the display control unit 170. I do. The right backlight 205 and the left backlight 206 are, for example, light emitters such as LEDs and electroluminescence (EL), and may be configured using a laser light source or a lamp.

画像生成部20R、20Lは、それぞれ、表示制御部170から受信する制御信号に従って、右バックライト205、左バックライト206、右LCD241、及び左LCD242の駆動のオン/オフを切り替える。従って、表示制御部170の制御により、画像生成部20におけるバックライトの点灯/消灯や画像の表示が制御される。   The image generation units 20R and 20L switch driving of the right backlight 205, the left backlight 206, the right LCD 241 and the left LCD 242 according to control signals received from the display control unit 170, respectively. Accordingly, the display controller 170 controls the backlight on / off and the image display in the image generator 20.

音声処理部187は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、オーディオケーブルCOにより右イヤホン33及び左イヤホン34に出力する。
また、音声処理部187は、マイク63により集音された音声をディジタルデータに変換する。音声処理部187は、ディジタル音声データから特徴を抽出してモデル化することにより、例えば話者認識処理や音声認識処理を実行する。話者認識処理では、マイク63が集音する音声から人間の声を検出し、検出した人間の声を人毎に識別して、声ごとに話している人間を特定する。また、音声認識処理では、例えば、マイク63が集音した音声をテキストに変換するテキスト変換を行う。
The audio processing unit 187 acquires an audio signal included in the content, amplifies the acquired audio signal, and outputs the amplified audio signal to the right earphone 33 and the left earphone 34 through the audio cable CO.
Also, the voice processing unit 187 converts the voice collected by the microphone 63 into digital data. The voice processing unit 187 executes speaker recognition processing and voice recognition processing, for example, by extracting features from digital voice data and modeling them. In the speaker recognition process, a human voice is detected from the sound collected by the microphone 63, the detected human voice is identified for each person, and the person who is speaking for each voice is specified. In the voice recognition process, for example, text conversion is performed to convert voice collected by the microphone 63 into text.

虚像表示装置1の各部はインターフェイス28を介して制御部140に接続する。インターフェイス28は、ケーブルCB、及び、ケーブルCBを接続するコネクター等で構成され、ケーブルCBに代えて無線通信回線により構成してもよい。インターフェイス28は、送信部131により送信されるクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、画像データDataを、対応する受信部(Rx)133、134に出力する。また、インターフェイス28は、表示制御部170が送信する制御信号を、受信部133、134に出力する。
また、インターフェイス28は、ステレオカメラ231の撮像画像を制御部140に出力し、制御部140が送出するLED233の駆動信号を、LED233に出力する。これにより、LED233は、制御部140の制御に従って点灯及び消灯する。
また、インターフェイス28は、発光部81を構成するLED81A、81B、81C、81D(図2)を、制御部140に接続する。制御部140が発光部81の駆動信号を出力すると、インターフェイス28を介してLED81A、81B、81C、81Dのそれぞれに駆動信号が入力され、LED81A、81B、81C、81Dは制御部140の制御により点灯及び消灯する。
なお、虚像表示装置1は、インターフェイス28にLED233及びLED81A、81B、81C、81Dを接続する構成に限定されない。例えば、制御部140の制御に従って、LED233及びLED81A、81B、81C、81Dのそれぞれに対し、駆動電流、駆動パルス等を出力するドライバー回路(図示略)を備えてもよい。
本実施形態の発光部81は、4つのLED81A、81B、81C、81Dを同時に点灯、及び消灯させることができればよく、LED81A、81B、81C、81Dのそれぞれに対して個別に点灯、及び消灯させることが可能な構成は必須ではない。
Each unit of the virtual image display device 1 is connected to the control unit 140 via the interface 28. The interface 28 is configured by a cable CB, a connector for connecting the cable CB, and the like, and may be configured by a wireless communication line instead of the cable CB. The interface 28 outputs the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the image data Data transmitted by the transmission unit 131 to the corresponding reception units (Rx) 133 and 134. Further, the interface 28 outputs a control signal transmitted from the display control unit 170 to the reception units 133 and 134.
Further, the interface 28 outputs a captured image of the stereo camera 231 to the control unit 140 and outputs a drive signal of the LED 233 sent from the control unit 140 to the LED 233. As a result, the LED 233 is turned on and off under the control of the control unit 140.
Further, the interface 28 connects the LEDs 81 </ b> A, 81 </ b> B, 81 </ b> C, 81 </ b> D (FIG. 2) constituting the light emitting unit 81 to the control unit 140. When the control unit 140 outputs a drive signal for the light emitting unit 81, the drive signal is input to each of the LEDs 81 </ b> A, 81 </ b> B, 81 </ b> C, 81 </ b> D via the interface 28, and the LEDs 81 </ b> A, 81 </ b> B, 81 </ b> C, 81 </ b> D are turned on under the control of the control unit 140. And turn off.
The virtual image display device 1 is not limited to the configuration in which the LED 233 and the LEDs 81A, 81B, 81C, and 81D are connected to the interface 28. For example, a driver circuit (not shown) that outputs a drive current, a drive pulse, and the like may be provided for each of the LED 233 and the LEDs 81A, 81B, 81C, and 81D under the control of the control unit 140.
The light emitting unit 81 of the present embodiment only needs to be able to turn on and off the four LEDs 81A, 81B, 81C, and 81D at the same time, and individually turn on and off the LEDs 81A, 81B, 81C, and 81D. However, a configuration that can do this is not essential.

また、虚像表示装置1は、9軸センサー238を備える。9軸センサー238は、加速度(3軸)、角速度(3軸)、地磁気(3軸)を検出するモーションセンサー(慣性センサー)である。9軸センサー238はインターフェイス28を介して制御部140に接続する。制御部140は、虚像表示装置1が使用者の頭部に装着されているとき、9軸センサー238の検出値に基づいて使用者の頭部の動きを検出できる。9軸センサー238は、ステレオカメラ231の裏面に接着等により固定され、撮像部23が回動軸R1まわりに回動する場合に、撮像部23とともに回動する。
受信部133、134は、制御装置300と虚像表示装置1との間におけるシリアル伝送のためのレシーバーとして機能する。
Further, the virtual image display device 1 includes a 9-axis sensor 238. The 9-axis sensor 238 is a motion sensor (inertial sensor) that detects acceleration (3 axes), angular velocity (3 axes), and geomagnetism (3 axes). The 9-axis sensor 238 is connected to the control unit 140 via the interface 28. When the virtual image display device 1 is mounted on the user's head, the control unit 140 can detect the movement of the user's head based on the detection value of the 9-axis sensor 238. The 9-axis sensor 238 is fixed to the back surface of the stereo camera 231 by adhesion or the like, and rotates together with the imaging unit 23 when the imaging unit 23 rotates about the rotation axis R1.
The receiving units 133 and 134 function as receivers for serial transmission between the control device 300 and the virtual image display device 1.

HMD100は、虚像表示装置1を装着する使用者の視線方向に対応して、虚像表示装置1で表示する画像の表示態様を調整する機能を具備する。
図10は、HMD100の表示に係る制御の説明図であり、(A)はAR表示の例を示し、(B)は位置検出の様子を示す。
虚像表示装置1が備える表示部3は、使用者が外景を視認でき、かつ、導光部材313により画像を視認するシースルー型の表示装置である。HMD100は、使用者が表示部3を透過して外景を視認する場合に、外景と重なって視認される画像を表示する。この表示の一態様として、実空間である外景に関する情報を提供する、いわゆるAR効果を奏する画像(以下、AR画像という)を表示する。AR画像は、実空間に存在する対象物に関する情報を、対象物と重なって、或いは対象物と並ぶように表示される。AR画像を見ることで、使用者は、対象物と、対象物に関する各種の情報とを同時に見ることができる。AR画像の表示は、使用者にとって対象物が見える位置に合わせて表示するときにより効果的である。
The HMD 100 has a function of adjusting the display mode of an image displayed on the virtual image display device 1 in accordance with the line of sight of the user wearing the virtual image display device 1.
FIG. 10 is an explanatory diagram of the control related to the display of the HMD 100, (A) shows an example of AR display, and (B) shows a state of position detection.
The display unit 3 included in the virtual image display device 1 is a see-through display device that allows a user to visually recognize an outside scene and visually recognizes an image with the light guide member 313. When the user views the outside scene through the display unit 3, the HMD 100 displays an image that can be seen overlapping the outside scene. As an aspect of this display, an image (hereinafter referred to as an AR image) that provides information regarding an outside scene that is a real space and that exhibits a so-called AR effect is displayed. The AR image is displayed so that information on an object existing in the real space overlaps with the object or is aligned with the object. By viewing the AR image, the user can simultaneously view the object and various information related to the object. The display of the AR image is more effective when displaying in accordance with the position where the object can be seen by the user.

図10(A)には、実空間すなわち外景に存在する対象物OBに重なるように、画像AR1を表示する例を示す。図中のVRは使用者の視界を示す。この例では、対象物OBである自転車をHMD100が検出し、使用者が対象物OBを見る位置に合わせて画像AR1の表示位置を決めて、矢印形状の画像AR1を表示する。画像AR1の表示位置を決定するため、HMD100は、撮像部23で撮像を実行し、撮像画像から、対象物OBの画像を検出する。HMD100は、撮像画像における対象物OBの位置を特定し、撮像画像の位置と表示部3が画像を表示する表示領域の位置との対応関係に基づき、画像AR1の表示位置を決定する。   FIG. 10A shows an example in which the image AR1 is displayed so as to overlap the object OB existing in the real space, that is, the outside scene. VR in the figure indicates the field of view of the user. In this example, the HMD 100 detects the bicycle that is the object OB, determines the display position of the image AR1 according to the position where the user views the object OB, and displays the arrow-shaped image AR1. In order to determine the display position of the image AR1, the HMD 100 performs imaging with the imaging unit 23, and detects an image of the object OB from the captured image. The HMD 100 specifies the position of the object OB in the captured image, and determines the display position of the image AR1 based on the correspondence between the position of the captured image and the position of the display area where the display unit 3 displays the image.

すなわち、AR表示を行う場合、HMD100は、撮像部23で撮像を実行し、撮像画像から、対象物の画像を検出する。HMD100は、撮像画像における対象物の位置を特定し、撮像画像における位置と表示部3が画像を表示する表示領域における位置との対応関係に基づき、AR画像の表示位置を決定する。または、撮像画像に基づいて撮像部23に対する対象物の姿勢と距離(回転と並進)を推定し、後述のキャリブレーションデータ121に基づいて、使用者が仮想オブジェクトが当該対象物に重畳または位置合わせされて視認するように、仮想オブジェクトをレンダリングする。本実施形態では、レンダリングされた仮想オブジェクトがAR画像である。   That is, when performing AR display, the HMD 100 performs imaging with the imaging unit 23 and detects an image of the target object from the captured image. The HMD 100 identifies the position of the target object in the captured image, and determines the display position of the AR image based on the correspondence between the position in the captured image and the position in the display area where the display unit 3 displays the image. Alternatively, the posture and distance (rotation and translation) of the target with respect to the imaging unit 23 are estimated based on the captured image, and the user superimposes or aligns the virtual object on the target based on calibration data 121 described later. Render the virtual object to be viewed. In the present embodiment, the rendered virtual object is an AR image.

このように、AR画像を表示する場合は画像の表示位置に係る制御を要するので、制御部140は、撮像制御部181、位置検出制御部182、及びAR表示制御部183を備える。
撮像制御部181は、虚像表示装置1が備える撮像部23を制御して撮像を実行させ、撮像画像データを取得する。
AR表示制御部183は、撮像制御部181の機能により取得される撮像画像を解析し、撮像画像から対象物の画像を検出する。HMD100では、検出する対象物の画像について、形状、色彩などの特徴量に関するデータを記憶部120に記憶する。AR表示制御部183は、記憶部120に記憶したデータを用いて、撮像画像から対象物の画像を検出し、撮像画像における対象物の画像の位置を特定する。さらに、AR表示制御部183は、表示部3の表示領域、すなわち、導光部材313R、313Lにおいて画像光を使用者の眼に向けて反射する領域に対する画像AR1の位置を特定し、画像AR1を表示制御部170に表示させる。画像AR1の画像データは、インターフェイス125を介して取得するコンテンツデータ、記憶部120に記憶されたコンテンツデータ、または、AR表示制御部183がデータ処理により生成する画像データ等である。
As described above, when an AR image is displayed, control related to the display position of the image is required. Therefore, the control unit 140 includes an imaging control unit 181, a position detection control unit 182, and an AR display control unit 183.
The imaging control unit 181 controls the imaging unit 23 included in the virtual image display device 1 to execute imaging, and acquires captured image data.
The AR display control unit 183 analyzes the captured image acquired by the function of the imaging control unit 181 and detects an image of the target object from the captured image. In the HMD 100, data relating to a feature amount such as a shape and a color is stored in the storage unit 120 for an image of the object to be detected. The AR display control unit 183 uses the data stored in the storage unit 120 to detect the image of the target object from the captured image, and specifies the position of the target image in the captured image. Furthermore, the AR display control unit 183 specifies the position of the image AR1 with respect to the display region of the display unit 3, that is, the region that reflects the image light toward the user's eyes in the light guide members 313R and 313L, and displays the image AR1. It is displayed on the display control unit 170. The image data of the image AR1 is content data acquired via the interface 125, content data stored in the storage unit 120, image data generated by the AR display control unit 183 by data processing, or the like.

HMD100においては、表示部3における表示位置と撮像部23の撮像画像における位置とを対応付けるため、初期キャリブレーションが実行される。初期キャリブレーションは、使用者が虚像表示装置1を頭部に装着し、虚像表示装置1の装着位置や帯部222の止め具合等の調整を行い、ヘッドバンド部2と使用者の眼との相対位置が固定された後、この位置に適合するように行われる。   In the HMD 100, initial calibration is executed to associate the display position on the display unit 3 with the position in the captured image of the imaging unit 23. In the initial calibration, the user wears the virtual image display device 1 on the head, adjusts the mounting position of the virtual image display device 1 and the fastening state of the band 222, and the like, and the headband unit 2 and the user's eyes are adjusted. After the relative position is fixed, this is done to fit this position.

初期キャリブレーションには、種々の方法があるが、例えば、本実施形態では、次のようなステップを実行する。
(I)眼間距離:
制御部140が、表示部3における2つの光学装置に、同一のキャリブレーション用画像を表示させる。そうすると、表示部3を掛ける使用者は、左右の眼を介して、キャリブレーション用画像を視認する。そこで、使用者は、ユーザーインターフェイス(トラックパッドなど)を介して制御部140に指示を与えることで、2つのキャリブレーション用画像が一致して視認できるように、表示された2つのキャリブレーション用画像の少なくとも一方を他方に対して相対移動させる。2つのキャリブレーション用画像を一致して視認したタイミングで、使用者はユーザーインターフェイスを介して制御部140に通知する。制御部140は、その通知に応じて、当該タイミングでの2つのキャリブレーション用画像の光学装置に対する位置に基づき、画像処理部160に画像の光学装置上での表示位置を調整させる。このことにより、眼間距離に対応した表示部3のキャリブレーションができる。
There are various methods for the initial calibration. For example, in the present embodiment, the following steps are executed.
(I) Interocular distance:
The control unit 140 displays the same calibration image on the two optical devices in the display unit 3. Then, the user who wears the display unit 3 visually recognizes the calibration image through the left and right eyes. Therefore, the user gives instructions to the control unit 140 via a user interface (such as a trackpad) so that the two calibration images displayed can be viewed in a consistent manner. At least one of them is moved relative to the other. The user notifies the control unit 140 via the user interface at the timing when the two calibration images are viewed with matching. In response to the notification, the control unit 140 causes the image processing unit 160 to adjust the display position of the image on the optical device based on the position of the two calibration images with respect to the optical device at the timing. Thereby, calibration of the display unit 3 corresponding to the interocular distance can be performed.

(II)ARオブジェクトと実物体との位置合わせ:
上記(I)により眼間距離についてのキャリブレーションがされた後で、制御部140が、表示部3の中央にキャリブレーション用画像(例えば仮想2Dマーカー)を固定して表示させる。また、制御部140は、キャリブレーション用画像に対応した参照実物体(例えば、仮想2Dマーカーに相似で、大きさが既知の2Dマーカー)を、撮像部23を介して撮像し、その特徴点に基づいて、撮像部23に対する参照実物体の回転、並進を検出する。使用者は、頭部を動かし、キャリブレーション用画像を参照実物体にアライン(位置、大きさ、向きを一致)させ、アラインしたタイミングで制御部140に通知する。このとき、表示部3と参照用実物体との間の回転、並進が既定の関係になる。制御部140は、上記通知の当該タイミングでの参照実物体の撮像画像における位置情報を取得し、ARオブジェクトと実物体とを重ねて表示するためのパラメーター(キャリブレーションデータ121)を、その使用者用にカスタマイズする。キャリブレーションデータ121は、表示部3に対する撮像部23の回転と並進を表すパラメーターを含む。
(II) Alignment of AR object and real object:
After calibrating the interocular distance according to (I) above, the control unit 140 fixes and displays a calibration image (for example, a virtual 2D marker) at the center of the display unit 3. In addition, the control unit 140 captures an image of a reference real object corresponding to the calibration image (for example, a 2D marker that is similar to the virtual 2D marker and has a known size) via the image capturing unit 23, and uses it as a feature point. Based on this, the rotation and translation of the reference real object with respect to the imaging unit 23 are detected. The user moves the head, aligns the calibration image with the reference real object (the position, size, and orientation match), and notifies the control unit 140 at the aligned timing. At this time, the rotation and translation between the display unit 3 and the reference real object are in a predetermined relationship. The control unit 140 acquires position information in the captured image of the reference real object at the timing of the notification, and displays a parameter (calibration data 121) for displaying the AR object and the real object in an overlapping manner. Customize for. The calibration data 121 includes parameters representing rotation and translation of the imaging unit 23 with respect to the display unit 3.

この結果、HMD100において、使用者の視野と表示部3の表示領域との対応付け、及び、表示部3の表示領域と撮像部23の撮像画像との対応付けがなされるので、その後は、AR表示制御部183が、撮像部23の撮像画像を利用してAR表示を行う。すなわち、位置検出制御部182は、キャリブレーションデータ121を用いて表示位置を調整することで、例えば図10(A)に示すように、使用者に、対象物の位置に合わせて画像AR1を視認させることができる。   As a result, in the HMD 100, the user's field of view and the display area of the display unit 3 are associated, and the display area of the display unit 3 and the captured image of the imaging unit 23 are associated. The display control unit 183 performs AR display using the captured image of the imaging unit 23. That is, the position detection control unit 182 adjusts the display position using the calibration data 121 so that the user can visually recognize the image AR1 in accordance with the position of the target object, for example, as illustrated in FIG. Can be made.

ところで、上述したように、撮像部23は、回動軸R1により回動可能にヘッドバンド部2に設けられる。また、表示部3は、回動軸R2、及び移動機構5を介してヘッドバンド部2に取り付けられる。従って、撮像部23と表示部3とは、3つの可動部である回動軸部236、回動軸部25、及び移動機構5によって、相対位置が変化するように連結され、支持される。これらは本発明の連結部に相当する。また、これらの連結部は、撮像部23と表示部3とのうち一方を他方に支持する支持部として機能する。   Incidentally, as described above, the imaging unit 23 is provided in the headband unit 2 so as to be rotatable about the rotation axis R1. The display unit 3 is attached to the headband unit 2 via the rotation axis R <b> 2 and the moving mechanism 5. Therefore, the imaging unit 23 and the display unit 3 are connected and supported by the three movable parts, which are the rotation shaft part 236, the rotation shaft part 25, and the movement mechanism 5 so that the relative position changes. These correspond to the connecting portion of the present invention. Moreover, these connection parts function as a support part which supports one side among the imaging part 23 and the display part 3 to the other.

3つの可動部である回動軸部236、回動軸部25、及び移動機構5における変位が発生すると、撮像部23と表示部3との相対位置が変化する。この種の動きは、例えば、使用者が表示部3の見え方を再調整するために表示部3を回動軸R2まわりに動かす場合に発生する。また、使用者が、表示部3を視界(視野)から退避させるためにRA方向に動かし、その後、表示部3をRB方向に戻す場合も、表示部3が退避前と全く同じ位置に戻されるとは限らない。さらに、撮像部23の撮像範囲の調整のために、使用者が撮像部23を動かす可能性もある。   When displacement occurs in the rotation shaft portion 236, the rotation shaft portion 25, and the moving mechanism 5 that are the three movable portions, the relative position between the imaging unit 23 and the display unit 3 changes. This type of movement occurs, for example, when the user moves the display unit 3 around the rotation axis R2 in order to readjust the appearance of the display unit 3. Further, when the user moves the display unit 3 in the RA direction to retract the display unit 3 from the field of view (field of view) and then returns the display unit 3 to the RB direction, the display unit 3 is returned to the same position as before the retraction. Not necessarily. Furthermore, the user may move the imaging unit 23 to adjust the imaging range of the imaging unit 23.

上記可動部における動きにより、撮像部23と表示部3との相対位置が変化すると、初期キャリブレーションで対応付けられた位置関係から逸脱する。このため、AR表示を行う場合に、AR用の画像(例えば、画像AR1)を適切な表示位置に表示できない可能性がある。   When the relative position between the imaging unit 23 and the display unit 3 changes due to the movement in the movable unit, the positional relationship associated with the initial calibration deviates. For this reason, when AR display is performed, there is a possibility that an AR image (for example, the image AR1) cannot be displayed at an appropriate display position.

そこで、虚像表示装置1は、発光部81を利用して、撮像部23と表示部3との相対位置の変化を検出し、キャリブレーションデータ121を補正することにより、表示部3における画像の表示位置を適正に維持する。   Therefore, the virtual image display device 1 uses the light emitting unit 81 to detect a change in the relative position between the imaging unit 23 and the display unit 3 and correct the calibration data 121 to display an image on the display unit 3. Maintain position properly.

図11は、HMD100の動作を示すフローチャートであり、発光部81を利用したキャリブレーションに係る動作を示す。
制御部140は、キャリブレーションの実行条件の成立に対し待機する(ステップST11)。キャリブレーションの実行条件は、例えば、トラックパッド302に対する操作が挙げられるが、9軸センサー238が閾値を超えるヘッドバンド部2の動きを検出した場合としてもよい。具体的には、9軸センサー238により、ヘッドバンド部2の着脱、ヘッドバンド部2への衝撃などを検出したことを実行条件としてもよい。制御部140は、HMD100の電源がオンの間、或いはHMD100によりAR画像を表示する間、キャリブレーションの実行条件が成立しなければ待機する(ステップST11;No)。
FIG. 11 is a flowchart showing the operation of the HMD 100, and shows the operation related to calibration using the light emitting unit 81.
The control unit 140 stands by for establishment of the calibration execution condition (step ST11). The calibration execution condition includes, for example, an operation on the track pad 302, but may be a case where the 9-axis sensor 238 detects a movement of the headband unit 2 exceeding a threshold value. Specifically, the execution condition may be that the 9-axis sensor 238 detects the attachment / detachment of the headband unit 2 or the impact to the headband unit 2. The control unit 140 waits while the calibration execution condition is not satisfied while the HMD 100 is powered on or displays the AR image by the HMD 100 (step ST11; No).

実行条件が成立した場合(ステップST11;Yes)、制御部140は、トラックパッド302等に対する操作に対応して、キャリブレーションを開始し(ステップST12)、発光部81を点灯させる(ステップST13)。ここで、制御部140は、撮像部23による撮像を実行させて、撮像部23による撮像画像データを取得する(ステップST14)。   When the execution condition is satisfied (step ST11; Yes), the control unit 140 starts calibration in response to an operation on the track pad 302 or the like (step ST12) and turns on the light emitting unit 81 (step ST13). Here, the control unit 140 executes imaging by the imaging unit 23 and acquires captured image data by the imaging unit 23 (step ST14).

上述したように、表示部3には、4つのLED81A、81B、81C、81Dを有する発光部81が配置され、ぞれぞれのLED81A、81B、81C、81Dが発する光は、ほぼ直進する。   As described above, the light emitting unit 81 having the four LEDs 81A, 81B, 81C, and 81D is disposed on the display unit 3, and the light emitted from each of the LEDs 81A, 81B, 81C, and 81D travels substantially straight.

図10(B)には発光部81を点灯してキャリブレーションを行う状態を示す。
HMD100のキャリブレーションでは、使用者が、HMD100を固定平面S(対象物)に正対させる。固定平面Sは壁面であってもよいし、虚像表示装置1の正面に対し多少の傾きがあってもよい。また、固定平面Sは硬質な平面でなくてもよく、幕であってもよい。また、キャリブレーションに用いる対象物は、少なくとも、LED81A、81B、81C、81Dが発する光LA、LB、LC、LDを反射できる平面を有するものであればよい。従って、固定平面Sのように大きな平面に制限されず、例えば、箱状の対象物の一側面を、固定平面Sと同様に使用することも可能である。後述するように、HMD100は、固定平面Sに光を投射するが、固定平面Sは鏡面のように光を反射する面に限定されない。固定平面S上において、投射された光を撮像部23の撮像画像から検出できればよい。固定平面S等の対象物にHMD100が投射した光が、対象物上で視認され或いは撮像画像において検出可能な場合に、この対象物上の光を、反射光と呼ぶ。
FIG. 10B shows a state in which calibration is performed by turning on the light emitting unit 81.
In the calibration of the HMD 100, the user faces the HMD 100 directly to the fixed plane S (object). The fixed plane S may be a wall surface or may have a slight inclination with respect to the front surface of the virtual image display device 1. Further, the fixed plane S may not be a hard plane but may be a curtain. In addition, the object used for the calibration only needs to have at least a plane that can reflect the light LA, LB, LC, and LD emitted from the LEDs 81A, 81B, 81C, and 81D. Therefore, it is not limited to a large plane like the fixed plane S. For example, one side surface of a box-like object can be used in the same manner as the fixed plane S. As will be described later, the HMD 100 projects light onto the fixed plane S, but the fixed plane S is not limited to a plane that reflects light, such as a mirror surface. It is sufficient that the projected light can be detected from the captured image of the imaging unit 23 on the fixed plane S. When the light projected by the HMD 100 onto an object such as the fixed plane S is visible on the object or can be detected in the captured image, the light on the object is called reflected light.

図10(B)の状態を実現するため、制御部140は、ステップST13で発光部81を点灯する際に、表示制御部170により案内用の画像を表示させて、発光部81の光を、キャリブレーションに用いる平面に向けるように案内をしてもよい。この場合、制御部140は、使用者の制御装置300への操作により、或いは、撮像部23の撮像画像に基づき、発光部81の反射光を撮像部23で撮像できる状態になったと判定してから、撮像部23による撮像画像データを取得すればよい。   In order to realize the state of FIG. 10B, the control unit 140 causes the display control unit 170 to display a guide image when the light emitting unit 81 is turned on in step ST13, and the light of the light emitting unit 81 is changed. You may guide so that it may point to the plane used for calibration. In this case, the control unit 140 determines that the reflected light of the light emitting unit 81 can be captured by the imaging unit 23 based on the user's operation on the control device 300 or based on the captured image of the imaging unit 23. Therefore, the imaged image data obtained by the imaging unit 23 may be acquired.

図10(B)に示すように、LED81A、81B、81C、81Dが発する光LA、LB、LC、LDは、固定平面Sに反射して4つの反射光による像LPA、LPB、LPC、LPDを形成する。本実施形態では像LPA、LPB、LPC、LPDを、4つの光点で形成される一種の図形(パターン)と見ることができ、この図形が位置検出用のパターンとして機能する。   As shown in FIG. 10B, the light beams LA, LB, LC, and LD emitted from the LEDs 81A, 81B, 81C, and 81D are reflected on the fixed plane S, and the images LPA, LPB, LPC, and LPD formed by the four reflected lights are obtained. Form. In this embodiment, the images LPA, LPB, LPC, LPD can be viewed as a kind of figure (pattern) formed by four light spots, and this figure functions as a position detection pattern.

また、撮像部23は、LED81A、81B、81C、81Dが光LA、LB、LC、LDを照射する方向を撮像できる構成である。
撮像部23はヘッドバンド部2に対し回動軸R1まわりに回動可能に設けられる。また、LED81A、81B、81C、81Dは表示部3に固定的に設けられる。このため、撮像部23の撮像範囲Aは、LED81A、81B、81C、81Dの光の照射方向に対し、回動軸R1、R2及び移動機構5の各可動部の動きによって変化する。撮像部23は、可動部の動きにより変化する範囲の少なくとも一部で、撮像範囲Aに、LED81A、81B、81C、81Dが光LA、LB、LC、LDを照射する方向を含む。言い換えれば、可動部を動かすことで、LED81A、81B、81C、81Dが光LA、LB、LC、LDを照射する方向が、撮像部23の撮像範囲Aから外れることがあってもよい。この場合、キャリブレーションを実行できないが、制御部140は、撮像部23の向きが適正でない旨を表示部3の表示等により使用者に報知すればよい。
Moreover, the imaging part 23 is a structure which can image the direction which LED81A, 81B, 81C, 81D irradiates light LA, LB, LC, LD.
The imaging unit 23 is provided so as to be rotatable around the rotation axis R <b> 1 with respect to the headband unit 2. Further, the LEDs 81A, 81B, 81C, 81D are fixedly provided on the display unit 3. For this reason, the imaging range A of the imaging unit 23 varies depending on the movements of the rotation axes R1 and R2 and the movable units of the moving mechanism 5 with respect to the light irradiation direction of the LEDs 81A, 81B, 81C, and 81D. The imaging unit 23 is at least a part of a range that is changed by the movement of the movable unit, and the imaging range A includes directions in which the LEDs 81A, 81B, 81C, and 81D irradiate the light LA, LB, LC, and LD. In other words, the direction in which the LEDs 81A, 81B, 81C, and 81D irradiate the light LA, LB, LC, and LD may deviate from the imaging range A of the imaging unit 23 by moving the movable unit. In this case, although calibration cannot be performed, the control unit 140 may notify the user that the orientation of the imaging unit 23 is not appropriate by displaying the display unit 3 or the like.

制御部140は、撮像部23により像LPA、LPB、LPC、LPDが形成された範囲を撮像させ、撮像画像データを解析する。制御部140は、撮像画像から像LPA、LPB、LPC、LPDを検出して、それぞれの像LPA、LPB、LPC、LPDの位置に基づき、表示部3と撮像部23との相対位置を検出する。具体的には、制御部140は、LPA−LPC間、LPB−LPD間、LPA−LPB間、LPC−LPD間のそれぞれの距離を求める。また、LPA−LPD間、LPB−LPC間の距離を求めてもよい。制御部140が求める距離は、例えば、撮像画像における距離である。制御部140は、求めた各距離の大きさに基づいて撮像部23から固定平面Sまでの距離を算出する。また、制御部140は、求めた各距離の比から、撮像部23に対する固定平面Sの相対的な傾きを求める。そして、これらの情報に基づいて、制御部140は、表示部3に対する撮像部23の相対位置、及び、相対的な傾きの少なくともいずれかを求めることができる。   The control unit 140 causes the imaging unit 23 to capture the range in which the images LPA, LPB, LPC, and LPD are formed, and analyzes the captured image data. The control unit 140 detects the images LPA, LPB, LPC, and LPD from the captured image, and detects the relative position between the display unit 3 and the imaging unit 23 based on the positions of the images LPA, LPB, LPC, and LPD. . Specifically, the control unit 140 obtains respective distances between LPA and LPC, between LPB and LPD, between LPA and LPB, and between LPC and LPD. Further, the distance between LPA and LPD and between LPB and LPC may be obtained. The distance which the control part 140 calculates | requires is a distance in a captured image, for example. The control unit 140 calculates the distance from the imaging unit 23 to the fixed plane S based on the obtained distance magnitudes. Further, the control unit 140 obtains the relative inclination of the fixed plane S with respect to the imaging unit 23 from the obtained ratio of each distance. Based on these pieces of information, the control unit 140 can obtain at least one of the relative position and the relative inclination of the imaging unit 23 with respect to the display unit 3.

制御部140は、上述したように、撮像画像から光LA、LB、LC、LDの反射光による像LPA、LPB、LPC、LPDを検出して解析を行い(ステップST15)、解析データを取得する(ステップST16)。この解析データは、表示部3に対する撮像部23の相対位置、及び、相対的な傾きの少なくともいずれかを含む。   As described above, the control unit 140 detects and analyzes the images LPA, LPB, LPC, and LPD by the reflected light of the light LA, LB, LC, and LD from the captured image (step ST15), and acquires analysis data. (Step ST16). This analysis data includes at least one of a relative position of the imaging unit 23 with respect to the display unit 3 and a relative inclination.

ステップST16で解析データを取得した後、制御部140は、取得したデータを、既に記憶部120に記憶しているキャリブレーションデータ121と比較する(ステップST17)。制御部140は比較結果の判定を行い(ステップST18)、閾値以上の差異がある場合は(ステップST18;Yes)、キャリブレーションデータ121を更新するとともに、現在表示している画像があれば、その表示位置を調整する(ステップST19)。または、本実施形態では、制御部140は、上記差異に基づき、撮像部23と左眼用光学装置におけるスクリーンとの間での回転および並進の少なくとも一方を表すパラメーター、撮像部23と右眼用光学装置におけるスクリーンとの間での回転および並進の少なくとも一方を表すパラメーターを補正することでキャリブレーションデータ121を補正する。この場合、本実施形態では、左右のそれぞれのスクリーンの中心は、左眼用・右眼用光学装置が有するそれぞれのハーフミラーの曲面上または平面上に位置し中心に一致し、かつ、それらスクリーンは左眼用・右眼用光学装置のそれぞれの光軸を法線とするそれぞれのXY平面で規定されている。制御部140は、補正後のキャリブレーションデータ121により、記憶部120に記憶されたキャリブレーションデータ121を更新する。また、ステップST16で取得したデータが示す撮像部23と表示部3との位置関係が、既に記憶されているキャリブレーションデータ121と、閾値以上の差異を有さない場合(ステップST18;No)、制御部140は本処理を終了する。
なお、本処理を終了した後、制御部140は、再びステップST11で実行条件の成立を監視すれば良い。
After acquiring the analysis data in step ST16, the control unit 140 compares the acquired data with the calibration data 121 already stored in the storage unit 120 (step ST17). The control unit 140 determines the comparison result (step ST18), and if there is a difference equal to or greater than the threshold (step ST18; Yes), the calibration data 121 is updated and if there is an image currently displayed, The display position is adjusted (step ST19). Alternatively, in the present embodiment, the control unit 140, based on the above difference, is a parameter that represents at least one of rotation and translation between the imaging unit 23 and the screen in the left-eye optical device, the imaging unit 23 and the right-eye use. The calibration data 121 is corrected by correcting a parameter representing at least one of rotation and translation with respect to the screen in the optical device. In this case, in this embodiment, the centers of the left and right screens are located on the curved surfaces or planes of the respective half mirrors of the left-eye and right-eye optical devices and coincide with the centers. Are defined by respective XY planes having respective optical axes of the left-eye and right-eye optical devices as normals. The control unit 140 updates the calibration data 121 stored in the storage unit 120 with the corrected calibration data 121. Further, when the positional relationship between the imaging unit 23 and the display unit 3 indicated by the data acquired in step ST16 does not have a difference equal to or greater than the threshold value with the already stored calibration data 121 (step ST18; No), The control unit 140 ends this process.
In addition, after complete | finishing this process, the control part 140 should just monitor establishment of execution conditions in step ST11 again.

HMD100は、図11のステップST12〜ST16の処理を実行する場合、事前に、発光部240の発光により形成される平面図形の内部座標、すなわち、LED81A、81B、81C、81Dが発する光の配置に関するデータを、記憶部120に記憶する。このデータは、LED81A、81B、81C、81Dのそれぞれの位置、または、これらLEDが発する光の位置について、予め設定される平面座標系における座標として規定するデータである。或いは、HMD100は、LED81A、81B、81C、81Dが発する光が、発光部81の真正面に対向する固定平面Sに反射した場合の像LPA、LPB、LPC、LPDが形成する平面図形について、この平面図形に含まれる特徴点の位置を平面座標系における座標として規定するデータを記憶する。また、虚像表示装置1は、ステレオカメラ231のカメラパラメーターを含むデータを、記憶部120に記憶する。カメラパラメーターは、例えば、焦点距離、センサー(撮像素子)の位置、センサーの水平・垂直方向のそれぞれの画素密度等を含む。   When the HMD 100 executes the processes of steps ST12 to ST16 in FIG. 11, it relates to the internal coordinates of the plane figure formed by the light emission of the light emitting unit 240 in advance, that is, the arrangement of the light emitted from the LEDs 81A, 81B, 81C, 81D. Data is stored in the storage unit 120. This data is data that prescribes the positions of the LEDs 81A, 81B, 81C, 81D or the positions of light emitted by these LEDs as coordinates in a preset plane coordinate system. Alternatively, the HMD 100 uses the plane figure formed by the images LPA, LPB, LPC, and LPD when the light emitted from the LEDs 81A, 81B, 81C, and 81D is reflected by the fixed plane S facing the front face of the light emitting unit 81. Data that defines the position of the feature point included in the figure as coordinates in the plane coordinate system is stored. Further, the virtual image display device 1 stores data including the camera parameters of the stereo camera 231 in the storage unit 120. The camera parameters include, for example, the focal length, the position of the sensor (imaging device), the pixel density in the horizontal and vertical directions of the sensor, and the like.

平面図形の特徴点の配置に関するデータを用いることで、固定平面Sを撮像した撮像画像から、固定平面Sに反射した像LPA、LPB、LPC、LPD(特徴点)の位置を検出できる。かつ、これらの特徴点である像LPA、LPB、LPC、LPDの座標を利用して、ホモグラフィー法によって、像LPA、LPB、LPC、LPDが構成する図形に対する撮像部23の回転・並進を表すパラメーター(回転行列、並進ベクトル)を導出することができる。このパラメーターをパラメーターPA1とする。   By using the data related to the arrangement of the feature points of the plane figure, the positions of the images LPA, LPB, LPC, LPD (feature points) reflected on the fixed plane S can be detected from the captured image obtained by imaging the fixed plane S. In addition, by using the coordinates of the images LPA, LPB, LPC, LPD, which are these feature points, the rotation / translation of the imaging unit 23 with respect to the figure formed by the images LPA, LPB, LPC, LPD is represented by the homography method. Parameters (rotation matrix, translation vector) can be derived. This parameter is defined as parameter PA1.

また、HMD100は、平面図形に対する表示部3の回転・並進に関するパラメーターPA2を取得する。そして、パラメーターPA1、PA2を用いることで、表示部3に対する撮像部23の回転・並進すなわち相対的位置関係を導出(補正)することができる。   In addition, the HMD 100 acquires a parameter PA2 relating to rotation / translation of the display unit 3 with respect to a planar figure. By using the parameters PA1 and PA2, the rotation / translation, that is, the relative positional relationship of the imaging unit 23 with respect to the display unit 3 can be derived (corrected).

パラメーターPA2を取得する方法は、例えば、次の通りである。
パラメーターPA2の回転に関する成分は、HMD100が表示部3の表示により、使用者に対し、平面図形を映している平面(例えば、図10(B)の固定平面S)と表示部3とが平行になるように、平面の前に立つように促すことで、ゼロと見なすことができる。壁などの平面は重力方向に平行に立っており、人間も垂直に立つことから、使用者が装着する表示部3が平面の真正面に正対すると考えてよいので、回転成分はないと見なせるからである。
パラメーターPA2の並進(距離)に関する成分は、平面(例えば、図10(B)の固定平面S)と、使用者が装着する表示部3との間の距離が、予め設定された距離であれば、この距離に基づき算出できる。
上記は、キャリブレーションデータ121を補正するパラメーターを求めるための動作の一例であるが、例えば上記のようにして、HMD100は、キャリブレーションデータ121を適切に補正できる。
The method for obtaining the parameter PA2 is, for example, as follows.
The component related to the rotation of the parameter PA2 is such that the plane on which the HMD 100 displays a plane figure (for example, the fixed plane S in FIG. 10B) and the display unit 3 are parallel to the user by the display unit 3 displaying. As you can see, it can be considered zero by prompting you to stand in front of a plane. Since a plane such as a wall stands parallel to the direction of gravity, and a human also stands vertically, it can be considered that the display unit 3 worn by the user faces directly in front of the plane, so it can be considered that there is no rotation component. It is.
The component related to translation (distance) of the parameter PA2 is that the distance between the plane (for example, the fixed plane S in FIG. 10B) and the display unit 3 worn by the user is a preset distance. , Based on this distance.
The above is an example of an operation for obtaining a parameter for correcting the calibration data 121. For example, as described above, the HMD 100 can appropriately correct the calibration data 121.

以上説明したように、本発明を適用したHMD100は、外景を視認可能に、画像を表示する表示部3を備える。HMD100は、表示部3を通して視認される範囲に重なる撮像範囲を撮像する撮像部23を備える。HMD100は、少なくとも1つの可動部を有し、撮像部23を表示部3に連結する連結部と、表示部3に対して固定的に設けられた複数の発光部81(LED81A、81B、81C、81D)とを有する。LED81A、81B、81C、81Dは所定パターンを含む光を発し、撮像部23の撮像範囲に位置する対象物にLED81A、81B、81C、81Dの光が投射された場合に、対象物上の光を撮像部23で撮像可能である。このため、図10(B)に示したように、発光部81が発する光LA、LB、LC、LDが対象物に投射された場合に、この対象物上の光を撮像部23で撮像し、撮像画像を利用して、表示部に対する撮像部23の相対位置や相対方向等を検出できる。
また、HMD100では、可動部により撮像部23の撮像方向が変化する範囲の少なくとも一部において、撮像部23の撮像範囲Aに、発光部が光を発する方向を含む。
As described above, the HMD 100 to which the present invention is applied includes the display unit 3 that displays an image so that an outside scene can be visually recognized. The HMD 100 includes an imaging unit 23 that captures an imaging range that overlaps a range visually recognized through the display unit 3. The HMD 100 includes at least one movable part, a connecting part that connects the imaging part 23 to the display part 3, and a plurality of light emitting parts 81 (LEDs 81A, 81B, 81C, 81D). The LEDs 81A, 81B, 81C, 81D emit light including a predetermined pattern, and when the light of the LEDs 81A, 81B, 81C, 81D is projected onto the object located in the imaging range of the imaging unit 23, the light on the object is emitted. Imaging can be performed by the imaging unit 23. For this reason, as shown in FIG. 10B, when the light LA, LB, LC, and LD emitted from the light emitting unit 81 are projected onto the object, the light on the object is imaged by the imaging unit 23. By using the captured image, it is possible to detect the relative position and relative direction of the imaging unit 23 with respect to the display unit.
Further, in the HMD 100, at least a part of the range in which the imaging direction of the imaging unit 23 is changed by the movable unit includes the direction in which the light emitting unit emits light in the imaging range A of the imaging unit 23.

また、発光部81は、LED81A、81B、81C、81Dが発する光LA、LB、LC、LDにより所定パターンを形成する。この所定パターンは、例えば、位置検出用あるいは位置調整用のパターンである。撮像部23の撮像範囲Aに位置する対象物としての固定平面Sに光LA、LB、LC、LDが投射された場合に、固定平面S上の上記光が形成する像を撮像部23で撮像できる。この光は、例えば固定平面Sで反射した反射光である。制御部140は、撮像画像から光の像を検出して解析を行うことで、表示部3に対する撮像部23の相対位置関係、または相対位置関係の変化を検出できる。   Further, the light emitting unit 81 forms a predetermined pattern by the light LA, LB, LC, and LD emitted from the LEDs 81A, 81B, 81C, and 81D. This predetermined pattern is, for example, a pattern for position detection or position adjustment. When the light LA, LB, LC, and LD are projected onto the fixed plane S as an object located in the imaging range A of the imaging unit 23, the imaging unit 23 captures an image formed by the light on the fixed plane S. it can. This light is, for example, reflected light reflected by the fixed plane S. The control unit 140 can detect a light image from the captured image and perform analysis to detect a relative positional relationship of the imaging unit 23 with respect to the display unit 3 or a change in the relative positional relationship.

また、発光部81は、複数の光源としてのLED81A、81B、81C、81Dを備え、これらLED81A、81B、81C、81Dが発する光により位置検出用のパターンが形成される。このため、撮像部23により、表示部3に対する撮像部23の相対位置や相対方向等を高精度で検出可能な撮像画像を得ることができる。   The light emitting unit 81 includes LEDs 81A, 81B, 81C, and 81D as a plurality of light sources, and a pattern for position detection is formed by the light emitted from the LEDs 81A, 81B, 81C, and 81D. For this reason, the imaging unit 23 can obtain a captured image that can detect the relative position and relative direction of the imaging unit 23 with respect to the display unit 3 with high accuracy.

なお、発光部81が備える光源の数は4個に限定されない。2つ或いは3つの光源を備えてもよいし、5以上の光源を備えてもよい。さらに、複数のLED81A、81B、81C、81Dのそれぞれが発する光により位置検出用のパターンを形成する構成に限定されない。例えば、光源が発する光を変調することで、位置検出用のパターンを照射できる構成としてもよい。この例について第2、第3実施形態として説明する。   The number of light sources provided in the light emitting unit 81 is not limited to four. Two or three light sources may be provided, or five or more light sources may be provided. Further, the present invention is not limited to a configuration in which a position detection pattern is formed by light emitted from each of the plurality of LEDs 81A, 81B, 81C, 81D. For example, it is good also as a structure which can irradiate the pattern for position detection by modulating the light which a light source emits. This example will be described as second and third embodiments.

[第2実施形態]
図12は、本発明を適用した第2実施形態に係る虚像表示装置1Aの構成を示す斜視図である。また、図13は、HMD100Aの説明図であり、(A)は位置検出の様子を示し、(B)は虚像表示装置1Aが備えるプロジェクター82(発光部)の構成を示す。
第2実施形態は、後述するプロジェクター82に係る構成及び制御部140の動作を除き、第1実施形態と共通する構成及び機能を具備する。このため、第2実施形態の説明において、第1実施形態と同一の構成を有する各部には同符号を付し、同一の構成及び動作についての説明を省略する。
[Second Embodiment]
FIG. 12 is a perspective view showing a configuration of a virtual image display device 1A according to the second embodiment to which the present invention is applied. 13A and 13B are explanatory diagrams of the HMD 100A, in which FIG. 13A shows a state of position detection, and FIG. 13B shows a configuration of a projector 82 (light emitting unit) provided in the virtual image display device 1A.
The second embodiment has the same configuration and functions as those of the first embodiment except for the configuration related to the projector 82 described later and the operation of the control unit 140. For this reason, in description of 2nd Embodiment, the same code | symbol is attached | subjected to each part which has the same structure as 1st Embodiment, and description about the same structure and operation | movement is abbreviate | omitted.

虚像表示装置1Aは、上記第1実施形態で説明した虚像表示装置1が備える発光部81を排し、プロジェクター82を設けた構成である。
図12には、虚像表示装置1Aの構成を示す。この図12に示すように、虚像表示装置1Aは、表示部3に、プロジェクター82を備える。プロジェクター82は、表示部3に固定的に設けられ、使用者が光学装置31を通して視認する外景の方向に、画像光を投射する。プロジェクター82は、表示部3において前面側に配置されていればよく、図12には表示部3の右側端部においてカバー部材311に埋設された例を示す。例えば、プロジェクター82を表示部3の左側端部に設けてもよい。
The virtual image display device 1A has a configuration in which the light emitting unit 81 included in the virtual image display device 1 described in the first embodiment is omitted and a projector 82 is provided.
FIG. 12 shows the configuration of the virtual image display device 1A. As illustrated in FIG. 12, the virtual image display device 1 </ b> A includes a projector 82 in the display unit 3. The projector 82 is fixedly provided on the display unit 3 and projects image light in the direction of the outside scene that the user visually recognizes through the optical device 31. The projector 82 only needs to be disposed on the front side of the display unit 3, and FIG. 12 shows an example in which the projector 82 is embedded in the cover member 311 at the right end of the display unit 3. For example, the projector 82 may be provided at the left end of the display unit 3.

図13(A)には、虚像表示装置1Aが発光駆動部83により画像光を投射する状態を示す。図13(A)の例では、虚像表示装置1Aが固定平面Sに対向する位置にあり、二次元コード化された位置調整用パターンP(所定パターン)をプロジェクター82によって固定平面Sに投射する。位置調整用パターンPは二次元コードに限定されず、撮像部23により位置調整用パターンPを撮像した撮像画像において、少なくとも複数の点を検出できればよい。従って、例えば第1実施形態で例示した4つの点からなるパターンを採用してもよい。   FIG. 13A shows a state in which the virtual image display device 1 </ b> A projects image light by the light emission drive unit 83. In the example of FIG. 13A, the virtual image display device 1A is at a position facing the fixed plane S, and a two-dimensionally encoded position adjustment pattern P (predetermined pattern) is projected onto the fixed plane S by the projector 82. The position adjustment pattern P is not limited to a two-dimensional code, and it is sufficient that at least a plurality of points can be detected in a captured image obtained by imaging the position adjustment pattern P by the imaging unit 23. Therefore, for example, a pattern composed of the four points exemplified in the first embodiment may be adopted.

プロジェクター82が位置調整用パターンPを構成する画像光を投射する方向と、撮像部23の撮像範囲Aとの関係は、第1実施形態で説明した通りである。すなわち、虚像表示装置1Aの可動部を動かすことで撮像部23の撮像範囲Aが変化する間において、少なくとも一部で、撮像範囲Aに固定平面Sが含まれればよい。言い換えれば、可動部を動かすことで、位置調整用パターンPが撮像部23の撮像範囲Aから外れることがあってもよい。この場合、キャリブレーションを実行できないが、制御部140は、撮像部23の向きが適正でない旨を表示部3の表示等により使用者に報知すればよい。   The relationship between the direction in which the projector 82 projects the image light constituting the position adjustment pattern P and the imaging range A of the imaging unit 23 is as described in the first embodiment. That is, the fixed plane S may be included in the imaging range A at least partially while the imaging range A of the imaging unit 23 changes by moving the movable part of the virtual image display device 1A. In other words, the position adjustment pattern P may deviate from the imaging range A of the imaging unit 23 by moving the movable unit. In this case, although calibration cannot be performed, the control unit 140 may notify the user that the orientation of the imaging unit 23 is not appropriate by displaying the display unit 3 or the like.

図13(B)にはプロジェクター82の構成を模式的に示す。
プロジェクター82は、光源821、光変調部822(変調部)、及び投射光学系823を備える。光源821は、例えば、LED、レーザーダイオード、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)素子等の固体光源、あるいはランプ等を備えて構成される。光源821は、光変調部822に向けて光を照射する。光変調部822は、透過型の液晶表示パネル、反射型の液晶表示パネル、或いはDMD(デジタルミラーデバイス)等を備え、光源821が発する光を変調して、画像光を生成する。投射光学系823は、例えばレンズ群を備え、光変調部822が生成する画像光Lを表示部3の前方に向けて投射する。プロジェクター82において、光源821と光変調部822との間、及び光変調部822と投射光学系823との間において、光路を形成するプリズムやミラー等の光学素子(図示略)を設けてもよい。光変調部822は、例えばマトリクス状に配置される画素を単位として光を変調して画像光を生成するので、位置調整用パターンPの形状は限定されない。すなわち、位置調整用パターンPの構成を、光変調部822において自在に変更できる。
FIG. 13B schematically shows the configuration of the projector 82.
The projector 82 includes a light source 821, a light modulation unit 822 (modulation unit), and a projection optical system 823. The light source 821 includes, for example, a solid light source such as an LED, a laser diode, an organic EL (Organic Electro-Luminescence) element, a lamp, or the like. The light source 821 emits light toward the light modulation unit 822. The light modulator 822 includes a transmissive liquid crystal display panel, a reflective liquid crystal display panel, or a DMD (digital mirror device), and modulates light emitted from the light source 821 to generate image light. The projection optical system 823 includes, for example, a lens group, and projects the image light L generated by the light modulation unit 822 toward the front of the display unit 3. In the projector 82, an optical element (not shown) such as a prism or a mirror that forms an optical path may be provided between the light source 821 and the light modulation unit 822 and between the light modulation unit 822 and the projection optical system 823. . The light modulation unit 822 generates image light by modulating light in units of pixels arranged in a matrix, for example, so the shape of the position adjustment pattern P is not limited. That is, the configuration of the position adjustment pattern P can be freely changed in the light modulator 822.

図14は、HMD100Aの機能ブロック図である。
第2実施形態のHMD100Aは、上記第1実施形態のHMD100において、虚像表示装置1を虚像表示装置1Aに代えた構成である。すなわち、HMD100Aは、HMD100が有する発光部81に代えて、プロジェクター82、及び、発光駆動部83を備える。
FIG. 14 is a functional block diagram of the HMD 100A.
HMD100A of 2nd Embodiment is the structure which replaced the virtual image display apparatus 1 with 1A of virtual image displays in HMD100 of the said 1st Embodiment. That is, the HMD 100A includes a projector 82 and a light emission drive unit 83 instead of the light emitting unit 81 included in the HMD 100.

発光駆動部83は、インターフェイス28を介して制御部140に接続され、制御部140の制御に従って、プロジェクター82の各部を駆動する。発光駆動部83は、プロジェクター82が備える光源821を点灯及び消灯させる。また、プロジェクター82は、光変調部822の液晶パネル等を駆動し、各画素の表示等を制御する。例えば、制御部140が発光駆動部83に対して、光源821の点灯を指示する制御信号と画像信号とを出力し、発光駆動部83が光源821に制御パルス及び電流を出力して点灯させ、光変調部822に画像を描画させる。また、光源821が固体光源を備える場合、発光駆動部83が光源821に対しPWM(Pulse Wave Modulation)制御を行い、光源821の輝度を調整してもよい。   The light emission drive unit 83 is connected to the control unit 140 via the interface 28 and drives each unit of the projector 82 according to the control of the control unit 140. The light emission drive unit 83 turns on and off the light source 821 provided in the projector 82. The projector 82 drives the liquid crystal panel of the light modulation unit 822 and controls the display of each pixel. For example, the control unit 140 outputs a control signal and an image signal instructing the light source 821 to turn on to the light emission drive unit 83, and the light emission drive unit 83 outputs a control pulse and a current to the light source 821 to light it. The light modulation unit 822 is caused to draw an image. When the light source 821 includes a solid light source, the light emission drive unit 83 may perform PWM (Pulse Wave Modulation) control on the light source 821 to adjust the luminance of the light source 821.

このように構成されるHMD100Aは、上記第1実施形態のHMD100と同様に、図11に示す動作を行うことができる。この動作において、HMD100Aの制御部140は、ステップST13において発光駆動部83により光源821及び光変調部822を駆動して、位置調整用パターンPの投射を開始させる。また、制御部140は、ステップST15〜ST16において、撮像部23の撮像画像から位置調整用パターンPの画像を検出し、撮像画像における位置調整用パターンPの形状やサイズに基づき、撮像部23と表示部3との相対位置を求めればよい。
これにより、HMD100Aを用いてAR表示を行うことで、HMD100と同様の効果を得ることができる。また、位置調整用パターンPを光変調部822により形成するので、位置調整用パターンPの複雑さに影響されず、位置調整用パターンPを容易に得ることができる。
HMD100A comprised in this way can perform the operation | movement shown in FIG. 11 similarly to HMD100 of the said 1st Embodiment. In this operation, the control unit 140 of the HMD 100A starts the projection of the position adjustment pattern P by driving the light source 821 and the light modulation unit 822 by the light emission driving unit 83 in step ST13. In steps ST15 to ST16, the control unit 140 detects an image of the position adjustment pattern P from the captured image of the imaging unit 23, and based on the shape and size of the position adjustment pattern P in the captured image, What is necessary is just to obtain | require a relative position with the display part 3. FIG.
Thereby, the same effect as HMD100 can be acquired by performing AR display using HMD100A. Further, since the position adjustment pattern P is formed by the light modulator 822, the position adjustment pattern P can be easily obtained without being affected by the complexity of the position adjustment pattern P.

HMD100Aは、上記第1の実施形態で説明したHMD100と同様に、プロジェクター82が投射する位置調整用パターンP、または、固定平面Sに位置調整用パターンPが反射した像で構成される平面図形に関するデータを、事前に、記憶部120に記憶する。このデータは、位置調整用パターンPを構成する特徴点の位置について、予め設定される平面座標系における座標として規定するデータである。また、HMD100Aは、ステレオカメラ231のカメラパラメーターを含むデータを、記憶部120に記憶する。カメラパラメーターは、例えば、焦点距離、センサー(撮像素子)の位置、センサーの水平・垂直方向のそれぞれの画素密度等を含む。これらのデータを利用して、HMD100Aは、固定平面Sを撮像した撮像画像から、固定平面Sに反射した位置調整用パターンPの像である平面図形、または、この平面図形を構成する特徴点の位置を検出できる。そして、第1の実施形態と同様に、特徴点の座標を利用して、ホモグラフィー法によって、位置調整用パターンPが形成する平面図形に対する撮像部23の回転・並進を表すパラメーター(回転行列、並進ベクトル)を導出することができる。このパラメーターをパラメーターPA1とする。
そして、HMD100Aは、平面図形に対する表示部3の回転・並進に関するパラメーターPA2を取得し、パラメーターPA1、PA2を用いることで、表示部3に対する撮像部23の回転・並進すなわち相対的位置関係を導出(補正)することができる。
Similar to the HMD 100 described in the first embodiment, the HMD 100 </ b> A relates to a position adjustment pattern P projected by the projector 82 or a plane figure formed by an image obtained by reflecting the position adjustment pattern P on the fixed plane S. Data is stored in the storage unit 120 in advance. This data is data defining the positions of the feature points constituting the position adjustment pattern P as coordinates in a preset plane coordinate system. In addition, the HMD 100A stores data including the camera parameters of the stereo camera 231 in the storage unit 120. The camera parameters include, for example, the focal length, the position of the sensor (imaging device), the pixel density in the horizontal and vertical directions of the sensor, and the like. Using these data, the HMD 100 </ b> A uses a captured image obtained by imaging the fixed plane S to obtain a plane graphic that is an image of the position adjustment pattern P reflected on the fixed plane S, or a feature point that constitutes the plane graphic. The position can be detected. As in the first embodiment, parameters representing the rotation / translation of the imaging unit 23 with respect to the plane figure formed by the position adjustment pattern P are obtained by the homography method using the coordinates of the feature points (rotation matrix, Translation vector) can be derived. This parameter is defined as parameter PA1.
Then, the HMD 100A acquires the parameter PA2 related to the rotation / translation of the display unit 3 with respect to the plane figure, and uses the parameters PA1 and PA2 to derive the rotation / translation, that is, the relative positional relationship of the imaging unit 23 with respect to the display unit 3 ( Correction).

パラメーターPA2を取得する方法は、例えば、第1の実施形態と同様に、使用者に対し、平面図形を映している平面(例えば、図13(A)の固定平面S)と表示部3とが平行になるように、平面の前に立つように促すことで、得ることができる。この場合、使用者に対し、平面(例えば、図13(A)の固定平面S)と、使用者が装着する表示部3との間の距離が、予め設定された距離となるように指示すれば良い。或いは、プロジェクター82の焦点距離に基づき、固定平面Sと表示部3との距離を求めても良い。例えば、利用者は、壁に投射される平面図形の焦点が合う距離まで移動し、焦点が合った時に、撮像する。例えばこのようにして、HMD100Aは、キャリブレーションデータ121を適切に補正できる。   For example, as in the first embodiment, a method for obtaining the parameter PA2 is as follows: a plane (for example, a fixed plane S in FIG. 13A) and a display unit 3 that are displaying a plane figure are displayed to the user. It can be obtained by prompting to stand in front of a plane so that they are parallel. In this case, the user is instructed so that the distance between the plane (for example, the fixed plane S in FIG. 13A) and the display unit 3 worn by the user is a preset distance. It ’s fine. Alternatively, the distance between the fixed plane S and the display unit 3 may be obtained based on the focal length of the projector 82. For example, the user moves to a distance where the plane figure projected on the wall is in focus, and takes an image when it is in focus. For example, in this way, the HMD 100A can appropriately correct the calibration data 121.

[第3実施形態]
図15は、本発明を適用した第3実施形態に係る虚像表示装置1Bの機能ブロック図である。第3実施形態は、後述する発光部84に係る構成及び制御部140の動作を除き、第1、第2実施形態と共通する構成及び機能を具備する。このため、第3実施形態の説明において、第1、第2実施形態と同一の構成を有する各部には同符号を付し、同一の構成及び動作についての説明を省略する。
[Third Embodiment]
FIG. 15 is a functional block diagram of a virtual image display device 1B according to a third embodiment to which the present invention is applied. The third embodiment has the same configuration and functions as those of the first and second embodiments, except for the configuration related to the light emitting unit 84 described later and the operation of the control unit 140. For this reason, in description of 3rd Embodiment, the same code | symbol is attached | subjected to each part which has the structure same as 1st, 2nd embodiment, and description about the same structure and operation | movement is abbreviate | omitted.

虚像表示装置1Bは、上記第2実施形態で説明した虚像表示装置1Aが備えるプロジェクター82及び発光駆動部83に代えて、発光部84を備える。
発光部84は、表示部3に対して固定的に設けられ、例えばプロジェクター82と同様に、表示部3の右側の端部でカバー部材311に埋設設置される。
The virtual image display device 1B includes a light emitting unit 84 instead of the projector 82 and the light emission driving unit 83 provided in the virtual image display device 1A described in the second embodiment.
The light emitting unit 84 is fixedly provided to the display unit 3 and is embedded and installed in the cover member 311 at the right end of the display unit 3, for example, similarly to the projector 82.

発光部84は、光源841、及びパターンプレート842(変調部)を備える。光源841は、例えば、LED、レーザーダイオード、有機EL素子等の固体光源、あるいはランプ等を備えて構成される。光源841は、パターンプレート842に向けて光を照射する。パターンプレート842は、光源841が発する光を、位置調整用パターンPの形状で透過させる板状部材である。パターンプレート842を通過することで、光源841が発する光は、パターンプレート842に形成されたスリットや孔の形状を有する光に変調され、表示部3の前方に照射される。   The light emitting unit 84 includes a light source 841 and a pattern plate 842 (modulation unit). The light source 841 includes, for example, a solid light source such as an LED, a laser diode, or an organic EL element, or a lamp. The light source 841 emits light toward the pattern plate 842. The pattern plate 842 is a plate-like member that transmits the light emitted from the light source 841 in the shape of the position adjustment pattern P. By passing through the pattern plate 842, the light emitted from the light source 841 is modulated into light having the shape of slits or holes formed in the pattern plate 842, and is irradiated in front of the display unit 3.

HMD100Bは、上記第1実施形態のHMD100、及び第2実施形態のHMD100Aと同様に、図11に示す動作を行うことができる。この動作において、HMD100Bの制御部140は、ステップST13において光源841を点灯させて、位置調整用パターンPの投射を開始させる。また、制御部140は、ステップST15〜ST16において、撮像部23の撮像画像から、光変調部822により形成される位置調整用パターンPの画像を検出し、撮像画像における位置調整用パターンPの形状やサイズに基づき、撮像部23と表示部3との相対位置を求めればよい。
これにより、HMD100Bを用いてAR表示を行うことで、HMD100、100Aと同様の効果を得ることができる。また、位置調整用パターンPを、パターンプレート842を用いたシンプルな構成によって容易に形成できる。例えば複数の光源で位置調整用パターンを構成する発光部81に比べ、比較的複雑な位置調整用パターンPを得ることができる。
The HMD 100B can perform the operation shown in FIG. 11 in the same manner as the HMD 100 of the first embodiment and the HMD 100A of the second embodiment. In this operation, the control unit 140 of the HMD 100B turns on the light source 841 in step ST13 and starts projecting the position adjustment pattern P. In steps ST15 to ST16, the control unit 140 detects an image of the position adjustment pattern P formed by the light modulation unit 822 from the captured image of the imaging unit 23, and the shape of the position adjustment pattern P in the captured image. The relative position between the imaging unit 23 and the display unit 3 may be obtained based on the size.
Thereby, by performing AR display using HMD100B, the same effect as HMD100 and 100A can be acquired. Further, the position adjustment pattern P can be easily formed with a simple configuration using the pattern plate 842. For example, a relatively complicated position adjustment pattern P can be obtained as compared with the light emitting unit 81 that forms a position adjustment pattern with a plurality of light sources.

HMD100Bは、上記第2の実施形態で説明したHMD100と同様に、発光部84が投射する位置調整用パターンP、または、固定平面Sに位置調整用パターンPが反射した像で構成される平面図形に関するデータを、事前に、記憶部120に記憶する。このデータは、位置調整用パターンPを構成する特徴点の位置について、予め設定される平面座標系における座標として規定するデータである。また、HMD100Bは、ステレオカメラ231のカメラパラメーターを含むデータを、記憶部120に記憶する。カメラパラメーターは、例えば、焦点距離、センサー(撮像素子)の位置、センサーの水平・垂直方向のそれぞれの画素密度等を含む。これらのデータを利用して、HMD100Bは、固定平面Sを撮像した撮像画像から、固定平面Sに反射した位置調整用パターンPの像である平面図形、または、この平面図形を構成する特徴点の位置を検出できる。そして、第1及び第2の実施形態と同様に、特徴点の座標を利用して、ホモグラフィー法によって、位置調整用パターンPが形成する平面図形に対する撮像部23の回転・並進を表すパラメーター(回転行列、並進ベクトル)を導出することができる。このパラメーターをパラメーターPA1とする。
そして、HMD100Bは、平面図形に対する表示部3の回転・並進に関するパラメーターPA2を取得し、パラメーターPA1、PA2を用いることで、表示部3に対する撮像部23の回転・並進すなわち相対的位置関係を導出(補正)することができる。
Similar to the HMD 100 described in the second embodiment, the HMD 100 </ b> B is a position adjustment pattern P projected by the light emitting unit 84, or a plane figure composed of an image obtained by reflecting the position adjustment pattern P on the fixed plane S. The data regarding is stored in the storage unit 120 in advance. This data is data defining the positions of the feature points constituting the position adjustment pattern P as coordinates in a preset plane coordinate system. Further, the HMD 100B stores data including the camera parameters of the stereo camera 231 in the storage unit 120. The camera parameters include, for example, the focal length, the position of the sensor (imaging device), the pixel density in the horizontal and vertical directions of the sensor, and the like. Using these data, the HMD 100 </ b> B uses a captured image obtained by imaging the fixed plane S to obtain a plane graphic that is an image of the position adjustment pattern P reflected on the fixed plane S, or a feature point that constitutes the plane graphic. The position can be detected. As in the first and second embodiments, parameters representing the rotation / translation of the imaging unit 23 with respect to the plane figure formed by the position adjustment pattern P are obtained by the homography method using the coordinates of the feature points. Rotation matrix, translation vector) can be derived. This parameter is defined as parameter PA1.
Then, the HMD 100B acquires the parameter PA2 relating to the rotation / translation of the display unit 3 with respect to the plane figure, and uses the parameters PA1 and PA2 to derive the rotation / translation, that is, the relative positional relationship of the imaging unit 23 with respect to the display unit 3 ( Correction).

パラメーターPA2を取得する方法は、例えば、第1及び第2の実施形態と同様に、使用者に対し、平面図形を映している平面(例えば、図13(A)の固定平面S)と表示部3とが平行になるように、平面の前に立つように促すことで、得ることができる。この場合、使用者に対し、平面(例えば、図13(A)の固定平面S)と、使用者が装着する表示部3との間の距離が、予め設定された距離となるように指示すれば良い。例えばこのようにして、HMD100Bは、キャリブレーションデータ121を適切に補正できる。   The method for obtaining the parameter PA2 is, for example, as in the first and second embodiments, a plane showing a plane figure (for example, the fixed plane S in FIG. 13A) and the display unit to the user. 3 can be obtained by prompting to stand in front of a plane so that it is parallel to 3. In this case, the user is instructed so that the distance between the plane (for example, the fixed plane S in FIG. 13A) and the display unit 3 worn by the user is a preset distance. It ’s fine. For example, in this way, the HMD 100B can correct the calibration data 121 appropriately.

[第4実施形態]
図16は、本発明を適用した第4実施形態に係る虚像表示装置1Cの構成を示す斜視図である。図17は、HMD100Cの位置検出の様子を示す説明図である。
第4実施形態は、後述するカメラ86に係る構成及び制御部140の動作を除き、第1実施形態と共通する構成及び機能を具備する。このため、第4実施形態の説明において、第1実施形態と同一の構成を有する各部には同符号を付し、同一の構成及び動作についての説明を省略する。
[Fourth Embodiment]
FIG. 16 is a perspective view showing a configuration of a virtual image display device 1C according to the fourth embodiment to which the present invention is applied. FIG. 17 is an explanatory diagram showing how the position of the HMD 100C is detected.
The fourth embodiment has the same configuration and functions as those of the first embodiment except for the configuration related to the camera 86 described later and the operation of the control unit 140. For this reason, in description of 4th Embodiment, the same code | symbol is attached | subjected to each part which has the same structure as 1st Embodiment, and description about the same structure and operation | movement is abbreviate | omitted.

虚像表示装置1Cは、上記第1実施形態で説明した虚像表示装置1が備える発光部81を排し、カメラ86を設けた構成である。この構成において、撮像部23のステレオカメラ231(図2)は第1撮像部に相当し、カメラ86は第2撮像部に相当する。   The virtual image display device 1C has a configuration in which the light emitting unit 81 included in the virtual image display device 1 described in the first embodiment is omitted and a camera 86 is provided. In this configuration, the stereo camera 231 (FIG. 2) of the imaging unit 23 corresponds to the first imaging unit, and the camera 86 corresponds to the second imaging unit.

図16及び図17には、虚像表示装置1Cの構成を示す。図16に示すように、虚像表示装置1Cは、表示部3に、カメラ86を備える。カメラ86は表示部3に固定的に設けられ、使用者が光学装置31を通して視認する外景の方向を撮像する。   16 and 17 show the configuration of the virtual image display device 1C. As illustrated in FIG. 16, the virtual image display device 1 </ b> C includes a camera 86 in the display unit 3. The camera 86 is fixedly provided on the display unit 3 and images the direction of the outside scene that the user visually recognizes through the optical device 31.

図17に示すように、カメラ86の撮像範囲Bは、撮像部23の撮像範囲Aと重複する。より詳細に説明すると、撮像部23は回動軸R1を介してヘッドバンド部2に取り付けられ、カメラ86は表示部3に固定的に設けられ、表示部3とヘッドバンド部2とは可動部である回動軸R2及び移動機構5を介して連結、支持される。このため、撮像範囲Aと撮像範囲Bとは、可動部における動きにより、相対的な位置が変化する。撮像部23と表示部3との相対位置が可動部の動きにより変化する間の少なくとも一部で、撮像範囲Aと撮像範囲Bとが重複する。言い換えれば、可動部を動かすことで、撮像範囲Aと撮像範囲Bとが重ならないことがあってもよい。この場合、キャリブレーションを実行できないが、制御部140は、撮像部23の向きが適正でない旨を表示部3の表示等により使用者に報知すればよい。より好ましくは、撮像部23と表示部3との相対位置が可動部の動きにより変化する間の大部分で、撮像範囲Aと撮像範囲Bとが、少なくとも一部で重複する。さらに好ましくは、可動部を動作させることが可能な全範囲において、撮像範囲Aと撮像範囲Bとが少なくとも一部で重複する。   As shown in FIG. 17, the imaging range B of the camera 86 overlaps with the imaging range A of the imaging unit 23. More specifically, the imaging unit 23 is attached to the headband unit 2 via the rotation axis R1, the camera 86 is fixedly provided on the display unit 3, and the display unit 3 and the headband unit 2 are movable units. Are connected and supported via the rotation axis R2 and the moving mechanism 5. For this reason, the relative positions of the imaging range A and the imaging range B change due to the movement of the movable part. The imaging range A and the imaging range B overlap at least partly while the relative position between the imaging unit 23 and the display unit 3 changes due to the movement of the movable unit. In other words, the imaging range A and the imaging range B may not overlap by moving the movable part. In this case, although calibration cannot be performed, the control unit 140 may notify the user that the orientation of the imaging unit 23 is not appropriate by displaying the display unit 3 or the like. More preferably, the imaging range A and the imaging range B overlap at least partly during most of the change in the relative position between the imaging unit 23 and the display unit 3 due to the movement of the movable unit. More preferably, the imaging range A and the imaging range B overlap at least partially in the entire range in which the movable part can be operated.

キャリブレーションを行う場合、虚像表示装置1Cを装着する使用者は、図17に示すように位置調整用パターンPが付された固定平面Sの前に、虚像表示装置1Cを位置させる。位置調整用パターンPは、固定平面Sに接着等の手法で付され、或いは、固定平面Sに描かれている。固定平面Sは壁面であってもよく、虚像表示装置1Cの正面に対し多少の傾きがあってもよい。また、固定平面Sは硬質な平面でなくてもよく、幕であってもよい。また、キャリブレーションに用いる対象物は、少なくとも、撮像部23及びカメラ86で撮像可能な位置調整用パターンPを有していればよく、好ましくは、固定平面Sが位置調整用パターンPを、歪みを生じない状態で支持すれば良い。従って、対象物は固定平面Sのように大きな平面に制限されず、例えば、箱状の対象物の一側面を、固定平面Sと同様に使用することも可能である。   When performing the calibration, the user wearing the virtual image display device 1C positions the virtual image display device 1C in front of the fixed plane S to which the position adjustment pattern P is attached as shown in FIG. The position adjustment pattern P is attached to the fixed plane S by a technique such as adhesion, or is drawn on the fixed plane S. The fixed plane S may be a wall surface, and may have a slight inclination with respect to the front surface of the virtual image display device 1C. Further, the fixed plane S may not be a hard plane but may be a curtain. The object used for calibration only needs to have at least the position adjustment pattern P that can be imaged by the imaging unit 23 and the camera 86. Preferably, the fixed plane S distorts the position adjustment pattern P. What is necessary is just to support in the state which does not produce. Therefore, the object is not limited to a large plane like the fixed plane S. For example, one side surface of the box-shaped object can be used similarly to the fixed plane S.

図18は、HMD100Cの機能ブロック図である。
第4実施形態のHMD100Cは、上記第1実施形態のHMD100において、虚像表示装置1を虚像表示装置1Cに代えた構成である。すなわち、HMD100Cは、HMD100が有する発光部81に代えて、カメラ86を備える。
カメラ86は、インターフェイス28を介して制御部140に接続され、制御部140の制御により撮像を行い、撮像画像データを制御部140に出力する。制御部140は、ステレオカメラ231及びカメラ86を制御して、同時に撮像を実行させることも可能である。
FIG. 18 is a functional block diagram of the HMD 100C.
The HMD 100C of the fourth embodiment has a configuration in which the virtual image display device 1 is replaced with the virtual image display device 1C in the HMD 100 of the first embodiment. That is, the HMD 100C includes a camera 86 instead of the light emitting unit 81 included in the HMD 100.
The camera 86 is connected to the control unit 140 via the interface 28, performs imaging under the control of the control unit 140, and outputs captured image data to the control unit 140. The control unit 140 can also control the stereo camera 231 and the camera 86 to simultaneously perform imaging.

図19は、HMD100の動作を示すフローチャートであり、キャリブレーションに係る動作を示す。
制御部140は、キャリブレーションの実行条件の成立に対し待機する(ステップST31)。キャリブレーションの実行条件は、図11で説明した通りである。制御部140は、HMD100の電源がオンの間、或いはHMD100によりAR画像を表示する間、キャリブレーションの実行条件が成立しなければ待機する(ステップST31;No)。
FIG. 19 is a flowchart showing the operation of the HMD 100, and shows the operation related to calibration.
The control unit 140 stands by for establishment of the calibration execution condition (step ST31). The calibration execution conditions are as described with reference to FIG. The controller 140 waits if the calibration execution condition is not satisfied while the HMD 100 is powered on or the AR image is displayed by the HMD 100 (step ST31; No).

実行条件が成立した場合(ステップST31;Yes)、制御部140は、トラックパッド302等に対する操作に対応して、キャリブレーションを開始し(ステップST32)、撮像部23及びカメラ86による撮像を実行させて、撮像部23による撮像画像データを取得する(ステップST33)。   When the execution condition is satisfied (step ST31; Yes), the control unit 140 starts calibration in response to an operation on the track pad 302 or the like (step ST32), and executes imaging by the imaging unit 23 and the camera 86. Thus, the imaged image data obtained by the imaging unit 23 is acquired (step ST33).

図17に示すように、HMD100Cのキャリブレーションでは、使用者が、虚像表示装置1Cを固定平面S(対象物)に正対させる。この図17の状態を実現するため、制御部140は、ステップST32でキャリブレーションを開始する際に、表示制御部170により案内用の画像を表示させて、虚像表示装置1Cを位置調整用パターンPに向けるように案内をしてもよい。この場合、制御部140は、使用者の制御装置300への操作により、或いは、撮像部23及びカメラ86の撮像画像に基づき、位置調整用パターンPを撮像部23とカメラ86の両方で撮像できる状態になったと判定してから、撮像部23による撮像画像データを取得すればよい。   As shown in FIG. 17, in the calibration of the HMD 100C, the user directly faces the virtual image display device 1C to the fixed plane S (object). In order to realize the state of FIG. 17, when starting calibration in step ST32, the control unit 140 causes the display control unit 170 to display a guide image, and causes the virtual image display device 1C to display the position adjustment pattern P. You may guide to turn to. In this case, the control unit 140 can capture the position adjustment pattern P by both the imaging unit 23 and the camera 86 based on the user's operation on the control device 300 or based on the captured images of the imaging unit 23 and the camera 86. What is necessary is just to acquire the imaged image data by the imaging part 23, after determining with having reached the state.

制御部140は、撮像部23とカメラ86の撮像画像から位置調整用パターンPの画像を検出して解析を行い(ステップST34)、解析データを取得する(ステップST35)。この解析データは表示部3に対する撮像部23の相対位置、及び、相対的な傾きの少なくともいずれかを含む。   The control unit 140 detects and analyzes the image of the position adjustment pattern P from the images captured by the imaging unit 23 and the camera 86 (step ST34), and acquires analysis data (step ST35). This analysis data includes at least one of the relative position of the imaging unit 23 with respect to the display unit 3 and the relative inclination.

制御部140は、ステップST35で取得したデータを、既に記憶部120に記憶しているキャリブレーションデータ121と比較する(ステップST36)。制御部140は比較結果の判定を行い(ステップST37)、閾値以上の差異がある場合は(ステップST37;Yes)、キャリブレーションデータ121を更新するとともに、現在表示している画像があれば、その表示位置を調整する(ステップST38)。
また、ステップST35で取得したデータが示す撮像部23と表示部3との位置関係が、既に記憶されているキャリブレーションデータ121と、閾値以上の差異を有さない場合(ステップST37;No)、制御部140は本処理を終了する。
なお、本処理を終了した後、制御部140は、再びステップST31で実行条件の成立を監視すれば良い。
The control unit 140 compares the data acquired in step ST35 with the calibration data 121 already stored in the storage unit 120 (step ST36). The control unit 140 determines the comparison result (step ST37), and if there is a difference equal to or greater than the threshold (step ST37; Yes), the calibration data 121 is updated and if there is an image currently displayed, The display position is adjusted (step ST38).
Further, when the positional relationship between the imaging unit 23 and the display unit 3 indicated by the data acquired in step ST35 does not have a difference equal to or greater than the threshold value with the already stored calibration data 121 (step ST37; No), The control unit 140 ends this process.
In addition, after complete | finishing this process, the control part 140 should just monitor establishment of execution conditions again by step ST31.

このように、第4の実施形態に係るHMD100Cは、外景を視認可能に、画像を表示する表示部3と、表示部3を通して視認される範囲に重なる撮像範囲を撮像する撮像部23(第1撮像部)とを備える。HMD100Cは、少なくとも1つの可動部を有する連結部で撮像部23を表示部3に連結し、表示部3に対して固定的に設けられるカメラ86(第2撮像部)を備える。このため、制御部140が、複数の撮像部の撮像画像を利用して、表示部3に対する撮像部23の相対位置や相対方向等を検出できる。また、HMD100Cでは、可動部により撮像部23の撮像方向とカメラ86の撮像方向との相対方向が変化する範囲の少なくとも一部において、撮像範囲Aと撮像範囲Bとの少なくとも一部が重複する。   As described above, the HMD 100C according to the fourth embodiment displays the image so that the outside scene can be visually recognized, and the imaging unit 23 that captures the imaging range that overlaps the range visually recognized through the display unit 3 (first Imaging section). The HMD 100 </ b> C includes a camera 86 (second imaging unit) that is fixedly provided to the display unit 3 by connecting the imaging unit 23 to the display unit 3 with a connecting unit having at least one movable unit. Therefore, the control unit 140 can detect the relative position, the relative direction, and the like of the imaging unit 23 with respect to the display unit 3 using the captured images of the plurality of imaging units. Further, in the HMD 100C, at least a part of the imaging range A and the imaging range B overlaps in at least a part of the range in which the relative direction between the imaging direction of the imaging unit 23 and the imaging direction of the camera 86 changes by the movable unit.

また、HMD100Cは、第1撮像部である撮像部23を、表示部3に画像を表示する表示位置の算出に利用する。すなわち、AR表示の対象物を検出し、この対象物の位置に合わせてAR画像を表示する場合に、撮像部23の撮像画像を利用する。そして、この撮像部23と表示部3との相対位置の変化、或いは相対位置を求めるために、撮像部23に加えてカメラ86を用いる。このため、AR表示用の撮像部23を利用して、撮像部23と表示部3のキャリブレーションを行うことができる。   In addition, the HMD 100C uses the imaging unit 23, which is the first imaging unit, to calculate a display position for displaying an image on the display unit 3. That is, when an AR display target is detected and an AR image is displayed in accordance with the position of the target, the captured image of the imaging unit 23 is used. The camera 86 is used in addition to the imaging unit 23 in order to obtain a change in the relative position between the imaging unit 23 and the display unit 3 or a relative position. For this reason, the imaging unit 23 and the display unit 3 can be calibrated using the imaging unit 23 for AR display.

HMD100Cは、上記第1〜第3の実施形態と同様に、発光部84が投射する位置調整用パターンP、または、固定平面Sに位置調整用パターンPが反射した像で構成される平面図形に関するデータを、事前に、記憶部120に記憶する。このデータは、位置調整用パターンPを構成する特徴点の位置について、予め設定される平面座標系における座標として規定するデータである。また、HMD100Cは、ステレオカメラ231及び/又はカメラ86のカメラパラメーターを含むデータを、記憶部120に記憶する。カメラパラメーターは、例えば、焦点距離、センサー(撮像素子)の位置、センサーの水平・垂直方向のそれぞれの画素密度等を含む。これらのデータを利用して、HMD100Cは、固定平面Sを撮像した撮像画像から、固定平面Sに反射した位置調整用パターンPの像である平面図形、または、この平面図形を構成する特徴点の位置を検出できる。そして、第1及び第2の実施形態と同様に、特徴点の座標を利用して、ホモグラフィー法によって、位置調整用パターンPが形成する平面図形に対する撮像部23の回転・並進を表すパラメーター(回転行列、並進ベクトル)を導出することができる。このパラメーターをパラメーターPA1とする。
そして、HMD100Cは、平面図形に対する表示部3の回転・並進に関するパラメーターPA2を取得し、パラメーターPA1、PA2を用いることで、表示部3に対する撮像部23の回転・並進すなわち相対的位置関係を導出(補正)することができる。
Similar to the first to third embodiments, the HMD 100 </ b> C relates to the position adjustment pattern P projected by the light emitting unit 84 or the plane figure formed by the image reflected by the position adjustment pattern P on the fixed plane S. Data is stored in the storage unit 120 in advance. This data is data defining the positions of the feature points constituting the position adjustment pattern P as coordinates in a preset plane coordinate system. In addition, the HMD 100C stores data including the camera parameters of the stereo camera 231 and / or the camera 86 in the storage unit 120. The camera parameters include, for example, the focal length, the position of the sensor (imaging device), the pixel density in the horizontal and vertical directions of the sensor, and the like. Using these data, the HMD 100 </ b> C captures a plane figure that is an image of the position adjustment pattern P reflected on the fixed plane S from a captured image obtained by imaging the fixed plane S, or a feature point that constitutes the plane figure. The position can be detected. As in the first and second embodiments, parameters representing the rotation / translation of the imaging unit 23 with respect to the plane figure formed by the position adjustment pattern P are obtained by the homography method using the coordinates of the feature points. Rotation matrix, translation vector) can be derived. This parameter is defined as parameter PA1.
Then, the HMD 100C acquires the parameter PA2 related to the rotation / translation of the display unit 3 with respect to the plane figure, and uses the parameters PA1 and PA2 to derive the rotation / translation, that is, the relative positional relationship of the imaging unit 23 with respect to the display unit 3 ( Correction).

パラメーターPA2を取得する方法は、例えば、第1〜第3の実施形態と同様に、使用者に対し、平面図形を映している平面(例えば、図17の固定平面S)と表示部3とが平行になるように、平面の前に立つように促すことで、得ることができる。この場合、使用者に対し、平面(例えば、図17の固定平面S)と、使用者が装着する表示部3との間の距離が、予め設定された距離となるように指示すれば良い。   The method for obtaining the parameter PA2 is, for example, as in the first to third embodiments, for the user, the plane (for example, the fixed plane S in FIG. It can be obtained by prompting to stand in front of a plane so that they are parallel. In this case, the user may be instructed so that the distance between the plane (for example, the fixed plane S in FIG. 17) and the display unit 3 worn by the user is a preset distance.

また、HMD100Cでは、カメラ86の撮像画像を利用して、平面図形に対するカメラ86の回転・並進に関するパラメーターを算出できる。さらに、HMD100Cの表示部3に対するカメラ86の回転・並進の状態または位置は、HMD100Cの構成から既知である。このため、HMD100Cは、平面図形に対するカメラ86の回転・並進に関するパラメーターと、表示部3に対するカメラ86の回転・並進の状態または位置とに基づき、パラメーターPA2を算出できる。例えばこのようにして、HMD100Cは、キャリブレーションデータ121を適切に補正できる。   Further, in the HMD 100C, parameters relating to rotation / translation of the camera 86 with respect to a plane figure can be calculated using an image captured by the camera 86. Further, the rotation or translation state or position of the camera 86 with respect to the display unit 3 of the HMD 100C is known from the configuration of the HMD 100C. For this reason, the HMD 100C can calculate the parameter PA2 based on the parameters related to the rotation / translation of the camera 86 with respect to the plane figure and the rotation / translation state or position of the camera 86 with respect to the display unit 3. For example, in this way, the HMD 100C can appropriately correct the calibration data 121.

[実施形態の変形]
本発明は、上記の各実施形態に限定されるものではなく、本発明の目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
上記各実施形態では、一対のアーム部4を備え、これら一対のアーム部4が表示部3をX方向の両側から支持する構成を例示した。しかしながら、本発明は、これに限らない。例えば、1つのアーム部4を備える構成としてもよい。この際、アーム部4は、表示部3のX方向における略中央と接続されていてもよく、X方向における一端側に接続されていてもよい。このような構成では、虚像表示装置1を構成する部品点数を減らすことができ、軽量化を図ることができる。なお、表示部3を一対のアーム部4で両側から支持する構成では、1箇所で支持するよりも、表示部3を安定的に支持することができる。
[Modification of Embodiment]
The present invention is not limited to the above-described embodiments, and modifications, improvements, and the like within the scope that can achieve the object of the present invention are included in the present invention.
In each of the above-described embodiments, a configuration in which the pair of arm portions 4 is provided and the pair of arm portions 4 supports the display unit 3 from both sides in the X direction is illustrated. However, the present invention is not limited to this. For example, it is good also as a structure provided with the one arm part 4. FIG. At this time, the arm unit 4 may be connected to the approximate center in the X direction of the display unit 3 or may be connected to one end side in the X direction. In such a configuration, the number of parts constituting the virtual image display device 1 can be reduced, and the weight can be reduced. In addition, in the structure which supports the display part 3 from a both sides with a pair of arm part 4, the display part 3 can be supported stably rather than supporting at one place.

上記各実施形態では、表示部3は、左眼用光学装置31Lと、右眼用光学装置31Rとを備え、これら一対の光学装置31がフレーム部32によって一体的に固定され、1対のアーム部4によって一体的に回動される構成を例示した。しかしながら、本発明はこれに限らない。例えば、右眼用光学装置31Rは、使用者から見て右側のアーム部4によって、左眼用光学装置31Lは、使用者から見て左側のアーム部4によって、個別に回動可能に構成されてもよい。   In each of the embodiments described above, the display unit 3 includes the left-eye optical device 31L and the right-eye optical device 31R, and the pair of optical devices 31 are integrally fixed by the frame portion 32, and a pair of arms. The structure rotated integrally by the part 4 was illustrated. However, the present invention is not limited to this. For example, the right-eye optical device 31R can be individually rotated by the right arm unit 4 when viewed from the user, and the left-eye optical device 31L can be individually rotated by the left arm unit 4 when viewed from the user. May be.

上記各実施形態では、表示部3は、左眼用光学装置31Lと、右眼用光学装置31Rとを備える構成を例示した。しかしながら、本発明はこれに限らない。すなわち、左眼用光学装置31L及び右眼用光学装置31Rのうちのいずれか一方を備える構成を採用してもよい。この場合、表示部3を1つのアーム部4のみで支持する構成、例えば、左眼用光学装置31Lを左側のアーム部4のみで支持する構成としてもよく、1対のアーム部4で支持する構成としてもよい。   In each of the above embodiments, the display unit 3 is exemplified by a configuration including the left-eye optical device 31L and the right-eye optical device 31R. However, the present invention is not limited to this. That is, a configuration including any one of the left-eye optical device 31L and the right-eye optical device 31R may be employed. In this case, the display unit 3 may be supported by only one arm unit 4, for example, the left-eye optical device 31 </ b> L may be supported only by the left arm unit 4, and may be supported by a pair of arm units 4. It is good also as a structure.

上記各実施形態では、アーム部4は、使用者が視認する際の視方向と略直交するX軸に平行な回動軸R2を中心に回動可能に構成された。しかしながら、本発明はこれに限らない。すなわち、ヘッドバンド部2との接続部位を中心として回動可能とする各種の構成を採用してもよい。
例えば、1つのアーム部4で表示部3を支持する構成や、上述のように左側のアーム部4で左眼用光学装置31Lを、右側のアーム部4で右眼用光学装置31Rを個別に支持する構成において、Y軸に平行な回動軸を中心にアーム部4を回動可能としてもよい。
また、例えば、ZX面に沿い、かつ、使用者USの視方向と交差する回動軸を中心にアーム部4を回動可能としてもよい。
In each of the embodiments described above, the arm portion 4 is configured to be rotatable around a rotation axis R2 parallel to the X axis that is substantially orthogonal to the viewing direction when the user visually recognizes. However, the present invention is not limited to this. That is, you may employ | adopt the various structures which can be rotated centering | focusing on the connection site | part with the headband part 2. FIG.
For example, a configuration in which the display unit 3 is supported by one arm unit 4, and the left-eye optical device 31 </ b> L is individually provided by the left-side arm unit 4 and the right-eye optical device 31 </ b> R is individually provided by the right-side arm unit 4 as described above. In the supporting configuration, the arm portion 4 may be rotatable about a rotation axis parallel to the Y axis.
Further, for example, the arm portion 4 may be rotatable around a rotation axis that is along the ZX plane and intersects the viewing direction of the user US.

上記各実施形態では、本体部としてのヘッドバンド部2は、略半円形状(略U字状)に形成されていた。しかしながら、本発明はこれに限らない。すなわち、ヘッドバンド部2は、使用者の頭部(頭部の中心軸を中心とする周方向に沿い、かつ、両眼を通る線より上の部位)に沿って配置可能に構成されていればよく、例えば、少なくとも一部に頭部に沿った円弧状の内面を有する構成でもよい。また、例えば、前額部に相当する部分と側頭部に対応する部位とが互いに略直交する構成でもよい。このように、ヘッドバンド部2(本体ケース21)は、バンド22によって頭部に沿って配置可能であれば、その外形は特に制限されない。   In each of the above embodiments, the headband part 2 as the main body part is formed in a substantially semicircular shape (substantially U-shaped). However, the present invention is not limited to this. That is, the headband unit 2 is configured to be disposed along the user's head (a portion along the circumferential direction centering on the central axis of the head and above the line passing through both eyes). For example, a configuration having an arc-shaped inner surface along the head at least partially may be used. Further, for example, a configuration in which a portion corresponding to the forehead portion and a portion corresponding to the temporal region are substantially orthogonal to each other may be employed. Thus, if the headband part 2 (main body case 21) can be arrange | positioned along the head by the band 22, the external shape will not be restrict | limited in particular.

また、ヘッドバンド部2は、固定部としてバンド22を有するとした。しかしながら、本発明はこれに限らない。すなわち、アーム部を介して本体部に接続された表示部によって表示された虚像が使用者によって視認される位置に本体部を固定できれば、固定部の構成は問わない。例えば、固定部が、帽子又はヘルメットのように、使用者の頭部(詳しくは、頭部における上部分)の少なくとも一部を覆う形状及び構成であってもよい。
具体的には、固定部の構成として、固定部位を覆って装着されるヘッドキャップ型や、固定部位に沿う複数のバンドが頭頂部において交差する交差バンド型や、固定部位の周囲を囲み配置されるベルト型の構成を採用してもよい。また、固定部は、使用者の前後方向や、左右方向から、固定部位を挟むように当接される2以上の当接部材と、当該当接部材を連結する連結部と、を備える構成であってもよい。
The headband unit 2 has a band 22 as a fixing unit. However, the present invention is not limited to this. That is, the configuration of the fixing unit is not limited as long as the main unit can be fixed at a position where the user can visually recognize the virtual image displayed by the display unit connected to the main unit via the arm unit. For example, the fixed portion may have a shape and a configuration that covers at least a part of a user's head (specifically, an upper portion of the head) like a hat or a helmet.
Specifically, as a configuration of the fixing portion, a head cap type that covers the fixing portion, a cross band type in which a plurality of bands along the fixing portion intersect at the top of the head, and a surrounding portion of the fixing portion are arranged. A belt-type configuration may be employed. In addition, the fixed portion includes two or more contact members that are contacted so as to sandwich the fixed portion from the front-rear direction or the left-right direction of the user, and a connecting portion that connects the contact members. There may be.

上記各実施形態では、ヘッドバンド部2との接続部位を中心としてアーム部4を回動可能とし、表示部3の位置を調整可能とする構成を例示した。しかしながら、本発明はこれに限らない。例えば、アーム部4が可動部を備え、表示部3の位置を調整可能な構成を採用してもよい。また、アーム部4が、ヘッドバンド部2に対して固定されて回動可能とされず、かつ、可動部も備えない構成、すなち、ヘッドバンド部2に対して表示部3の所定の位置や角度に設定された構成としてもよい。   In each of the embodiments described above, the configuration in which the arm portion 4 is rotatable around the connection portion with the headband portion 2 and the position of the display portion 3 is adjustable is illustrated. However, the present invention is not limited to this. For example, a configuration in which the arm unit 4 includes a movable unit and the position of the display unit 3 can be adjusted may be employed. In addition, the arm unit 4 is fixed to the headband unit 2 and is not rotatable, and has no movable unit, that is, a predetermined portion of the display unit 3 with respect to the headband unit 2. It is good also as a structure set to the position and the angle.

上記各実施形態では、移動機構5として、表示部3側に設けられたガイドレール51と、アーム部4側に設けられたスライド部材52とを備える構成を例示した。しかしながら、本発明はこれに限らない。すなわち、ガイドレール51がアーム部4側に、スライド部材52が表示部3側に設けられてもよい。
また、移動機構5は、ガイドレール51に沿ってスライド部材52を摺動させる構成に限らず、表示部3とアーム部4とを相対的に移動させることで、ヘッドバンド部2に対して表示部3を接離させることができる移動機構であればよい。例えば、表示部3に接続されたアーム部4が、本体部としてのヘッドバンド部2に対してY方向に沿って移動可能に構成されていてもよい。
In each said embodiment, the structure provided with the guide rail 51 provided in the display part 3 side as the moving mechanism 5, and the slide member 52 provided in the arm part 4 side was illustrated. However, the present invention is not limited to this. That is, the guide rail 51 may be provided on the arm part 4 side, and the slide member 52 may be provided on the display part 3 side.
In addition, the moving mechanism 5 is not limited to the configuration in which the slide member 52 is slid along the guide rail 51, and the display unit 3 and the arm unit 4 are moved relative to each other to display the headband unit 2. Any moving mechanism capable of moving the part 3 in and out of contact may be used. For example, the arm unit 4 connected to the display unit 3 may be configured to be movable along the Y direction with respect to the headband unit 2 as the main body unit.

上記各実施形態では、撮像部23は、X方向に平行な回動軸R1を中心に回動されることにより、YZ面内、すなわち図1における上下方向で撮像方向を調整可能に構成されていた。しかしながら、本発明はこれに限らない。すなわち、上下方向以外の他の方向、例えば左右方向に撮像方向を調整可能に構成してもよいし、上下方向及び左右方向に撮像方向を調整可能に構成してもよい。また、撮像部23の撮像方向が固定されていてもよい。また、撮像部23を設けなくてもよい。   In each of the above-described embodiments, the imaging unit 23 is configured to be able to adjust the imaging direction in the YZ plane, that is, in the vertical direction in FIG. 1, by being rotated about a rotation axis R1 parallel to the X direction. It was. However, the present invention is not limited to this. That is, the imaging direction may be adjustable in directions other than the vertical direction, for example, the horizontal direction, or the imaging direction may be adjustable in the vertical direction and the horizontal direction. Further, the imaging direction of the imaging unit 23 may be fixed. Further, the imaging unit 23 may not be provided.

上記各実施形態では、導光部材313L,313Rは、それぞれ固定されていた。しかしながら、本発明はこれに限らない。例えば、X方向に沿う回動軸を中心として、導光部材313L,313Rをそれぞれ独立して、或いは、連動して、使用者とは反対側に回動可能に構成してもよい。この場合、当該回動軸を、導光部材313におけるY方向側又はY方向とは反対側に位置するように構成することにより、導光部材313を回動させて、使用者USの視方向から退避させることができる。   In each of the above embodiments, the light guide members 313L and 313R are fixed, respectively. However, the present invention is not limited to this. For example, the light guide members 313L and 313R may be configured to be rotatable in the direction opposite to the user, independently or in conjunction with each other, with the rotation axis along the X direction as the center. In this case, the rotation axis is configured so as to be located on the Y direction side or the opposite side of the Y direction in the light guide member 313, thereby rotating the light guide member 313 and viewing the user US. Can be evacuated.

上記各実施形態では、制御基板24が、ヘッドバンド部2に設けられる構成を例示した。しかしながら、本発明はこれに限らない。例えば、制御基板24は、表示部3やアーム部4に設けられていてもよい。
上記各実施形態では、ケーブルCBがヘッドバンド部2の内部を引き回され、ケーブルCRがアーム部4の内部を引き回された後、ヘッドバンド部2の内部を引き回されて制御基板24に接続される構成を例示した。しかしながら、本発明はこれに限らない。例えば、ケーブルCB,CRが、ヘッドバンド部2やアーム部4の外側を引き回された構成としてもよい。
In the above embodiments, the configuration in which the control board 24 is provided in the headband unit 2 is exemplified. However, the present invention is not limited to this. For example, the control board 24 may be provided on the display unit 3 or the arm unit 4.
In each of the above embodiments, the cable CB is routed inside the headband portion 2 and the cable CR is routed inside the arm portion 4 and then routed inside the headband portion 2 to the control board 24. The configuration to be connected is illustrated. However, the present invention is not limited to this. For example, the cables CB and CR may be configured to be routed outside the headband unit 2 and the arm unit 4.

上記各実施形態では、使用者による各種入力操作を受け付けるコントローラーが接続され、当該コントローラーからの入力に応じて、制御基板24により虚像表示装置1、1A、1B、1Cが制御されていた。しかしながら、本発明はこれに限らない。
例えば、コントローラーが接続される構成において、虚像表示装置1(画像表示装置)とコントローラーとのうちの一方が、使用者の操作に応じた操作情報を取得する機能と、画像情報を取得して当該画像情報に応じて表示部3を駆動させる機能と、電力を供給する機能の少なくともいずれかを有し、他方が、残りの機能を有するように構成してもよい。
また、虚像表示装置1(画像表示装置)が、コントローラーを介して画像供給装置(PC等)に接続されてもよく、コントローラーを介さずに当該画像供給装置に直接接続されてもよい。このような構成において、虚像表示装置1は、画像供給装置における画像表示部分として用いられ、虚像表示装置1の各種動作は、画像供給装置によって制御される構成としてもよい。なお、この場合、画像供給装置が、虚像表示装置1を駆動させる電力を供給してもよい。
また、虚像表示装置1、1A、1B、1C(例えば、ヘッドバンド部2や表示部3)にバッテリーや、画像処理装置等の制御装置が配置されてもよく、更に、メモリーカード等のスロットが設けられていてもよい。更に、虚像表示装置1に、使用者の操作を受け付ける操作部を設けてもよく、タップ操作を検出可能な構成を設けてもよい。すなわち、コントローラーは無くてもよい。
In each of the above embodiments, a controller that accepts various input operations by the user is connected, and the virtual image display devices 1, 1 </ b> A, 1 </ b> B, and 1 </ b> C are controlled by the control board 24 in accordance with an input from the controller. However, the present invention is not limited to this.
For example, in a configuration in which a controller is connected, one of the virtual image display device 1 (image display device) and the controller acquires the operation information according to the user's operation, You may comprise so that it may have at least any one of the function to drive the display part 3 according to image information, and the function to supply electric power, and the other has the remaining function.
The virtual image display device 1 (image display device) may be connected to an image supply device (PC or the like) via a controller, or may be directly connected to the image supply device without going through a controller. In such a configuration, the virtual image display device 1 may be used as an image display portion in the image supply device, and various operations of the virtual image display device 1 may be controlled by the image supply device. In this case, the image supply device may supply power for driving the virtual image display device 1.
In addition, a control device such as a battery or an image processing device may be disposed in the virtual image display device 1, 1A, 1B, or 1C (for example, the headband unit 2 or the display unit 3), and a slot such as a memory card may be provided. It may be provided. Furthermore, the virtual image display device 1 may be provided with an operation unit that receives a user's operation, or may be configured to detect a tap operation. That is, there may be no controller.

上記各実施形態では、虚像表示装置として、シースルー型の虚像表示装置1を例示した。しかしながら、本発明はこれに限らない。すなわち、外界を観察できない非透過型の虚像表示装置や、外界を撮像する撮像素子による撮像画像を表示するビデオシースルー型の虚像表示装置に対しても、本発明を適用できる。   In the above embodiments, the see-through type virtual image display device 1 is exemplified as the virtual image display device. However, the present invention is not limited to this. That is, the present invention can also be applied to a non-transparent virtual image display device that cannot observe the outside world and a video see-through type virtual image display device that displays an image picked up by an imaging device that images the outside world.

上記各実施形態において、虚像表示装置1、1A、1B、1Cにおいて画像光を生成する構成として、有機ELのディスプレイと、有機EL制御部とを備える構成としてもよい。また、画像光を生成する構成として、LCOS(Liquid crystal on silicon, LCoSは登録商標)や、デジタル・マイクロミラー・デバイス等を用いることもできる。また、例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、画像生成部が、レーザー光源と、レーザー光源を使用者の眼に導く光学系とを備え、レーザー光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより、使用者に画像を視認させる構成を採用してもよい。   In each of the above embodiments, the virtual image display devices 1, 1 </ b> A, 1 </ b> B, and 1 </ b> C may be configured to include an organic EL display and an organic EL control unit as a configuration that generates image light. Further, as a configuration for generating image light, LCOS (Liquid crystal on silicon, LCoS is a registered trademark), a digital micromirror device, or the like can be used. Further, for example, the present invention can be applied to a laser retinal projection type head mounted display. That is, the image generation unit includes a laser light source and an optical system that guides the laser light source to the user's eye, makes the laser light enter the user's eye, scans the retina, and forms an image on the retina. A configuration that allows the user to visually recognize an image may be employed.

また、本発明はLCDにより光を変調して画像光を生成する構成に限定されない。例えば、MEMS(Micro Electro Mechanical System)ミラーを用いた走査光学系を採用し、MEMSディスプレイ技術を利用した表示装置に適用することも可能である。すなわち、画像生成部20は、画像表示素子として、信号光形成部と、信号光形成部が射出する光を走査するMEMSミラーを有する走査光学系と、走査光学系により走査される光によって虚像が形成される光学部材とを備えてもよい。この構成では、信号光形成部が射出した光がMEMSミラーにより反射され、光学部材に入射し、光学部材の中を導かれて、虚像形成面に達する。MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像を使用者が眼で捉えることで、画像が認識される。   Further, the present invention is not limited to a configuration in which image light is generated by modulating light by an LCD. For example, a scanning optical system using a MEMS (Micro Electro Mechanical System) mirror can be adopted and applied to a display device using the MEMS display technology. That is, the image generation unit 20 has a signal light forming unit, a scanning optical system having a MEMS mirror that scans light emitted from the signal light forming unit, and a light scanned by the scanning optical system as an image display element. And an optical member to be formed. In this configuration, the light emitted from the signal light forming unit is reflected by the MEMS mirror, enters the optical member, is guided through the optical member, and reaches the virtual image forming surface. When the MEMS mirror scans the light, a virtual image is formed on the virtual image forming surface, and the user recognizes the virtual image with the eyes, thereby recognizing the image.

また、図9、14、15及び図18に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、各ブロック図に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部140が実行するプログラムは、記憶部120又は制御装置300内の記憶装置に記憶されてもよいし、外部の装置に記憶されたプログラムを通信部117又はインターフェイス125を介して取得して実行する構成としてもよい。また、制御装置300に形成された構成のうち、操作部111のみが単独の使用者インターフェイス(UI)として形成されてもよい。また、制御装置300に形成された構成が重複して虚像表示装置1に形成されていてもよい。例えば、ブロック図に示した制御部140が制御装置300と虚像表示装置1、1A、1B、1Cとの両方に形成されていてもよいし、制御装置300に形成された制御部140と虚像表示装置1、1A、1B、1Cに形成されたCPUとが行う機能が別々に分けられている構成としてもよい。   In addition, at least a part of the functional blocks shown in FIGS. 9, 14, 15 and 18 may be realized by hardware, or may be realized by cooperation of hardware and software. The present invention is not limited to a configuration in which independent hardware resources are arranged as shown in each block diagram. Further, the program executed by the control unit 140 may be stored in the storage unit 120 or the storage device in the control device 300, or the program stored in the external device is acquired via the communication unit 117 or the interface 125. It is good also as a structure to execute. Of the configurations formed in the control device 300, only the operation unit 111 may be formed as a single user interface (UI). Moreover, the structure formed in the control apparatus 300 may be formed in the virtual image display apparatus 1 overlapping. For example, the control unit 140 shown in the block diagram may be formed in both the control device 300 and the virtual image display devices 1, 1A, 1B, and 1C, or the control unit 140 formed in the control device 300 and the virtual image display The functions performed by the CPUs formed in the devices 1, 1A, 1B, and 1C may be separately provided.

1、1A、1B、1C…虚像表示装置、3…表示部、4…アーム部(連結部)、5…移動機構(連結部、可動部)、20…画像生成部、20L…画像生成部、20R…画像生成部、21…本体ケース、22…バンド、23…撮像部(第1撮像部)、25…回動軸部、31…光学装置、31L…左眼用光学装置、31R…右眼用光学装置、41…第1端部(連結部、可動部)、51…ガイドレール、52…スライド部材、81…発光部、81A、81B、81C、81D…LED(光源)、82…プロジェクター(発光部)、83…発光駆動部、84…発光部、86…カメラ(第2撮像部)、100、100A、100B、100C…HMD(表示装置)、120…記憶部、121…キャリブレーションデータ、140…制御部、160…画像処理部、170…表示制御部、181…撮像制御部、182…位置検出制御部、183…AR表示制御部、231…ステレオカメラ、236…回動軸部(連結部、可動部)、238…9軸センサー、300…制御装置、821…光源8、822…光変調部(変調部)、823…投射光学系、841…光源、842…パターンプレート(変調部)、P…位置調整用パターン(所定パターン)、R1…回動軸、R2…回動軸、S…固定平面、US…使用者。   DESCRIPTION OF SYMBOLS 1, 1A, 1B, 1C ... Virtual image display apparatus, 3 ... Display part, 4 ... Arm part (connection part), 5 ... Movement mechanism (connection part, movable part), 20 ... Image generation part, 20L ... Image generation part, 20R ... Image generation unit, 21 ... Body case, 22 ... Band, 23 ... Imaging unit (first imaging unit), 25 ... Rotating shaft unit, 31 ... Optical device, 31L ... Optical device for left eye, 31R ... Right eye Optical device 41... First end (connecting portion, movable portion) 51. Guide rail 52. Slide member 81. Light emitting portion 81 A, 81 B, 81 C, 81 D LED (light source) 82 Projector ( (Light emitting unit), 83 ... light emitting drive unit, 84 ... light emitting unit, 86 ... camera (second imaging unit), 100, 100A, 100B, 100C ... HMD (display device), 120 ... storage unit, 121 ... calibration data, 140 ... control unit, 160 ... image 170, display control unit, 181 ... imaging control unit, 182 ... position detection control unit, 183 ... AR display control unit, 231 ... stereo camera, 236 ... rotating shaft (connecting unit, movable unit), 238 ... 9-axis sensor, 300 ... control device, 821 ... light source 8, 822 ... light modulation unit (modulation unit), 823 ... projection optical system, 841 ... light source, 842 ... pattern plate (modulation unit), P ... pattern for position adjustment ( (Predetermined pattern), R1 ... rotation axis, R2 ... rotation axis, S ... fixed plane, US ... user.

Claims (9)

外景を視認可能に、画像を表示する表示部と、
前記表示部を通して視認される範囲に重なる撮像範囲を撮像する撮像部と、
少なくとも1つの可動部を有し、前記撮像部を前記表示部に連結する連結部と、
前記表示部に対して固定的に設けられる発光部と、を備え、
前記発光部は所定パターンを含む光を発し、
前記撮像部の撮像範囲に位置する対象物に前記発光部の光が投射された場合に、前記対象物上の前記光を前記撮像部で撮像可能であること、
を特徴とする表示装置。
A display unit for displaying an image so that an outside scene can be visually recognized;
An imaging unit that captures an imaging range that overlaps a range visually recognized through the display unit;
A connecting portion that has at least one movable portion and connects the imaging portion to the display portion;
A light emitting part fixedly provided with respect to the display part,
The light emitting unit emits light including a predetermined pattern,
The light on the object can be imaged by the imaging unit when the light of the light emitting unit is projected onto the object located in the imaging range of the imaging unit;
A display device.
前記発光部は複数の光源を備え、複数の前記光源が発する光により前記所定パターンが形成されること、
を特徴とする請求項1記載の表示装置。
The light emitting unit includes a plurality of light sources, and the predetermined pattern is formed by light emitted from the plurality of light sources.
The display device according to claim 1.
前記発光部は、光源と、前記光源が発する光を前記所定パターンに基づき変調する変調部とを備えること、
を特徴とする請求項3記載の表示装置。
The light emitting unit includes a light source and a modulation unit that modulates light emitted from the light source based on the predetermined pattern;
The display device according to claim 3.
前記光源は固体光源で構成されること、
を特徴とする請求項2または3記載の表示装置。
The light source comprises a solid light source;
The display device according to claim 2, wherein:
外景を視認可能に、画像を表示する表示部と、
前記表示部を通して視認される範囲に重なる撮像範囲を撮像する第1撮像部と、
少なくとも1つの可動部を有し、前記第1撮像部を前記表示部に連結する連結部と、
前記表示部に対して固定的に設けられる第2撮像部と、
前記第1撮像部の撮像画像と前記第2撮像部の撮像画像とに基づいて、前記第1撮像部と前記表示部との相対位置を検出する制御部と、
を備えることを特徴とする表示装置。
A display unit for displaying an image so that an outside scene can be visually recognized;
A first imaging unit that images an imaging range that overlaps a range visually recognized through the display unit;
A connecting portion having at least one movable portion and connecting the first imaging portion to the display portion;
A second imaging unit fixedly provided to the display unit;
A control unit that detects a relative position between the first imaging unit and the display unit based on a captured image of the first imaging unit and a captured image of the second imaging unit;
A display device comprising:
外景を視認可能に画像を表示する表示部と、前記表示部を通して視認される範囲に重なる撮像範囲を撮像する撮像部と、少なくとも1つの可動部を有し、前記撮像部を前記表示部に連結する連結部と、前記表示部に対して固定的に設けられる発光部と、を有した表示装置を制御して、
前記発光部が発する光が対象物に投射された場合に、前記対象物上の前記光を前記撮像部により撮像し、
前記撮像部の撮像画像から前記光を検出し、前記撮像画像における前記光の位置を求め、
前記撮像画像における前記光の位置に基づき、前記撮像部と前記表示部との相対位置関係の変化、または相対位置関係を求めること、
を特徴とする表示装置の制御方法。
A display unit that displays an image so that an outside scene can be visually recognized; an imaging unit that captures an imaging range that overlaps a range that is viewed through the display unit; and at least one movable unit, and the imaging unit is connected to the display unit Controlling a display device having a connecting portion to be connected, and a light emitting portion fixed to the display portion,
When the light emitted from the light emitting unit is projected onto an object, the light on the object is imaged by the imaging unit,
Detecting the light from the captured image of the imaging unit, obtaining the position of the light in the captured image,
Based on the position of the light in the captured image, obtaining a change in relative positional relationship between the imaging unit and the display unit, or obtaining a relative positional relationship;
A control method of a display device characterized by the above.
外景を視認可能に画像を表示する表示部と、前記表示部を通して視認される範囲に重なる撮像範囲を撮像する第1撮像部と、少なくとも1つの可動部を有し、前記第1撮像部を前記表示部に連結する連結部と、前記表示部に対して固定的に設けられる第2撮像部と、を備える表示装置を制御して、
前記第1撮像部の撮像画像と前記第2撮像部の撮像画像とに基づいて、前記第1撮像部と前記表示部との相対位置を検出すること、
を特徴とする表示装置の制御方法。
A display unit that displays an image so that an outside scene can be visually recognized; a first imaging unit that captures an imaging range that overlaps a range that is viewed through the display unit; and at least one movable unit, wherein the first imaging unit includes the first imaging unit Controlling a display device comprising: a coupling unit coupled to a display unit; and a second imaging unit fixed to the display unit;
Detecting a relative position between the first imaging unit and the display unit based on a captured image of the first imaging unit and a captured image of the second imaging unit;
A control method of a display device characterized by the above.
外景を視認可能に画像を表示する表示部と、前記表示部を通して視認される範囲に重なる撮像範囲を撮像する撮像部と、少なくとも1つの可動部を有し、前記撮像部を前記表示部に連結する連結部と、前記表示部に対して固定的に設けられる発光部と、を有した表示装置を制御するコンピューターが実行可能なプログラムであって、
前記コンピューターを、
前記発光部が発する光が対象物に投射された場合に、前記対象物上の前記光を前記撮像部により撮像し、
前記撮像部の撮像画像から前記光を検出し、前記撮像画像における前記光の位置を求め、
前記撮像画像における前記光の位置に基づき、前記撮像部と前記表示部との相対位置関係の変化、または相対位置関係を求める制御部として機能させる、プログラム。
A display unit that displays an image so that an outside scene can be visually recognized; an imaging unit that captures an imaging range that overlaps a range that is viewed through the display unit; and at least one movable unit, and the imaging unit is connected to the display unit A computer-executable program for controlling a display device having a connecting portion and a light emitting portion fixed to the display portion,
The computer,
When the light emitted from the light emitting unit is projected onto an object, the light on the object is imaged by the imaging unit,
Detecting the light from the captured image of the imaging unit, obtaining the position of the light in the captured image,
A program that functions as a control unit that determines a change in relative positional relationship between the imaging unit and the display unit or a relative positional relationship based on the position of the light in the captured image.
外景を視認可能に画像を表示する表示部と、前記表示部を通して視認される範囲に重なる撮像範囲を撮像する第1撮像部と、少なくとも1つの可動部を有し、前記第1撮像部を前記表示部に連結する連結部と、前記表示部に対して固定的に設けられる第2撮像部と、を備える表示装置を制御するコンピューターが実行可能なプログラムであって、
前記コンピューターを、
前記第1撮像部の撮像画像と前記第2撮像部の撮像画像とに基づいて、前記第1撮像部と前記表示部との相対位置を検出する制御部として機能させる、プログラム。
A display unit that displays an image so that an outside scene can be visually recognized; a first imaging unit that captures an imaging range that overlaps a range that is viewed through the display unit; and at least one movable unit, wherein the first imaging unit includes the first imaging unit A computer-executable program for controlling a display device comprising: a coupling unit coupled to a display unit; and a second imaging unit fixed to the display unit,
The computer,
A program that functions as a control unit that detects a relative position between the first imaging unit and the display unit based on a captured image of the first imaging unit and a captured image of the second imaging unit.
JP2015095603A 2015-04-17 2015-05-08 Display device, display device control method, and program Active JP6565310B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015095603A JP6565310B2 (en) 2015-05-08 2015-05-08 Display device, display device control method, and program
US15/092,041 US10306217B2 (en) 2015-04-17 2016-04-06 Display device, control method for display device, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015095603A JP6565310B2 (en) 2015-05-08 2015-05-08 Display device, display device control method, and program

Publications (2)

Publication Number Publication Date
JP2016213663A true JP2016213663A (en) 2016-12-15
JP6565310B2 JP6565310B2 (en) 2019-08-28

Family

ID=57552118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015095603A Active JP6565310B2 (en) 2015-04-17 2015-05-08 Display device, display device control method, and program

Country Status (1)

Country Link
JP (1) JP6565310B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022024764A1 (en) * 2020-07-28 2022-02-03 ソニーグループ株式会社 Information processing device
WO2024004338A1 (en) * 2022-06-30 2024-01-04 キヤノン株式会社 Head-mounted display device, state determination device, method for controlling head-mounted display device, method for controlling state determination device, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10327433A (en) * 1997-05-23 1998-12-08 Minolta Co Ltd Display device for composted image
JP2001211403A (en) * 2000-01-25 2001-08-03 Mixed Reality Systems Laboratory Inc Head mount display device and head mount display system
JP2005004165A (en) * 2003-05-21 2005-01-06 Nec Viewtechnology Ltd Projector having tilt angle measuring device
JP2005293291A (en) * 2004-03-31 2005-10-20 Brother Ind Ltd Image input/output device
JP2009200691A (en) * 2008-02-20 2009-09-03 Konica Minolta Holdings Inc Head-mounted video display device
JP2010050757A (en) * 2008-08-21 2010-03-04 Kwansei Gakuin Information providing method and information providing system
US20140176609A1 (en) * 2011-08-09 2014-06-26 Pioneer Corporation Mixed reality apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10327433A (en) * 1997-05-23 1998-12-08 Minolta Co Ltd Display device for composted image
JP2001211403A (en) * 2000-01-25 2001-08-03 Mixed Reality Systems Laboratory Inc Head mount display device and head mount display system
JP2005004165A (en) * 2003-05-21 2005-01-06 Nec Viewtechnology Ltd Projector having tilt angle measuring device
JP2005293291A (en) * 2004-03-31 2005-10-20 Brother Ind Ltd Image input/output device
JP2009200691A (en) * 2008-02-20 2009-09-03 Konica Minolta Holdings Inc Head-mounted video display device
JP2010050757A (en) * 2008-08-21 2010-03-04 Kwansei Gakuin Information providing method and information providing system
US20140176609A1 (en) * 2011-08-09 2014-06-26 Pioneer Corporation Mixed reality apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022024764A1 (en) * 2020-07-28 2022-02-03 ソニーグループ株式会社 Information processing device
WO2024004338A1 (en) * 2022-06-30 2024-01-04 キヤノン株式会社 Head-mounted display device, state determination device, method for controlling head-mounted display device, method for controlling state determination device, and program

Also Published As

Publication number Publication date
JP6565310B2 (en) 2019-08-28

Similar Documents

Publication Publication Date Title
US10306217B2 (en) Display device, control method for display device, and computer program
JP6550885B2 (en) Display device, display device control method, and program
US9959591B2 (en) Display apparatus, method for controlling display apparatus, and program
US9898868B2 (en) Display device, method of controlling the same, and program
US9411160B2 (en) Head mounted display, control method for head mounted display, and image display system
TWI615631B (en) Head-mounted display device and control method of head-mounted display device
US9836120B2 (en) Display device, method of controlling the same, and computer program
US9904053B2 (en) Display device, and method of controlling display device
JP6492531B2 (en) Display device and control method of display device
KR20160048881A (en) Head mounted display device and control method for head mounted display device
JP2017016056A (en) Display system, display device, display device control method, and program
TW201506444A (en) Display device, head mounted display, display system, and control method for display device
JP2016004340A (en) Information distribution system, head-mounted type display device, control method of head-mounted type display device and computer program
JP6432197B2 (en) Display device, display device control method, and program
US20160170482A1 (en) Display apparatus, and control method for display apparatus
JP2016024208A (en) Display device, method for controlling display device, and program
JP2016122177A (en) Display device and control method of display device
JP2016033759A (en) Display device, method for controlling display device, and program
JP2017092628A (en) Display device and display device control method
JP6620417B2 (en) Display device, control method therefor, and computer program
JP6565310B2 (en) Display device, display device control method, and program
JP6638195B2 (en) DISPLAY DEVICE, DISPLAY DEVICE CONTROL METHOD, AND PROGRAM
JP6582374B2 (en) Display device, control method therefor, and computer program
JP2016219897A (en) Display device, control method for the same and program
JP2016033763A (en) Display device, method for controlling display device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190509

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190702

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190715

R150 Certificate of patent or registration of utility model

Ref document number: 6565310

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150