JP2017049468A - Display device, control method for display device, and program - Google Patents

Display device, control method for display device, and program Download PDF

Info

Publication number
JP2017049468A
JP2017049468A JP2015173682A JP2015173682A JP2017049468A JP 2017049468 A JP2017049468 A JP 2017049468A JP 2015173682 A JP2015173682 A JP 2015173682A JP 2015173682 A JP2015173682 A JP 2015173682A JP 2017049468 A JP2017049468 A JP 2017049468A
Authority
JP
Japan
Prior art keywords
image
display
user
unit
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015173682A
Other languages
Japanese (ja)
Other versions
JP6707823B2 (en
Inventor
和夫 西沢
Kazuo Nishizawa
和夫 西沢
高野 正秀
Masahide Takano
正秀 高野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2015173682A priority Critical patent/JP6707823B2/en
Priority to US15/049,203 priority patent/US10162412B2/en
Priority to CN201610117993.XA priority patent/CN106019584A/en
Publication of JP2017049468A publication Critical patent/JP2017049468A/en
Application granted granted Critical
Publication of JP6707823B2 publication Critical patent/JP6707823B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To enable a user who uses a display device to adjust a displayed image as appropriate so that the user can see an outside scenery and the displayed image.SOLUTION: An HMD 1 includes a virtual image display device 100 including a first display device 100A and a second display device 100B for displaying images for the right eye and the left eye of a user while the user can see the outside scenery. The HMD 1 includes a control device 300 that controls the display mode of the image by the virtual image display device 100 in accordance with the viewing distance of the user.SELECTED DRAWING: Figure 1

Description

本発明は、表示装置、表示装置の制御方法、及び、プログラムに関する。   The present invention relates to a display device, a display device control method, and a program.

従来、ヘッドマウント式の表示装置において、実空間の物体の画像を表示するものが知られている(例えば、特許文献1参照)。特許文献1は、表示装置が表示する画像によりユーザーが物体を知覚する位置と実空間でユーザーが物体を見たときとの位置を一致させるため、焦点調節を行う構成を開示する。   Conventionally, a head-mounted display device that displays an image of an object in real space is known (for example, see Patent Document 1). Patent Document 1 discloses a configuration in which focus adjustment is performed so that a position where a user perceives an object from an image displayed by a display device matches a position where the user views the object in real space.

特表2013−537784号公報Special table 2013-537784 gazette

ところで、表示装置を使用する使用者が、表示装置が表示する画像と外景とを視認する場合、使用者がどの方向、或いはどの程度の距離を注視するかによって、表示画像の見え方が変わる。しかしながら、この種の表示装置においては、表示画像の見え方を調整する例は無かった。
本発明は上記事情に鑑みてなされたものであり、表示装置を使用する使用者が、外景と表示画像とを視認できる場合に、表示画像を適切に調整できるようにすることを目的とする。
By the way, when the user who uses the display device visually recognizes the image displayed on the display device and the outside scene, the appearance of the display image changes depending on which direction or how much distance the user gazes at. However, in this type of display device, there has been no example of adjusting the appearance of the display image.
The present invention has been made in view of the above circumstances, and an object thereof is to allow a user who uses a display device to appropriately adjust a display image when the user can visually recognize an outside scene and a display image.

上記目的を達成するため、本発明は、外景を視認可能に、使用者の右眼と左眼のそれぞれに対応して画像を表示する表示部と、前記表示部による画像の表示態様を、前記使用者の注視距離に応じて制御する制御部と、を備えることを特徴とする。
本発明によれば、使用者が外景と画像とを視認する場合に、画像の表示態様を、使用者が注視する距離に適合させることができる。このため、表示画像を適切に調整することができ、例えば使用者の負荷を軽減し、表示画像の視認性を高めることができる。
To achieve the above object, the present invention provides a display unit that displays an image corresponding to each of a user's right eye and left eye so that an outside scene can be visually recognized, and an image display mode by the display unit, And a control unit that controls according to the gaze distance of the user.
ADVANTAGE OF THE INVENTION According to this invention, when a user visually recognizes an outside scene and an image, the display mode of an image can be adapted to the distance which a user gazes at. For this reason, a display image can be adjusted appropriately, for example, a user's load can be reduced and the visibility of a display image can be improved.

また、本発明は、上記表示装置において、前記制御部は、前記使用者の注視距離に応じて、前記表示部による前記画像の表示位置及び/又は前記画像の表示サイズを変更すること、を特徴とする。
本発明によれば、画像の表示位置や表示サイズを、使用者が注視する距離に適合させることができる。
In the display device according to the present invention, the control unit changes a display position of the image and / or a display size of the image according to the gaze distance of the user. And
According to the present invention, the display position and display size of an image can be adapted to the distance that the user gazes at.

また、本発明は、上記表示装置において、前記制御部は、前記使用者の注視距離に対応する両眼の輻輳角に基づき、前記表示部による画像の表示態様を制御すること、を特徴とする。
本発明によれば、使用者の両眼の輻輳角に対応して画像の表示態様を制御することで、使用者が注視する距離に適合する表示態様を実現できる。
Further, the present invention is characterized in that, in the display device, the control unit controls an image display mode by the display unit based on a convergence angle of both eyes corresponding to the gaze distance of the user. .
ADVANTAGE OF THE INVENTION According to this invention, the display mode suitable for the distance which a user gazes is realizable by controlling the display mode of an image corresponding to the convergence angle of a user's both eyes.

また、本発明は、上記表示装置において、前記制御部は、前記使用者の両眼の輻輳角を求め、求めた輻輳角に対応して、前記表示部が表示する画像を前記使用者が視認する位置を変化させること、を特徴とする。
本発明によれば、表示装置が使用者の両眼の輻輳角を求めて、表示画像を使用者が視認する位置を変化させるので、使用者の注視距離に適した位置に画像を表示できる。このため、表示画像の視認性を高めることができ、使用者が外景において注視する距離に適した表示画像を、使用者に視認させることができる。
Further, according to the present invention, in the display device, the control unit calculates a convergence angle of both eyes of the user, and the user visually recognizes an image displayed on the display unit corresponding to the calculated convergence angle. It is characterized in that the position to be changed is changed.
According to the present invention, since the display device obtains the convergence angle of both eyes of the user and changes the position at which the user visually recognizes the display image, the image can be displayed at a position suitable for the gaze distance of the user. For this reason, the visibility of a display image can be improved and a user can visually recognize the display image suitable for the distance which a user gazes in an outside scene.

また、本発明は、上記表示装置において、前記制御部は、前記使用者の両眼の輻輳角に対応して、前記表示部が前記画像を表示する表示位置を、予め設定された標準位置からシフトさせること、を特徴とする。
本発明によれば、使用者の注視距離に適した位置に画像を表示できる。
In the display device according to the aspect of the invention, the control unit may change a display position where the display unit displays the image from a preset standard position corresponding to a convergence angle of both eyes of the user. Shifting.
ADVANTAGE OF THE INVENTION According to this invention, an image can be displayed on the position suitable for a user's gaze distance.

また、本発明は、上記表示装置において、前記使用者の両眼の状態を検出する状態検出部を備え、前記制御部は、前記状態検出部の検出結果に基づいて、前記使用者の注視距離を算出し、算出した注視距離に応じて前記表示部による画像の表示態様を制御すること、を特徴とする。
本発明によれば、表示装置が使用者の両眼の状態を検出して注視距離を算出するので、使用者が煩雑な操作を行わなくても、画像の表示態様を適切に調整できる。
In the display device according to the present invention, the display device further includes a state detection unit that detects a state of both eyes of the user, and the control unit is based on a detection result of the state detection unit. And a display mode of the image by the display unit is controlled according to the calculated gaze distance.
According to the present invention, since the display device detects the state of both eyes of the user and calculates the gaze distance, the display mode of the image can be appropriately adjusted without the user performing a complicated operation.

また、本発明は、上記表示装置において、前記状態検出部は、前記使用者の右眼と左眼のそれぞれに対応して設けられる第1撮像部を備え、前記制御部は、前記第1撮像部の撮像画像に基づいて、前記使用者の両眼の瞳孔間距離、瞳孔径、或いは注視方向の注視時間の少なくともいずれかを求めることにより、前記使用者の注視距離を算出すること、を特徴とする。
本発明によれば、使用者の両眼の状態から高精度で注視距離を算出できる。
Further, according to the present invention, in the display device, the state detection unit includes a first imaging unit provided corresponding to each of the right eye and the left eye of the user, and the control unit includes the first imaging unit. Calculating a gaze distance of the user by obtaining at least one of a distance between pupils of both eyes of the user, a pupil diameter, or a gaze time in a gaze direction based on a captured image of the user. And
According to the present invention, the gaze distance can be calculated with high accuracy from the state of both eyes of the user.

また、本発明は、上記表示装置において、前記状態検出部は、前記使用者の注視方向を撮像する第2撮像部を備え、前記制御部は、前記第2撮像部の撮像画像に基づいて、前記使用者が注視する注視対象物までの距離を求めることにより、前記使用者の注視距離を算出すること、を特徴とする。
本発明によれば、より高精度で注視距離を算出できる。
In the display device according to the aspect of the invention, the state detection unit includes a second imaging unit that captures an image of the gaze direction of the user, and the control unit is based on a captured image of the second imaging unit. The gaze distance of the user is calculated by obtaining a distance to the gaze object that the user gazes at.
According to the present invention, the gaze distance can be calculated with higher accuracy.

また、本発明は、上記表示装置において、前記表示部は、画像光を出射する出射部と、前記出射部が出射する画像光を前記使用者の右眼と左眼のそれぞれに導く光学系と、前記出射部または前記光学系を構成する少なくとも一部の部材を変位させ、前記光学系から前記使用者の右眼と左眼とに入射する画像光の角度を変更する変更部と、を備え、前記制御部は、前記使用者の注視距離に応じて前記変更部を動作させること、を特徴とする。
本発明によれば、部材を変位させることによって画像の表示態様を調整できる。
Further, in the display device according to the present invention, the display unit includes: an emission unit that emits image light; and an optical system that guides the image light emitted from the emission unit to each of the right eye and the left eye of the user. A changing unit that displaces at least a part of the light emitting unit or the optical system and changes the angle of image light incident on the right and left eyes of the user from the optical system. The control unit operates the changing unit according to the gaze distance of the user.
According to the present invention, the display mode of an image can be adjusted by displacing the member.

また、本発明は、上記表示装置において、前記制御部は、前記使用者の注視距離に応じて、前記表示部が表示する画像を前記使用者が視認する表示範囲における画像の位置を制御すること、を特徴とする。
本発明によれば、画像の表示位置を、使用者の注視距離に合わせて適切に調整できる。
Further, according to the present invention, in the display device, the control unit controls a position of an image in a display range where the user visually recognizes an image displayed by the display unit according to a gaze distance of the user. It is characterized by.
ADVANTAGE OF THE INVENTION According to this invention, the display position of an image can be adjusted appropriately according to a user's gaze distance.

また、本発明は、上記表示装置において、画像データに基づき前記表示部が表示する画像を生成する画像生成部を備え、前記制御部は、前記使用者の注視距離に応じて、前記画像生成部により前記画像データの一部を切り出して調整用の画像を生成させ、前記調整用の画像を前記表示部に表示させること、を特徴とする。
本発明によれば、画像を切り出すことによって、画像の表示位置の調整範囲を拡大することができ、また、画像の表示位置を変更する場合の違和感を解消できる。
The display device may further include an image generation unit that generates an image to be displayed by the display unit based on image data, and the control unit is configured to generate the image generation unit according to a gaze distance of the user. A part of the image data is cut out to generate an adjustment image, and the adjustment image is displayed on the display unit.
According to the present invention, by cutting out an image, the adjustment range of the display position of the image can be expanded, and uncomfortable feeling when changing the display position of the image can be eliminated.

また、本発明は、上記表示装置において、前記制御部は、前記使用者の注視距離が予め設定された基準距離より近い場合に、前記表示部によって前記使用者の右眼または左眼のいずれかに対応する画像を表示させること、を特徴とする。
本発明によれば、使用者の注視距離が近い場合であっても、使用者の負担を軽減できる。
Further, according to the present invention, in the display device described above, when the gaze distance of the user is closer than a preset reference distance, the control unit uses the display unit to select either the right eye or the left eye of the user. An image corresponding to is displayed.
According to the present invention, even when the user's gaze distance is short, the burden on the user can be reduced.

また、上記目的を達成するため、本発明は、外景を視認可能に、使用者の右眼と左眼のそれぞれに対応して画像を表示する表示装置であって、画像光を出射する出射部と、前記出射部が出射する画像光を前記使用者の右眼と左眼のそれぞれに導く光学系と、前記出射部の出射方向または前記光学系から前記使用者の右眼と左眼とに入射する画像光の入射角度を変更する変更部と、を備える表示部と、画像データに基づき前記表示部が表示する画像を生成する画像生成部と、前記使用者の注視距離を算出し、算出した注視距離に応じて、前記変更部を動作させる処理、及び、前記使用者の注視距離に応じて、前記画像生成部により前記画像データの一部を切り出して調整用の画像を生成させ、前記調整用の画像を前記表示部に表示させる処理の少なくともいずれかを実行する制御部と、を備えることを特徴とする。
本発明によれば、使用者が外景と画像とを視認する場合に、画像の表示態様を、使用者が注視する距離に適合させることができる。このため、表示画像を適切に調整することができ、例えば使用者の負荷を軽減し、表示画像の視認性を高めることができる。
In order to achieve the above object, the present invention provides a display device that displays an image corresponding to each of a user's right eye and left eye so that an outside scene can be visually recognized, and an emitting unit that emits image light. An optical system that guides the image light emitted by the emission unit to each of the right eye and the left eye of the user, and an emission direction of the emission unit or from the optical system to the right eye and the left eye of the user. A change unit that changes an incident angle of incident image light; an image generation unit that generates an image displayed by the display unit based on image data; and a gaze distance of the user is calculated and calculated. The process of operating the changing unit according to the gaze distance performed, and the image generation unit cut out a part of the image data according to the gaze distance of the user to generate an image for adjustment, The process of displaying the image for adjustment on the display unit Even without, characterized in that it comprises a control unit for executing either.
ADVANTAGE OF THE INVENTION According to this invention, when a user visually recognizes an outside scene and an image, the display mode of an image can be adapted to the distance which a user gazes at. For this reason, a display image can be adjusted appropriately, for example, a user's load can be reduced and the visibility of a display image can be improved.

また、本発明は、上記表示装置において、外部撮像部を備え、前記制御部は、前記外部撮像部の撮像画像に基づく画像を前記表示部に表示させる処理を実行可能であること、を特徴とする。
本発明によれば、表示部の外側の景色である外景を使用者に視認させることができる。
Further, the present invention is characterized in that the display device includes an external imaging unit, and the control unit is capable of executing processing for displaying an image based on a captured image of the external imaging unit on the display unit. To do.
ADVANTAGE OF THE INVENTION According to this invention, the user can visually recognize the external scene which is the scenery of the outer side of a display part.

また、本発明は、上記表示装置において、前記表示部は、前記表示部を透過する外光により前記使用者が外景を視認可能に構成され、前記外部撮像部の撮像画像に基づく画像を、前記外景と同時に視認可能に表示すること、を特徴とする。
本発明によれば、外景と表示画像とを視認可能に表示する場合に、表示画像を適切に調整することができ、例えば使用者の負荷を軽減し、表示画像の視認性を高めることができる。
Further, in the display device according to the present invention, the display unit is configured such that the user can visually recognize an outside scene by external light transmitted through the display unit, and an image based on a captured image of the external imaging unit is It is characterized by being displayed so as to be visible simultaneously with the outside scene.
ADVANTAGE OF THE INVENTION According to this invention, when displaying an external scene and a display image so that visual recognition is possible, a display image can be adjusted appropriately, for example, a user's load can be reduced and the visibility of a display image can be improved. .

また、本発明は、上記表示装置において、前記制御部は、前記撮像画像に基づく画像を前記表示部に表示させる場合に、前記表示部を透過する外光に比べ、前記撮像画像に基づく画像の視認性を高める処理を行うこと、を特徴とする。
本発明によれば、表示部が表示する画像を明瞭に視認させることができ、外光により視認する外景と、表示画像とを区別しやすくなる。
In the display device according to the aspect of the invention, when the control unit displays an image based on the captured image on the display unit, the control unit displays an image based on the captured image compared to external light transmitted through the display unit. A process for improving visibility is performed.
According to the present invention, the image displayed on the display unit can be clearly recognized, and the outside scene visually recognized by the external light and the display image can be easily distinguished.

また、本発明は、上記表示装置において、前記制御部は、前記撮像画像に基づく画像を前記表示部に表示させる場合に、前記撮像画像に基づく画像の輝度または色彩を変化させ、或いは、前記撮像画像に基づく画像に対するエッジ強調処理を行うことにより、前記撮像画像に基づく画像の視認性を高める処理を行うこと、を特徴とする。
本発明によれば、表示部の表示画像の視認性を、効果的に高めることができる。
In the display device according to the aspect of the invention, when the control unit displays an image based on the captured image on the display unit, the brightness or color of the image based on the captured image is changed, or the imaging By performing edge enhancement processing on the image based on the image, processing for improving the visibility of the image based on the captured image is performed.
ADVANTAGE OF THE INVENTION According to this invention, the visibility of the display image of a display part can be improved effectively.

また、本発明は、上記表示装置において、前記制御部は、前記外部撮像部の撮像画像に基づく画像を、前記表示部により前記使用者の右眼と左眼のいずれか一方に対応して表示すること、を特徴とする。
本発明によれば、使用者の注視距離に影響されずに、表示部が表示する画像を使用者に視認させることができる。
Further, according to the present invention, in the display device, the control unit displays an image based on a captured image of the external imaging unit on the display unit corresponding to either the right eye or the left eye of the user. It is characterized by doing.
ADVANTAGE OF THE INVENTION According to this invention, a user can be made to visually recognize the image which a display part displays, without being influenced by a user's gaze distance.

また、本発明は、上記表示装置において、前記外部撮像部の撮像画像に基づく画像を、前記表示部により、左右の視差を有さない態様で前記使用者の右眼及び左眼のそれぞれに対応して表示すること、を特徴とする。
本発明によれば、使用者の注視距離の影響を受けにくく、表示画像を良好に視認できる。
According to the present invention, in the above display device, an image based on an image captured by the external imaging unit corresponds to each of the right eye and the left eye of the user in a form that does not have left and right parallax by the display unit. And displaying it.
ADVANTAGE OF THE INVENTION According to this invention, it is hard to receive to the influence of a user's gaze distance, and a display image can be visually recognized favorably.

また、本発明は、上記表示装置において、前記制御部は、前記外部撮像部の撮像画像を拡大して前記表示部により表示すること、を特徴とする。
本発明によれば、外景を拡大して表示できる。
Moreover, the present invention is characterized in that, in the display device, the control unit enlarges a captured image of the external imaging unit and displays the enlarged image on the display unit.
According to the present invention, an outside scene can be enlarged and displayed.

また、本発明は、上記表示装置において、前記制御部は、前記使用者の操作を受け付けた場合に、前記外部撮像部の撮像画像に基づく画像を表示すること、を特徴とする。
本発明によれば、使用者の操作に応じて外景を表示できる。
Moreover, the present invention is characterized in that, in the display device, the control unit displays an image based on a captured image of the external imaging unit when receiving an operation of the user.
According to the present invention, an outside scene can be displayed according to a user's operation.

また、本発明は、上記表示装置において、前記制御部は、前記使用者の注視距離を検出し、検出した注視距離が予め設定された距離より短い場合に、前記外部撮像部の撮像画像に基づく画像を表示すること、を特徴とする。
本発明によれば、使用者の注視距離に対応して外景の表示を行うことができる。
In the display device according to the aspect of the invention, the control unit detects a gaze distance of the user, and when the detected gaze distance is shorter than a preset distance, the control unit is based on a captured image of the external imaging unit. An image is displayed.
According to the present invention, it is possible to display an outside scene corresponding to the gaze distance of the user.

また、本発明は、上記表示装置において、前記外部撮像部は、前記表示部の装着状態において前記使用者の視線方向を含む範囲を撮像すること、を特徴とする。
本発明によれば、使用者の視線方向を含む範囲の撮像画像に基づく画像を表示できる。
Further, the present invention is characterized in that, in the display device, the external imaging unit images a range including the visual line direction of the user when the display unit is mounted.
ADVANTAGE OF THE INVENTION According to this invention, the image based on the captured image of the range containing a user's gaze direction can be displayed.

また、上記目的を達成するため、本発明の表示装置の制御方法は、外景を視認可能に、使用者の右眼と左眼のそれぞれに対応して画像を表示する表示部を備える表示装置により、前記表示部による画像の表示態様を、前記使用者の注視距離に応じて制御すること、を特徴とする。
本発明によれば、使用者が外景と画像とを視認する場合に、画像の表示態様を、使用者が注視する距離に適合させることができる。このため、表示画像を適切に調整することができ、例えば使用者の負荷を軽減し、表示画像の視認性を高めることができる。
In order to achieve the above object, the display device control method of the present invention is a display device including a display unit that displays an image corresponding to each of the right eye and the left eye of a user so that an outside scene can be visually recognized. The display mode of the image by the display unit is controlled according to the gaze distance of the user.
ADVANTAGE OF THE INVENTION According to this invention, when a user visually recognizes an outside scene and an image, the display mode of an image can be adapted to the distance which a user gazes at. For this reason, a display image can be adjusted appropriately, for example, a user's load can be reduced and the visibility of a display image can be improved.

また、上記目的を達成するため、本発明は、外景を視認可能に、使用者の右眼と左眼のそれぞれに対応して画像を表示する表示部を備える表示装置を制御するコンピューターが実行可能なプログラムであって、前記コンピューターを、前記表示部による画像の表示態様を、前記使用者の注視距離に応じて制御する制御部として機能させる。
本発明のプログラムをコンピューターが実行することにより、表示装置が表示する画像と外景とを使用者が視認する場合に、画像の表示態様を、使用者が注視する距離に適合させることができる。このため、表示画像を適切に調整することができ、例えば使用者の負荷を軽減し、表示画像の視認性を高めることができる。
In order to achieve the above object, the present invention can be executed by a computer that controls a display device including a display unit that displays an image corresponding to each of the user's right eye and left eye so that the outside scene can be visually recognized. The computer causes the computer to function as a control unit that controls an image display mode by the display unit according to the gaze distance of the user.
By executing the program of the present invention by the computer, when the user visually recognizes the image displayed on the display device and the outside scene, the display mode of the image can be adapted to the distance that the user gazes at. For this reason, a display image can be adjusted appropriately, for example, a user's load can be reduced and the visibility of a display image can be improved.

本発明の第1実施形態のHMDの外観を説明する斜視図。The perspective view explaining the appearance of HMD of a 1st embodiment of the present invention. 虚像表示装置から外装部材を取り除いた内部構造を示す斜視図。The perspective view which shows the internal structure which removed the exterior member from the virtual image display apparatus. (A)は、虚像表示装置の外観を示す平面図であり、(B)は、正面図であり、(C)は、側面図。(A) is a top view which shows the external appearance of a virtual image display apparatus, (B) is a front view, (C) is a side view. 虚像表示装置の外観を別の角度から示す斜視図。The perspective view which shows the external appearance of a virtual image display apparatus from another angle. 虚像表示装置を構成する本体部分の平面視の断面図。Sectional drawing of the planar view of the main-body part which comprises a virtual image display apparatus. 光学装置部と導光部材との配置関係を説明する断面図。Sectional drawing explaining the arrangement | positioning relationship between an optical apparatus part and a light guide member. 観察者の視認距離と輻輳角を示す説明図。Explanatory drawing which shows a viewer's visual recognition distance and a convergence angle. 輻輳角と表示距離との関係について説明する図表。The figure explaining the relationship between a convergence angle and display distance. HMDの各部の機能ブロック図。The functional block diagram of each part of HMD. 画像の表示態様の調整方法を示す説明図であり、(A)は使用者の注視距離と輻輳角を示す模式図であり、(B)は使用者の両眼の視野を示す模式図である。It is explanatory drawing which shows the adjustment method of the display mode of an image, (A) is a schematic diagram which shows a user's gaze distance and a convergence angle, (B) is a schematic diagram which shows the visual field of a user's both eyes. . 画像の表示態様の調整方法を示す説明図であり、(A)は機械的動作により表示位置を調整する動作を示し、(B)及び(C)は画像処理により表示位置を調整する動作を示す。It is explanatory drawing which shows the adjustment method of the display mode of an image, (A) shows the operation | movement which adjusts a display position by mechanical operation, (B) and (C) show the operation | movement which adjusts a display position by image processing. . HMDの動作を示すフローチャート。The flowchart which shows operation | movement of HMD. 参照データ生成処理を示すフローチャート。The flowchart which shows a reference data production | generation process. 輻輳角検出処理を示すフローチャート。The flowchart which shows a convergence angle detection process. 画像調整処理を示すフローチャート。5 is a flowchart showing image adjustment processing. 第2実施形態におけるHMDの動作を示すフローチャート。The flowchart which shows operation | movement of HMD in 2nd Embodiment. マイクロスコープ表示処理を示すフローチャート。The flowchart which shows a microscope display process. マイクロスコープ表示処理における表示例を示す図。The figure which shows the example of a display in a microscope display process. テレスコープ表示処理を示すフローチャート。The flowchart which shows a telescope display process. 第2実施形態における画像調整処理を示すフローチャート。10 is a flowchart illustrating image adjustment processing according to the second embodiment. 第3実施形態におけるHMDの構成を示す図。The figure which shows the structure of HMD in 3rd Embodiment.

[第1実施形態]
以下、図1等を参照しつつ、本発明に係る虚像表示装置の一実施形態について詳細に説明する。
[First Embodiment]
Hereinafter, an embodiment of a virtual image display device according to the present invention will be described in detail with reference to FIG.

図1は、本発明を適用した第1実施形態に係る表示装置としてのHMD(Head Mounted Display:頭部装着型表示装置)1の外観構成を示す説明図である。HMD1は、使用者の頭部に装着された状態で使用者に虚像を視認させる虚像表示装置100(表示部)と、虚像表示装置100を制御する制御装置300と、を備えている。制御装置300は、使用者がHMD1を操作するコントローラーとしても機能する。   FIG. 1 is an explanatory diagram showing an external configuration of an HMD (Head Mounted Display) 1 as a display device according to a first embodiment to which the present invention is applied. The HMD 1 includes a virtual image display device 100 (display unit) that allows a user to visually recognize a virtual image while being mounted on the user's head, and a control device 300 that controls the virtual image display device 100. The control device 300 also functions as a controller for the user to operate the HMD 1.

本実施形態のHMD1は、使用者が、虚像表示装置100によって虚像を視認すると同時に、虚像表示装置100を透過して外景を視認可能な光学透過型の表示装置である。なお、本明細書では、HMD1によって使用者が視認する虚像を便宜的に「表示画像」と呼ぶ。また、画像データに基づいて生成された画像光を虚像表示装置100が射出することを「画像を表示する」ともいう。   The HMD 1 of the present embodiment is an optically transmissive display device that allows a user to visually recognize a virtual image with the virtual image display device 100 and at the same time to see the outside scene through the virtual image display device 100. In the present specification, a virtual image visually recognized by the user with the HMD 1 is referred to as a “display image” for convenience. The virtual image display device 100 emitting image light generated based on image data is also referred to as “displaying an image”.

虚像表示装置100は、接続ケーブル41で制御装置300に接続される。接続ケーブル41は、制御装置300から虚像表示装置100へ電源を供給する電源ケーブル(図示略)、及び、虚像表示装置100と制御装置300とが各種データを送受信するデータ通信ケーブル(図示略)を内蔵する。
また、制御装置300には、接続ケーブル41と分岐するオーディオケーブル46が接続する。オーディオケーブル46は、右イヤホン32及び左イヤホン34と、マイク63とが接続される。右イヤホン32及び左イヤホン34は、音声処理部190(図9)が出力する音声信号に基づき音声を出力する。
The virtual image display device 100 is connected to the control device 300 by a connection cable 41. The connection cable 41 includes a power cable (not shown) that supplies power from the control device 300 to the virtual image display device 100, and a data communication cable (not shown) that transmits and receives various data between the virtual image display device 100 and the control device 300. Built in.
Further, the connection cable 41 and the audio cable 46 branched off are connected to the control device 300. The audio cable 46 is connected to the right earphone 32 and the left earphone 34 and the microphone 63. The right earphone 32 and the left earphone 34 output sound based on the sound signal output from the sound processing unit 190 (FIG. 9).

マイク63は、音声を集音して、音声信号を後述する音声処理部190(図9)に出力する。マイク63は、例えばモノラルマイクであってもステレオマイクであってもよく、指向性を有するマイクであってもよいし、無指向性のマイクであってもよい。
ここで、虚像表示装置100が電池等の電源を有する場合には、虚像表示装置100と制御装置300とを無線通信により接続することも可能である。
The microphone 63 collects sound and outputs the sound signal to the sound processing unit 190 (FIG. 9) described later. For example, the microphone 63 may be a monaural microphone or a stereo microphone, may be a directional microphone, or may be an omnidirectional microphone.
Here, when the virtual image display device 100 has a power source such as a battery, the virtual image display device 100 and the control device 300 can be connected by wireless communication.

まず、虚像表示装置100の構成について説明する。
図1に示すように、虚像表示装置100は、眼鏡のような外観を有するヘッドマウントディスプレイを構成する。虚像表示装置100は、虚像表示装置100を装着した観察者又は使用者に対して虚像による画像光(映像光)を視認させることができるとともに、観察者に外界像(外景)をシースルーで視認又は観察させることができる。虚像表示装置100は、観察者(使用者、ユーザー)の眼前を透視可能に覆う第1及び第2光学部材101a,101bと、両光学部材101a,101bを支持する枠部102と、枠部102の左右両端から後方のつる部分(テンプル)104にかけての部分に付加された第1及び第2像形成本体部105a,105bとを備える。ここで、図面上で左側の第1光学部材101aと第1像形成本体部105aとを組み合わせた第1表示装置100Aは、右眼用の虚像を形成する部分であり、単独でも虚像表示装置として機能する。また、図面上で右側の第2光学部材101bと第2像形成本体部105bとを組み合わせた第2表示装置100Bは、左眼用の虚像を形成する部分であり、単独でも虚像表示装置として機能する。
First, the configuration of the virtual image display device 100 will be described.
As shown in FIG. 1, the virtual image display device 100 constitutes a head mounted display having an appearance like glasses. The virtual image display device 100 allows an observer or a user wearing the virtual image display device 100 to visually recognize image light (video light) based on a virtual image, and allows the observer to view an external image (outside scene) through a see-through or Can be observed. The virtual image display device 100 includes first and second optical members 101a and 101b that cover the front of an observer (user or user) in a transparent manner, a frame portion 102 that supports both optical members 101a and 101b, and a frame portion 102. The first and second image forming main body portions 105a and 105b are added to a portion extending from the left and right ends to a rear vine portion (temple) 104. Here, the first display device 100A in which the first optical member 101a on the left side and the first image forming main body portion 105a in the drawing are combined is a portion that forms a virtual image for the right eye, and can be used alone as a virtual image display device. Function. Further, the second display device 100B in which the second optical member 101b on the right side in the drawing and the second image forming main body portion 105b are combined is a portion that forms a virtual image for the left eye, and functions alone as a virtual image display device. To do.

図2は、虚像表示装置100の内部構造を示しており、図2を図1と比較することで、虚像表示装置100の外観と内部とが対比される。例えば、第1及び第2像形成本体部105a,105bは、鏡筒部39に収納される投射レンズ30や、映像表示素子82を含む画像表示装置80でそれぞれ構成される。   FIG. 2 shows an internal structure of the virtual image display device 100. By comparing FIG. 2 with FIG. 1, the appearance and the inside of the virtual image display device 100 are compared. For example, the first and second image forming main body portions 105 a and 105 b are respectively configured by the projection lens 30 housed in the lens barrel portion 39 and the image display device 80 including the video display element 82.

図1から図4までの各図に外観や内部を示すように、虚像表示装置100に設けた枠部102は、上端側に配置されるフレーム107と、フレーム107に沿ってその裏側に配置される樹脂部108とを備える。なお、虚像表示装置100は、下側に枠状の部分のない構成となっている。枠部102を構成するフレーム107は、U字状に折れ曲がった細長い板状の部材であり、観察者にとっての眼の並びに対応する方向である左右の横方向に延びる正面部107aと、観察者にとっての前後に対応する方向である奥行き方向に延びる一対の側面部107b,107cとを備える。両側面部107b,107cは、厳密に平行ではなく、先端に向かって若干広がるように小角を成している。フレーム107、すなわち正面部107aと側面部107b,107cとは、アルミダイカストその他の各種金属材料で形成された金属製の一体部品である。樹脂部108は、フレーム107に沿って配置され、フレーム107と嵌合することでこれと協働して例えば画像形成のための各種ケーブル等を収納可能にしている。フレーム107において、正面部107a及び樹脂部108の奥行き方向の幅は、第1及び第2光学部材101a,101bに対応する導光装置20の厚み又は幅と同程度となっている。フレーム107の左側方、具体的には正面部107aにおける向かって左端部から側面部107bにかけての部分には、第1光学部材101aと第1像形成本体部105aとがアライメントされ例えばネジ止めによって直接固定されることにより、支持されている。また、フレーム107の右側方、具体的には正面部107aにおける向かって右端部から側面部107cにかけての部分には、第2光学部材101bと第2像形成本体部105bとがアライメントされ例えばネジ止めにより直接固定されることによって、支持されている。なお、第1光学部材101aと第1像形成本体部105aとは、嵌合等によって互いにアライメントされ、第2光学部材101bと第2像形成本体部105bとは、嵌合等によって互いにアライメントされる。   As shown in each drawing from FIG. 1 to FIG. 4, the frame 102 provided in the virtual image display device 100 is disposed on the back side along the frame 107 disposed on the upper end side and the frame 107. The resin part 108 is provided. The virtual image display device 100 has a configuration without a frame-like portion on the lower side. The frame 107 constituting the frame portion 102 is an elongated plate-like member bent in a U-shape, and includes a front portion 107a extending in the left and right lateral directions, which are corresponding directions of the eyes for the observer, and the observer. A pair of side surface portions 107b and 107c extending in the depth direction corresponding to the front and rear directions. Both side surface portions 107b and 107c are not strictly parallel, but have a small angle so as to spread slightly toward the tip. The frame 107, that is, the front surface portion 107a and the side surface portions 107b and 107c are metal integrated parts formed of aluminum die casting or other various metal materials. The resin portion 108 is disposed along the frame 107, and by fitting with the frame 107, in cooperation with the resin portion 108, for example, various cables for image formation can be stored. In the frame 107, the width in the depth direction of the front portion 107a and the resin portion 108 is approximately the same as the thickness or width of the light guide device 20 corresponding to the first and second optical members 101a and 101b. The first optical member 101a and the first image forming main body portion 105a are aligned on the left side of the frame 107, specifically, the portion from the left end portion to the side surface portion 107b in the front portion 107a, and the first image forming main body portion 105a is directly aligned by, for example, screwing. It is supported by being fixed. In addition, the second optical member 101b and the second image forming main body 105b are aligned on the right side of the frame 107, specifically, the portion from the right end portion to the side surface portion 107c toward the front portion 107a, for example, by screwing. It is supported by being directly fixed by. The first optical member 101a and the first image forming main body 105a are aligned with each other by fitting or the like, and the second optical member 101b and the second image forming main body 105b are aligned with each other by fitting or the like. .

枠部102を構成するフレーム107及び樹脂部108は、第1及び第2像形成本体部105a,105bを支持するだけでなく、これらを覆うカバー状の外装部材105dと協働して第1及び第2像形成本体部105a,105bの内部を保護する役割を有する。なお、フレーム107は、第1及び第2像形成本体部105a,105bに連結される第1及び第2光学部材101a,101b又は導光装置20の根元側を除いた上側部分と離間するか又は緩く接している。このため、中央の導光装置20と、フレーム107を含む枠部102との間に熱膨張率の差があっても、枠部102内での導光装置20の膨張が許容され、導光装置20に歪み、変形、破損が生じることを防止できる。   The frame 107 and the resin portion 108 constituting the frame portion 102 not only support the first and second image forming main body portions 105a and 105b, but also cooperate with a cover-like exterior member 105d that covers them. It has a role of protecting the inside of the second image forming main body portions 105a and 105b. The frame 107 is separated from the first and second optical members 101a and 101b connected to the first and second image forming main body portions 105a and 105b, or the upper portion excluding the base side of the light guide device 20, or It touches loosely. For this reason, even if there is a difference in thermal expansion coefficient between the central light guide device 20 and the frame portion 102 including the frame 107, the light guide device 20 is allowed to expand within the frame portion 102, and the light guide It is possible to prevent the device 20 from being distorted, deformed, or damaged.

枠部102に付随して、鼻受部40が設けられている。鼻受部40は、観察者の鼻に当接することによって枠部102を支持する役割を有する。つまり、枠部102は、鼻に支持される鼻受部40と耳に支持される一対のテンプル部104とによって、観察者の顔前に配置されることになる。鼻受部40は、枠部102を構成する一方のフレーム107の正面部107aにおいて、ねじ止めによって固定されている。なお、以上のように図1を参照して示す外観は一例である。例えば、ねじ止めによって固定される機構など光学的機構として直接関与しない箇所等の構成は、適宜変更できる。   A nose receiving portion 40 is provided along with the frame portion 102. The nose receiving portion 40 has a role of supporting the frame portion 102 by coming into contact with the observer's nose. That is, the frame portion 102 is disposed in front of the observer's face by the nose support portion 40 supported by the nose and the pair of temple portions 104 supported by the ears. The nose receiving portion 40 is fixed by screwing at a front portion 107 a of one frame 107 constituting the frame portion 102. In addition, the external appearance shown with reference to FIG. 1 as mentioned above is an example. For example, the configuration of parts that are not directly involved as an optical mechanism, such as a mechanism that is fixed by screwing, can be changed as appropriate.

図2等に示すように、第1表示装置100Aは、投影用の光学系である投射透視装置70(光学系)と、映像光を形成する画像表示装置80(出射部)とを備えると見ることができる。画像表示装置80は、投射透視装置70に映像光を投射する投射部に相当する。また、第2表示装置100Bは、第1表示装置100Aと左右対称に構成される。第2表示装置100Bが備える部材や第2表示装置100B内部における部材の配置は、第1表示装置100Aと同様である。このため、以下では第1表示装置100Aについて説明し、第2表示装置100Bの説明に代える。   As shown in FIG. 2 and the like, the first display device 100A is considered to include a projection see-through device 70 (optical system) that is an optical system for projection and an image display device 80 (emission unit) that forms image light. be able to. The image display device 80 corresponds to a projection unit that projects image light onto the projection fluoroscopic device 70. The second display device 100B is configured to be bilaterally symmetric with the first display device 100A. The arrangement of the members included in the second display device 100B and the members inside the second display device 100B are the same as those of the first display device 100A. Therefore, hereinafter, the first display device 100A will be described and replaced with the description of the second display device 100B.

投射透視装置70は、画像表示装置80によって形成された画像を虚像として観察者の眼に投射する役割を有する。投射透視装置70は、第1光学部材101a又は導光装置20と、結像用の投射レンズ30とを備える。第1光学部材101a又は導光装置20は、導光及び透視用の導光部材10と、透視用の光透過部材50とで構成されている。なお、第1像形成本体部105aは、画像表示装置80と投射レンズ30とで構成される。また、詳しくは後述するが、複数レンズで構成される投射レンズ30は、鏡筒部39に収納されて、鏡筒部39とともに光学装置部130を構成する。光学装置部130すなわち投射レンズ30は、鏡筒部39の端部39tにおいて、嵌合により導光装置20に対して精度よく位置決めされた状態で固定されている。   The projection see-through device 70 has a role of projecting the image formed by the image display device 80 as a virtual image onto the observer's eyes. The projection see-through device 70 includes the first optical member 101a or the light guide device 20 and the projection lens 30 for image formation. The first optical member 101a or the light guide device 20 includes a light guide member 10 for light guide and see-through and a light transmitting member 50 for see-through. The first image forming main body portion 105 a includes the image display device 80 and the projection lens 30. As will be described in detail later, the projection lens 30 constituted by a plurality of lenses is housed in the lens barrel portion 39 and constitutes the optical device portion 130 together with the lens barrel portion 39. The optical device unit 130, that is, the projection lens 30 is fixed at the end 39 t of the lens barrel unit 39 in a state of being accurately positioned with respect to the light guide device 20 by fitting.

画像表示装置80は、透過型の空間光変調装置である映像表示素子(映像素子)82のほか、映像表示素子82へ照明光を射出する照明装置81としてバックライト(図9の右バックライト221、左バックライト222)を備える。また、画像表示装置80は、映像表示素子82等の動作を制御する駆動制御部(図9の右駆動制御部211、左駆動制御部212)を有する。映像表示素子82は、映像素子ケース86に収納されており、映像素子ケース86を介して結像用の投射レンズ30を収納する鏡筒部39に組付けされている。言い換えると、鏡筒部39は、映像表示素子82、投射レンズ30、導光装置20等を連結する連結部材となっている。   The image display device 80 includes a backlight (right backlight 221 in FIG. 9) as an illumination device 81 that emits illumination light to the image display element 82 in addition to the image display element (image element) 82 that is a transmissive spatial light modulator. Left backlight 222). In addition, the image display device 80 includes drive control units (the right drive control unit 211 and the left drive control unit 212 in FIG. 9) that control the operation of the video display element 82 and the like. The video display element 82 is housed in a video element case 86, and is assembled to the lens barrel portion 39 that houses the projection lens 30 for image formation via the video element case 86. In other words, the lens barrel portion 39 is a connecting member that connects the image display element 82, the projection lens 30, the light guide device 20, and the like.

導光装置20は、既述のように、導光及び透視用の導光部材10と、透視用の光透過部材50とで構成されているブロック状の部材である。導光部材10は、プリズム型の導光装置20の一部であり、一体の部材であるが、光射出側の第1導光部分11と光入射側の第2導光部分12とに分けて捉えることができる。光透過部材50は、導光部材10の透視機能を補助する部材(補助光学ブロック)であり、導光部材10と一体的に固定され1つの導光装置20となっている。上記のような構成を有する導光装置20のうち、光源又は光入射側(根元側)に位置する先端部12jが鏡筒部39の端部39tに嵌合することで、投射レンズ30に精度よく位置決めされ固定されている。   As described above, the light guide device 20 is a block-shaped member including the light guide member 10 for light guide and see-through and the light transmitting member 50 for see-through. The light guide member 10 is a part of the prism type light guide device 20 and is an integral member, but is divided into a first light guide portion 11 on the light exit side and a second light guide portion 12 on the light incident side. Can be captured. The light transmission member 50 is a member (auxiliary optical block) that assists the see-through function of the light guide member 10, and is fixed integrally with the light guide member 10 to form one light guide device 20. Of the light guide device 20 having the above-described configuration, the leading end 12j located on the light source or the light incident side (base side) is fitted to the end 39t of the lens barrel 39, so that the projection lens 30 has high accuracy. Well positioned and fixed.

ここで、例えば図3(A)〜図3(C)や図4等に示すように、導光装置20を構成する光学面のうち、表側(外側)の露出面である第1露出面20aや裏側(内側)の露出面である第2露出面20bは、外部にさらされ、かつ、シースルーの機能に影響する部分である。なお、図示のように、第1露出面20aは、導光部材10の光学面のうち第3面S13と、光透過部材50の光学面である第3透過面S53とで構成され、第2露出面20bは、導光部材10の光学面のうち第3面S11及び第4面S14と、光透過部材50の光学面のうち第1透過面S51とで構成されている。   Here, for example, as shown in FIG. 3A to FIG. 3C, FIG. 4, etc., among the optical surfaces constituting the light guide device 20, a first exposed surface 20 a that is a front side (outside) exposed surface. The second exposed surface 20b, which is the exposed surface on the back side (inner side), is a portion that is exposed to the outside and affects the function of the see-through. As shown in the figure, the first exposed surface 20a is composed of a third surface S13 of the optical surfaces of the light guide member 10 and a third transmission surface S53 which is an optical surface of the light transmission member 50, and the second surface. The exposed surface 20 b includes a third surface S <b> 11 and a fourth surface S <b> 14 among the optical surfaces of the light guide member 10, and a first transmission surface S <b> 51 among the optical surfaces of the light transmission member 50.

以下、図5を参照して、第1像形成本体部105a(図1参照)を構成する画像表示装置80と投射レンズ30とについて詳細に説明する。   Hereinafter, the image display device 80 and the projection lens 30 constituting the first image forming main body 105a (see FIG. 1) will be described in detail with reference to FIG.

画像表示装置80は、上述した映像表示素子82の他に、映像表示素子82に対して照明光を射出する照明装置81と、照明装置81及び映像表示素子82の動作を制御する駆動制御部84とを有する。   In addition to the video display element 82 described above, the image display apparatus 80 includes an illumination apparatus 81 that emits illumination light to the video display element 82, and a drive control unit 84 that controls operations of the illumination apparatus 81 and the video display element 82. And have.

画像表示装置80の照明装置81は、赤、緑、及び青の3色を含む光を発生する光源や、この光源からの光を拡散させて矩形断面の光束にするバックライト導光部を有する。映像表示素子(映像素子)82は、例えば液晶表示デバイスで形成され、複数の画素で構成されており、照明装置81からの照明光を空間的に変調して動画像等の表示対象となるべき画像光を形成する。なお、図示を省略するが、駆動制御部84は、照明装置81に電力を供給して安定した輝度の照明光を射出させる光源駆動回路や、映像表示素子(映像素子)82に対して画像信号又は駆動信号を出力することにより、透過率パターンとして動画や静止画の元になるカラーの映像光又は画像光を形成する液晶駆動回路で構成される。なお、液晶駆動回路に画像処理機能を持たせることができるが、外付けの制御回路に画像処理機能を持たせることもできる。   The illumination device 81 of the image display device 80 includes a light source that generates light including three colors of red, green, and blue, and a backlight light guide unit that diffuses light from the light source into a light beam having a rectangular cross section. . The video display element (video element) 82 is formed of, for example, a liquid crystal display device and includes a plurality of pixels. The video display element (video element) 82 should be a display target of a moving image or the like by spatially modulating the illumination light from the illumination device 81. Form image light. Although not shown, the drive control unit 84 supplies an image signal to a light source driving circuit that supplies electric power to the illumination device 81 and emits illumination light with a stable luminance, and a video display element (video element) 82. Alternatively, a driving signal is output to form a liquid crystal driving circuit that forms color video light or image light that is the source of a moving image or still image as a transmittance pattern. Note that the liquid crystal driving circuit can have an image processing function, but an external control circuit can also have an image processing function.

投射レンズ30は、構成要素として、入射側光軸に沿って3つの光学素子であるレンズ31〜33を備える投射光学系であり、これらのレンズ(光学素子)31〜33を収納する鏡筒部39によって支持されている。レンズ31〜33は、非軸対称な非球面(非軸対称非球面)と軸対称な非球面(軸対称非球面)との双方を含む非球面レンズであり、リレー光学系である導光部材10の一部と協働して導光部材10の内部に映像表示素子82の表示像に対応する中間像を形成する。なお、各レンズ(光学素子)31〜33のうち、第1レンズ31の光の射出面であるレンズ面31aは、非軸対称非球面となっており、レンズ面31a以外のレンズ面については、軸対称非球面となっている。   The projection lens 30 is a projection optical system that includes lenses 31 to 33 as three optical elements along the incident side optical axis as a component, and a lens barrel portion that houses these lenses (optical elements) 31 to 33. 39. The lenses 31 to 33 are aspheric lenses including both a non-axisymmetric aspheric surface (non-axisymmetric aspheric surface) and an axisymmetric aspheric surface (axisymmetric aspheric surface), and are light guide members that are relay optical systems. An intermediate image corresponding to the display image of the video display element 82 is formed inside the light guide member 10 in cooperation with a part of the light guide member 10. In addition, among each lens (optical element) 31-33, the lens surface 31a which is the light emission surface of the first lens 31 is a non-axisymmetric aspheric surface, and the lens surfaces other than the lens surface 31a are as follows. It is an axisymmetric aspherical surface.

以下、導光装置20等について詳細に説明する。上述のように、導光装置20は、導光部材10と光透過部材50とで構成されている。このうち、導光部材10は、平面視において、鼻に近い中央側(眼前側)の部分が直線状に延びている。導光部材10のうち、鼻に近い中央側つまり光射出側に配置されている第1導光部分11は、光学的な機能を有する面として、第1面S11と、第2面S12と、第3面S13とを有し、鼻から離れた周辺側つまり光入射側に配置されている第2導光部分12は、光学的な機能を有する面として、第4面S14と、第5面S15とを有する。このうち、第1面S11と第4面S14とが連続的に隣接し、第3面S13と第5面S15とが連続的に隣接する。また、第1面S11と第3面S13との間に第2面S12が配置され、第4面S14と第5面S15とは大きな角度を成して隣接している。さらに、ここでは、対向した配置となっている第1面S11と第3面S13とが互いに略平行な平面となっている。一方、光学的な機能を有する他の面、すなわち第2面S12、第4面S14及び第5面S15は、非軸対称な曲面(自由曲面)となっている。   Hereinafter, the light guide device 20 and the like will be described in detail. As described above, the light guide device 20 includes the light guide member 10 and the light transmission member 50. Among these, as for the light guide member 10, the center side (front side) part near a nose is extended linearly in planar view. Of the light guide member 10, the first light guide portion 11 disposed on the center side close to the nose, that is, on the light exit side, includes a first surface S 11, a second surface S 12, and a surface having an optical function. The second light guide portion 12 having the third surface S13 and disposed on the peripheral side away from the nose, that is, on the light incident side, has a fourth surface S14 and a fifth surface as a surface having an optical function. S15. Among these, the first surface S11 and the fourth surface S14 are continuously adjacent, and the third surface S13 and the fifth surface S15 are continuously adjacent. In addition, the second surface S12 is disposed between the first surface S11 and the third surface S13, and the fourth surface S14 and the fifth surface S15 are adjacent to each other at a large angle. Furthermore, here, the first surface S11 and the third surface S13 which are arranged to face each other are substantially parallel to each other. On the other hand, other surfaces having an optical function, that is, the second surface S12, the fourth surface S14, and the fifth surface S15 are non-axisymmetric curved surfaces (free curved surfaces).

ここで、導光部材10を構成する複数の面のうち、第1面S11から第3面S13までの面以外の面S14,S15については、少なくとも1つの自由曲面について、方向によって曲率の符号が異なっている点を少なくとも1つ含むものとなっている。これにより、映像光の導光を精密に制御しつつ、導光部材10の小型化を可能にしている。   Here, among the plurality of surfaces constituting the light guide member 10, for the surfaces S14 and S15 other than the surfaces from the first surface S11 to the third surface S13, at least one free-form surface has a sign of curvature depending on the direction. It includes at least one different point. As a result, the light guide member 10 can be miniaturized while precisely guiding the image light.

なお、導光装置20において、導光部材10は、光透過部材50と接着層CCを介して接合されており、導光部材10及び光透過部材50の接合面と、接着層CCとで構成される部分を、接合部CNとする。なお、導光装置20は、導光部材10及び光透過部材50となるべき基材が接合部CNで接合された上で、接合された基材をディップ処理によってコーティングされることで形成されている。つまり、導光部材10のハードコート層27は、光透過部材50とともに導光装置20全体に設けられている。   In the light guide device 20, the light guide member 10 is joined to the light transmission member 50 via the adhesive layer CC, and is constituted by the joint surface of the light guide member 10 and the light transmission member 50 and the adhesive layer CC. The part to be formed is referred to as a joint CN. The light guide device 20 is formed by coating the base material to be the light guide member 10 and the light transmitting member 50 at the joint portion CN and then coating the joined base material by a dipping process. Yes. That is, the hard coat layer 27 of the light guide member 10 is provided on the entire light guide device 20 together with the light transmissive member 50.

導光部材10のうち本体10sは、可視域で高い光透過性を示す樹脂材料で形成されており、例えば金型内に熱可塑性樹脂を注入・固化させることにより成形する。なお、本体10sの材料としては、例えばシクロオレフィンポリマー等を用いることができる。本体10sは、一体形成品とされているが、導光部材10は、既に説明したように機能的に第1導光部分11と第2導光部分12とに分けて考えることができる。第1導光部分11は、映像光GLの導波及び射出を可能にするとともに、外界光HLの透視を可能にする。第2導光部分12は、映像光GLの入射及び導波を可能にする。   The main body 10s of the light guide member 10 is formed of a resin material exhibiting high light transmittance in the visible range, and is molded by, for example, injecting and solidifying a thermoplastic resin in a mold. In addition, as a material of the main body 10s, for example, a cycloolefin polymer or the like can be used. Although the main body 10s is an integrally formed product, the light guide member 10 can be functionally divided into the first light guide portion 11 and the second light guide portion 12 as described above. The first light guide portion 11 allows the image light GL to be guided and emitted, and allows the external light HL to be seen through. The second light guide portion 12 allows the image light GL to be incident and guided.

第1導光部分11において、第1面S11は、映像光GLを第1導光部分11外に射出させる屈折面として機能するとともに、映像光GLを内面側で全反射させる全反射面として機能する光学面である。第1面S11は、眼EYの正面に配されるものであり、既述のように、平面形状を成している。なお、第1面S11は、本体10sの表面に施されたハードコート層27によって形成される面である。   In the first light guide portion 11, the first surface S11 functions as a refracting surface that emits the image light GL to the outside of the first light guide portion 11, and also functions as a total reflection surface that totally reflects the image light GL on the inner surface side. It is an optical surface. The first surface S11 is disposed in front of the eye EY and has a planar shape as described above. The first surface S11 is a surface formed by the hard coat layer 27 applied to the surface of the main body 10s.

第2面S12は、本体10sの表面であり、当該表面にハーフミラー層15が付随している光学面であって非軸対称非球面である。このハーフミラー層15は、光透過性を有する反射膜(すなわち半透過反射膜)である。ハーフミラー層(半透過反射膜)15は、第2面S12の全体ではなく、第2面S12を主にY軸に沿った鉛直方向に関して狭めた部分領域(図示省略)上に形成されている。ハーフミラー層15は、本体10sの下地面のうち部分領域PA上に、金属反射膜や誘電体多層膜を成膜することにより形成される。ハーフミラー層15の映像光GLに対する反射率は、シースルーによる外界光HLの観察を容易にする観点で、想定される映像光GLの入射角範囲において10%以上50%以下とする。具体的な実施例のハーフミラー層15の映像光GLに対する反射率は、例えば20%に設定され、映像光GLに対する透過率は、例えば80%に設定される。   The second surface S12 is the surface of the main body 10s, is an optical surface with the half mirror layer 15 attached to the surface, and is a non-axisymmetric aspheric surface. The half mirror layer 15 is a light-transmissive reflective film (that is, a semi-transmissive reflective film). The half mirror layer (semi-transmissive reflective film) 15 is formed not on the entire second surface S12 but on a partial region (not shown) in which the second surface S12 is narrowed mainly in the vertical direction along the Y axis. . The half mirror layer 15 is formed by forming a metal reflective film or a dielectric multilayer film on the partial area PA in the lower ground of the main body 10s. The reflectance of the half mirror layer 15 with respect to the video light GL is set to be 10% or more and 50% or less in the assumed incident angle range of the video light GL from the viewpoint of facilitating observation of the external light HL by see-through. The reflectance of the half mirror layer 15 of the specific embodiment with respect to the video light GL is set to 20%, for example, and the transmittance with respect to the video light GL is set to 80%, for example.

第3面S13は、映像光GLを内面側で全反射させる全反射面として機能する光学面である。第3面S13は、眼EYの略正面に配されるものであり、第1面S11と同様に、平面形状を成しており、かつ、第1面S11と第3面S13とが互いに平行な面であることにより、第1面S11と第3面S13とを通過させて外界光HLを見たときに、視度が0になっており、特に、変倍も生じさせないものとなっている。なお、第3面S13は、本体10sの表面に施されたハードコート層27によって形成される面である。   The third surface S13 is an optical surface that functions as a total reflection surface that totally reflects the video light GL on the inner surface side. The third surface S13 is arranged substantially in front of the eye EY, and has a planar shape like the first surface S11. The first surface S11 and the third surface S13 are parallel to each other. Due to the smooth surface, when the external light HL is viewed through the first surface S11 and the third surface S13, the diopter is 0, and in particular, no zooming occurs. Yes. The third surface S13 is a surface formed by the hard coat layer 27 applied to the surface of the main body 10s.

第2導光部分12において、第4面S14は、映像光GLを内面側で全反射させる全反射面として機能する光学面であって非軸対称非球面である。第4面S14は、映像光GLを第2導光部分12内に入射させる屈折面面としても機能する。すなわち、第4面S14は、外部から導光部材10に映像光GLを入射させる光入射面と、導光部材10の内部において映像光GLを伝搬させる反射面としての機能を兼用している。なお、第4面(光入射面)S14は、本体10sの表面に施されたハードコート層27によって形成される面である。   In the second light guide portion 12, the fourth surface S14 is an optical surface that functions as a total reflection surface that totally reflects the video light GL on the inner surface side, and is an axisymmetric aspheric surface. The fourth surface S <b> 14 also functions as a refracting surface that allows the image light GL to enter the second light guide portion 12. That is, the fourth surface S <b> 14 serves both as a light incident surface on which the image light GL is incident on the light guide member 10 from the outside and a reflection surface on which the image light GL is propagated inside the light guide member 10. The fourth surface (light incident surface) S14 is a surface formed by the hard coat layer 27 applied to the surface of the main body 10s.

第2導光部分12において、第5面S15は、本体10sの表面上に無機材料で形成される光反射膜RMを成膜することで形成される光学面である。第5面S15は、反射面として機能する非軸対称非球面である。   In the second light guide portion 12, the fifth surface S15 is an optical surface formed by forming a light reflecting film RM formed of an inorganic material on the surface of the main body 10s. The fifth surface S15 is an axisymmetric aspheric surface that functions as a reflecting surface.

光透過部材50は、既述のように導光部材10と一体的に固定され1つの導光装置20となっており、導光部材10の透視機能を補助する部材(補助光学ブロック)である。光透過部材50は、光学的な機能を有する側面として、第1透過面S51と、第2透過面S52と、第3透過面S53とを有する。ここで、第1透過面S51と第3透過面S53との間に第2透過面S52が配置されている。第1透過面S51は、導光部材10の第1面S11を延長した面上にあり、第2透過面S52は、当該第2面S12に対して接着層CCによって接合され一体化されている曲面であり、第3透過面S53は、導光部材10の第3面S13を延長した面上にある。このうち第2透過面S52と導光部材10の第2面S12とは、薄い接着層CCを介しての接合によって一体化されるため、略同じ曲率の形状を有する。   As described above, the light transmission member 50 is integrally fixed to the light guide member 10 to form one light guide device 20, and is a member (auxiliary optical block) that assists the see-through function of the light guide member 10. . The light transmission member 50 includes a first transmission surface S51, a second transmission surface S52, and a third transmission surface S53 as side surfaces having an optical function. Here, the second transmission surface S52 is disposed between the first transmission surface S51 and the third transmission surface S53. The first transmission surface S51 is on a surface obtained by extending the first surface S11 of the light guide member 10, and the second transmission surface S52 is joined and integrated with the second surface S12 by the adhesive layer CC. It is a curved surface, and the third transmission surface S53 is on a surface obtained by extending the third surface S13 of the light guide member 10. Among these, since 2nd transmissive surface S52 and 2nd surface S12 of the light guide member 10 are integrated by joining via the thin contact bonding layer CC, they have the shape of the substantially same curvature.

光透過部材(補助光学ブロック)50は、可視域で高い光透過性を示し、光透過部材50の本体部分は、導光部材10の本体10sと略同一の屈折率を有する熱可塑性樹脂材料で形成されている。なお、光透過部材50は、導光部材10と同様、本体部分の表面にハードコート層27が施されたものとなっている。つまり、第1透過面S51と第3透過面S53とは、本体部分の表面に施されたハードコート層27によって形成される面である。   The light transmissive member (auxiliary optical block) 50 exhibits high light transmittance in the visible range, and the main body portion of the light transmissive member 50 is a thermoplastic resin material having substantially the same refractive index as the main body 10 s of the light guide member 10. Is formed. The light transmitting member 50 is similar to the light guiding member 10 in that a hard coat layer 27 is applied to the surface of the main body portion. That is, the first transmission surface S51 and the third transmission surface S53 are surfaces formed by the hard coat layer 27 provided on the surface of the main body portion.

本実施形態では、導光部材10の内部において、映像表示素子82からの映像光を、非軸対称非球面である第2面S12等を含む第1面S11から第5面S15までにおける5回の反射によって導光している。また、全体として眼前を覆う導光装置20が第3面S13や第3透過面S53を第1露出面20aとして含み、かつ、これらに平行な第1面S11や第1透過面S51を第2露出面20bとして含み、第2面S12に沿ってハーフミラー層15を内蔵する。この結果、映像光GLの表示と外界光HLの視認させるシースルーとを両立させ、かつ、導光部材10において映像光GLの収差の補正を行うことが可能になる。   In the present embodiment, inside the light guide member 10, the image light from the image display element 82 is transmitted five times from the first surface S11 to the fifth surface S15 including the second surface S12 that is a non-axisymmetric aspheric surface. The light is guided by reflection. In addition, the light guide device 20 that covers the front of the eye as a whole includes the third surface S13 and the third transmission surface S53 as the first exposure surface 20a, and the first surface S11 and the first transmission surface S51 that are parallel to these are the second surfaces. The half mirror layer 15 is incorporated along the second surface S12 including the exposed surface 20b. As a result, both the display of the image light GL and the see-through for visually recognizing the external light HL can be achieved, and the light guide member 10 can correct the aberration of the image light GL.

以下、図5を参照して、虚像表示装置100における映像光GL等の光路について具体的に説明する。映像表示素子(映像素子)82から射出された映像光GLは、投射レンズ30を構成する各レンズ31〜33を通過することによって、収束されつつ、所期の非点収差が与えられ導光部材10に設けた正の屈折力を有する第4面S14に入射する。なお、この非点収差は、導光部材10の各面を経る間に相殺されるものとなっており、最終的に初期の表示に対応する状態で観察者の眼に向けて映像光が射出される。   Hereinafter, the optical path of the image light GL and the like in the virtual image display device 100 will be specifically described with reference to FIG. The image light GL emitted from the image display element (image element) 82 passes through the lenses 31 to 33 constituting the projection lens 30 and is converged while being given the desired astigmatism. 10 is incident on the fourth surface S14 having positive refractive power. This astigmatism is canceled while passing through each surface of the light guide member 10, and image light is finally emitted toward the observer's eye in a state corresponding to the initial display. Is done.

ここで、投射レンズ30を含む光学装置部130の導光部材10に対する配置について説明する。光学装置部130又は投射レンズ30側の第1基準光軸AX1は、導光部材10の光射出側の第2基準光軸AX2に対して5〜45°傾斜している。ここで、第2基準光軸AX2は、観察者の顔の正面方向に対応するZ方向に延びる視線基準軸に相当するものである。見方を変えれば、図6に示すように、投射レンズ30側の第1基準光軸AX1は、眼EYの並び方向に対応するX方向に平行な横基準軸AX3に対して鈍角αをなしている。この場合、横基準軸AX3は、第2基準光軸(視線基準軸)AX2と直交し、第1基準光軸AX1と第4面S14との交点を通るものとする。このような前提の下で、第1基準光軸AX1と横基準軸AX3とが成す鈍角αは、95°〜135°となっている。これにより、投射レンズ30を含む第1像形成本体部105aと、導光部材10を含む導光装置20とを顔面から側頭部に沿って配置する際のフィット性を高めることができ、結果的に装置の薄型化や軽量化も容易になる。なお、第1基準光軸AX1と横基準軸AX3とが成す鈍角αを95°以上とすることにより、投射レンズ30と導光部材10との接続部が角張って顔面から突起することを防止できる。一方、両軸AX1,AX3の成す鈍角αを135°以下とすることにより、投射レンズ30の先端や映像表示素子82に対応する部分が顔面の側方又は横方向にはみ出すことを抑制できる。なお、映像表示素子82に対応する部分等が顔面から突起することをより確実に防止する観点からは、両軸AX1,AX3の成す鈍角αを105°以下とする。つまり、第1基準光軸AX1と横基準軸AX3とが成す鈍角αを95°〜105°とすることがより好ましい。   Here, the arrangement of the optical device unit 130 including the projection lens 30 with respect to the light guide member 10 will be described. The first reference optical axis AX1 on the optical device unit 130 or the projection lens 30 side is inclined by 5 to 45 ° with respect to the second reference optical axis AX2 on the light emission side of the light guide member 10. Here, the second reference optical axis AX2 corresponds to a line-of-sight reference axis extending in the Z direction corresponding to the front direction of the observer's face. In other words, as shown in FIG. 6, the first reference optical axis AX1 on the projection lens 30 side forms an obtuse angle α with respect to the horizontal reference axis AX3 parallel to the X direction corresponding to the alignment direction of the eyes EY. Yes. In this case, the horizontal reference axis AX3 is orthogonal to the second reference optical axis (line-of-sight reference axis) AX2, and passes through the intersection between the first reference optical axis AX1 and the fourth surface S14. Under such a premise, the obtuse angle α formed by the first reference optical axis AX1 and the horizontal reference axis AX3 is 95 ° to 135 °. Thereby, the fitting property when the first image forming main body portion 105a including the projection lens 30 and the light guide device 20 including the light guide member 10 are arranged along the temporal region from the face can be improved. In particular, the device can be made thinner and lighter. In addition, by setting the obtuse angle α formed by the first reference optical axis AX1 and the horizontal reference axis AX3 to 95 ° or more, it is possible to prevent the connecting portion between the projection lens 30 and the light guide member 10 from being angular and protruding from the face. . On the other hand, by setting the obtuse angle α formed by the two axes AX1 and AX3 to 135 ° or less, it is possible to prevent the tip of the projection lens 30 and the portion corresponding to the image display element 82 from protruding laterally or laterally of the face. Note that the obtuse angle α formed by the two axes AX1 and AX3 is set to 105 ° or less from the viewpoint of more reliably preventing a portion corresponding to the video display element 82 from protruding from the face. That is, it is more preferable that the obtuse angle α formed by the first reference optical axis AX1 and the horizontal reference axis AX3 is 95 ° to 105 °.

なお、第1基準光軸AX1及び横基準軸AX3は、図6の紙面に対応しXZ平面に沿って延びる基準平面HM上にある。基準平面HMは、光学設計上の基準面であるが、図3(C)に示すように、前方に向けて若干下向きとなっている。これは、観察者にとって眼EYを若干下向きとすることが自然であり、下向きの視線の方が眼EYへの負担が少ないことを考慮したものである。   Note that the first reference optical axis AX1 and the horizontal reference axis AX3 are on a reference plane HM corresponding to the paper surface of FIG. 6 and extending along the XZ plane. The reference plane HM is a reference plane in optical design, but is slightly downward facing forward as shown in FIG. This is because it is natural for the observer to make the eye EY slightly downward, and the downward line of sight takes less burden on the eye EY.

横基準軸AX3に対して、導光部材10は、基準平面HMに垂直なY軸のまわりの回転角に関して若干外向きに傾いている。具体的には、導光部材10の第1面S11又は第3面S13は、横基準軸AX3に対して傾斜角βを成す。この結果、図3(A)等に示すように、第1及び第2光学部材101a,101bは、先端側又は両者に挟まれた中央側で外向きに若干突出したような配置となっている。これにより、第1及び第2光学部材101a,101bを顔面に沿って配置する際のフィット性を高めることができる。   The light guide member 10 is slightly outwardly inclined with respect to the rotation angle about the Y axis perpendicular to the reference plane HM relative to the horizontal reference axis AX3. Specifically, the first surface S11 or the third surface S13 of the light guide member 10 forms an inclination angle β with respect to the horizontal reference axis AX3. As a result, as shown in FIG. 3A and the like, the first and second optical members 101a and 101b are arranged so as to slightly protrude outward on the tip side or the center side sandwiched between both. . Thereby, the fitting property at the time of arrange | positioning the 1st and 2nd optical members 101a and 101b along a face can be improved.

図5に戻って、映像光GLの光路について説明すると、導光部材10の第4面S14に入射してこれを通過した映像光GLは、収束しつつ進み、第2導光部分12を経由する際に、比較的弱い正の屈折力を有する第5面S15で反射され、第4面S14に内側から再度入射して反射される。   Returning to FIG. 5, the optical path of the image light GL will be described. The image light GL that has entered the fourth surface S <b> 14 of the light guide member 10 and passed through the fourth surface S <b> 14 advances while converging and passes through the second light guide portion 12. In this case, the light is reflected by the fifth surface S15 having a relatively weak positive refractive power, and is incident on the fourth surface S14 again from the inside and reflected.

第2導光部分12の第4面S14で反射された映像光GLは、第1導光部分11において、実質的に屈折力を有しない第3面S13に入射して全反射され、実質的に屈折力を有しない第1面S11に入射して全反射される。映像光GLは、第3面S13を通過する前後において、リレー光学系である導光部材10中に中間像を形成する。この中間像の像面IIは、映像表示素子82の像面OIに対応するものである。   The image light GL reflected by the fourth surface S14 of the second light guide portion 12 is incident on the third surface S13 having substantially no refractive power in the first light guide portion 11 and is totally reflected, substantially. Is incident on the first surface S11 having no refractive power and is totally reflected. The image light GL forms an intermediate image in the light guide member 10 that is a relay optical system before and after passing through the third surface S13. The image plane II of the intermediate image corresponds to the image plane OI of the video display element 82.

第1面S11で全反射された映像光GLは、第2面S12に入射するが、特にハーフミラー層15に入射した映像光GLは、このハーフミラー層15を部分的に透過しつつも部分的に反射されて第1面S11に再度入射して通過する。なお、ハーフミラー層15は、ここで反射される映像光GLに対して比較的強い正の屈折力を有するものとして作用する。また、第1面S11は、これを通過する映像光GLに対して屈折力を有しないものとして作用する。   The image light GL totally reflected by the first surface S11 is incident on the second surface S12. In particular, the image light GL incident on the half mirror layer 15 is partially transmitted through the half mirror layer 15 while partially transmitting. And is incident again on the first surface S11 and passes therethrough. The half mirror layer 15 acts as a layer having a relatively strong positive refractive power with respect to the image light GL reflected here. The first surface S11 acts as having no refractive power with respect to the video light GL passing through the first surface S11.

第1面S11を通過した映像光GLは、観察者の眼EYの瞳又はその等価位置に略平行光束として入射する。つまり、観察者は、虚像としての映像光GLにより、映像表示素子(映像素子)82上に形成された画像を観察することになる。   The video light GL that has passed through the first surface S11 enters the pupil of the observer's eye EY or an equivalent position thereof as a substantially parallel light beam. That is, the observer observes an image formed on the video display element (video element) 82 by the video light GL as a virtual image.

一方、外界光HLのうち、導光部材10の第2面S12よりも+X側に入射するものは、第1導光部分11の第3面S13と第1面S11とを通過するが、この際、第3面S13と第1面S11とが互いに略平行な平面(つまり、互いに略平行な平面状の光学面)となっていることで、収差等をほとんど生じない。つまり、観察者は、導光部材10越しに歪みのない外界像を観察することになる。同様に、外界光HLのうち、導光部材10の第2面S12よりも−X側に入射するもの、つまり、光透過部材50に入射したものは、これに設けた第3透過面S53と第1透過面S51とを通過する際に、第3透過面S53と第1透過面S51とが互いに略平行な平面となっていることで、収差等を生じない。つまり、観察者は、光透過部材50越しに歪みのない外界像を観察することになる。さらに、外界光HLのうち、導光部材10の第2面S12に対応する光透過部材50に入射するものは、第3透過面S53と第1面S11とを通過する際に、第3透過面S53と第1面S11とが互いに略平行な平面となっていることで、収差等をほとんど生じない。つまり、観察者は、光透過部材50越しに歪みの少ない外界像を観察することになる。なお、導光部材10の第2面S12と光透過部材50の第2透過面S52とは、略同一の曲面形状をともに有し、略同一の屈折率をともに有し、両者の隙間が略同一の屈折率の接着層CCで充填されている。つまり、導光部材10の第2面S12や光透過部材50の第2透過面S52は、外界光HLに対して屈折面として作用しない。   On the other hand, among the external light HL, the light incident on the + X side from the second surface S12 of the light guide member 10 passes through the third surface S13 and the first surface S11 of the first light guide portion 11, but this At this time, since the third surface S13 and the first surface S11 are substantially parallel to each other (that is, substantially planar optical surfaces that are substantially parallel to each other), almost no aberration or the like occurs. That is, the observer observes an external field image without distortion through the light guide member 10. Similarly, of the external light HL, the light incident on the −X side with respect to the second surface S12 of the light guide member 10, that is, the light incident on the light transmission member 50 is the third transmission surface S53 provided thereon. When passing through the first transmission surface S51, the third transmission surface S53 and the first transmission surface S51 are substantially parallel to each other, so that no aberration or the like occurs. That is, the observer observes an external field image without distortion through the light transmission member 50. Further, among the external light HL, the light incident on the light transmissive member 50 corresponding to the second surface S12 of the light guide member 10 is transmitted through the third transmissive surface S53 and the first surface S11. Since the surface S53 and the first surface S11 are substantially parallel to each other, aberrations and the like hardly occur. That is, the observer observes an external image with little distortion through the light transmission member 50. The second surface S12 of the light guide member 10 and the second transmission surface S52 of the light transmission member 50 both have substantially the same curved surface shape, have substantially the same refractive index, and the gap between them is substantially the same. The adhesive layer CC is filled with the same refractive index. That is, the second surface S12 of the light guide member 10 and the second transmission surface S52 of the light transmission member 50 do not act as a refractive surface with respect to the external light HL.

ただし、ハーフミラー層15に入射した外界光HLは、このハーフミラー層15を部分的に透過しつつも部分的に反射されるので、ハーフミラー層15に対応する方向からの外界光HLは、ハーフミラー層15の透過率に弱められる。その一方で、ハーフミラー層15に対応する方向からは、映像光GLが入射するので、観察者は、ハーフミラー層15の方向に映像表示素子(映像素子)82上に形成された画像とともに外界像を観察することになる。   However, since the external light HL incident on the half mirror layer 15 is partially reflected while partially transmitting through the half mirror layer 15, the external light HL from the direction corresponding to the half mirror layer 15 is The transmittance of the half mirror layer 15 is weakened. On the other hand, since the video light GL is incident from the direction corresponding to the half mirror layer 15, the observer can view the outside world together with the image formed on the video display element (video element) 82 in the direction of the half mirror layer 15. You will observe the image.

導光部材10内で伝搬されて第2面S12に入射した映像光GLのうち、ハーフミラー層15で反射されなかったものは、光透過部材50内に入射するが、光透過部材50に設けた不図示の反射防止部によって導光部材10に戻ることが防止される。つまり、第2面S12を通過した映像光GLが光路上に戻されて迷光となることが防止される。また、光透過部材50側から入射してハーフミラー層15で反射された外界光HLは、光透過部材50に戻されるが、光透過部材50に反射防止部を設けることによって導光部材10に射出されることが防止される。つまり、ハーフミラー層15で反射された外界光HLが光路上に戻されて迷光となることが防止される。   Of the image light GL propagated in the light guide member 10 and incident on the second surface S <b> 12, the image light GL not reflected by the half mirror layer 15 enters the light transmissive member 50, but is provided in the light transmissive member 50. Returning to the light guide member 10 is prevented by an anti-reflection portion (not shown). That is, the image light GL that has passed through the second surface S12 is prevented from returning to the optical path and becoming stray light. In addition, the external light HL incident from the light transmitting member 50 side and reflected by the half mirror layer 15 is returned to the light transmitting member 50. However, by providing the light transmitting member 50 with an antireflection portion, the light guiding member 10 is provided. It is prevented from being injected. That is, it is possible to prevent the external light HL reflected by the half mirror layer 15 from returning to the optical path and becoming stray light.

また、映像表示素子82の周囲には右光学系駆動部85(変更部)が配置される。右光学系駆動部85は、例えばアクチュエーター(図示略)を備え、映像表示素子82及び投射レンズ30を含む光学装置部130を揺動させる。これにより、導光部材10に対する光学装置部130の角度が、図中矢印SA1、SA2方向に変化する。光学装置部130がSA1方向に傾くと、投射レンズ30から導光部材10に入射する映像光GLの角度が変化する。すなわち、第1基準光軸AX1がSA1側に傾くことにより、導光部材10の内部における映像光GLの反射角の変化により、眼EYに入射する映像光GLは、図中矢印SA2方向に移動する。図5の第1表示装置100Aは使用者の右眼に対応し、映像光GLがSA2方向に移動することにより、使用者には映像光GLが右側に移動して見える。   Further, a right optical system driving unit 85 (changing unit) is disposed around the video display element 82. The right optical system driving unit 85 includes, for example, an actuator (not shown), and swings the optical device unit 130 including the video display element 82 and the projection lens 30. As a result, the angle of the optical device section 130 with respect to the light guide member 10 changes in the directions of arrows SA1 and SA2 in the drawing. When the optical device unit 130 is tilted in the SA1 direction, the angle of the image light GL that enters the light guide member 10 from the projection lens 30 changes. That is, when the first reference optical axis AX1 is tilted to the SA1 side, the image light GL incident on the eye EY moves in the direction of the arrow SA2 in the figure due to the change in the reflection angle of the image light GL inside the light guide member 10. To do. The first display device 100A of FIG. 5 corresponds to the right eye of the user, and the video light GL appears to move to the right side for the user as the video light GL moves in the SA2 direction.

これに対し、右光学系駆動部85がSB1方向に光学装置部130を揺動させると、映像光GLの第1基準光軸AX1の導光部材10に対する角度がSB1側に変化する。これにより、導光部材10における映像光GLの反射角が変化して、眼EYに入射する映像光GLの光軸(第2基準光軸AX2)は矢印SB2側に変化する。このため、使用者の右眼には、映像光GLが左側に移動して見える。   In contrast, when the right optical system driving unit 85 swings the optical device unit 130 in the SB1 direction, the angle of the first reference optical axis AX1 of the video light GL with respect to the light guide member 10 changes to the SB1 side. As a result, the reflection angle of the video light GL at the light guide member 10 changes, and the optical axis (second reference optical axis AX2) of the video light GL incident on the eye EY changes to the arrow SB2 side. For this reason, the video light GL appears to move to the left side to the right eye of the user.

このように、第1表示装置100Aでは、右光学系駆動部85が光学装置部130を動かすことで、使用者の右側の眼EYに入射する映像光GLを左右方向に動かすことができる。   As described above, in the first display device 100A, the right optical system driving unit 85 moves the optical device unit 130, whereby the image light GL incident on the right eye EY of the user can be moved in the left-right direction.

また、第2表示装置100Bには光学装置部130を動かす左光学系駆動部87(図9)が設けられる。左光学系駆動部87(変更部)は、上述した右光学系駆動部85と同様に、アクチュエーター(図示略)等を動力源として備え、光学装置部130を揺動させることにより、導光部材10に対する映像光GLの傾きを変化させる。この左光学系駆動部87の動作により、使用者の左眼に入射する映像光GLの傾きを変化させ、映像光GLを左右方向に動かすことができる。   Further, the second display device 100B is provided with a left optical system drive unit 87 (FIG. 9) that moves the optical device unit. The left optical system driving unit 87 (changing unit) includes an actuator (not shown) or the like as a power source in the same manner as the right optical system driving unit 85 described above. The inclination of the image light GL with respect to 10 is changed. By the operation of the left optical system driving unit 87, the inclination of the image light GL incident on the left eye of the user can be changed, and the image light GL can be moved in the left-right direction.

図7は、観察者の視認距離と輻輳角を示す説明図であり、図7(A)と図7(B)とは異なる視認距離を対比して示す。また、図7(C)は輻輳角β、瞳孔間距離PD、及び視認距離dの関係を示す図である。図8は輻輳角βと表示距離との関係について説明する図表である。
図7(A)と図7(B)とを比較すると、図7(A)の例は相対的に両眼EYa,EYbの近く(距離d1)に物体OBを置いて視認させる状態を示し、図7(B)は相対的に両眼EYa,EYbから遠く(距離d2;d2>d1)に物体OBを置いて視認させる状態を示す。図7(A)のように近い位置の物体OBを視認する場合、両眼EYa,EYbは内側に寄るため、左右の眼EYa,EYbの視線がなす角である輻輳角βの値は大きくなる。これに対し、図7(B)に示すように、相対的に両眼EYa,EYbから遠くに物体OBを置いて視認させると、輻輳角βの値は小さくなる。
FIG. 7 is an explanatory diagram showing the viewing distance and the convergence angle of the observer, and shows the viewing distances different from those in FIGS. 7 (A) and 7 (B). FIG. 7C is a diagram showing the relationship between the convergence angle β, the inter-pupil distance PD, and the viewing distance d. FIG. 8 is a chart for explaining the relationship between the convergence angle β and the display distance.
Comparing FIG. 7A and FIG. 7B, the example of FIG. 7A shows a state in which the object OB is relatively placed near the two eyes EYa and EYb (distance d1) for visual recognition. FIG. 7B shows a state in which the object OB is placed relatively far from both eyes EYa and EYb (distance d2; d2> d1) for visual recognition. When visually recognizing an object OB at a close position as shown in FIG. 7A, since both eyes EYa and EYb are inward, the value of the convergence angle β, which is an angle formed by the lines of sight of the left and right eyes EYa and EYb, becomes large. . On the other hand, as shown in FIG. 7B, when the object OB is placed relatively far from both eyes EYa and EYb and viewed, the value of the convergence angle β decreases.

本実施形態の虚像表示装置100のように両眼視で画像を視認させる場合、表示対象と左右の眼のなす角である輻輳角が、映像光の距離感の把握に関して、重要な役割を持つ。観察者は、表示される画像に左右の視差による影響で輻輳角βが定まり、輻輳角βが大きくなれば画像が近くにあると感じ、輻輳角βが小さくなれば画像が遠くにあると感じる。例えば、図7(C)に示すように、観察者の瞳孔間距離PD(右眼と左眼の間の距離)を65mmと想定すると、画像の中心の1点すなわち主光線の方向の先にある1点として視認される虚像の中心点CEに関する輻輳角βと映像光による虚像の想定位置から眼EYa,EYbの位置(眼想定位置EY)までの距離である表示距離dとの関係は、図8に示すようなグラフで表される。すなわち、図8において、横軸は、表示距離d(m)を示し、縦軸は輻輳角β(°)を示す。この場合、例えば、輻輳角βの値が1.0°であれば、表示距離dは、略4m(又は約4m)となり、輻輳角βの値が5.0°であれば、表示距離dは、数十cm程度となる。   When the image is viewed with binocular vision as in the virtual image display device 100 of the present embodiment, the convergence angle, which is the angle formed between the display target and the left and right eyes, plays an important role in grasping the sense of distance of the image light. . The observer determines the convergence angle β due to the left and right parallax in the displayed image. If the convergence angle β increases, the observer feels that the image is near, and if the convergence angle β decreases, the observer feels that the image is far away. . For example, as shown in FIG. 7C, assuming that the inter-pupil distance PD (the distance between the right eye and the left eye) of the observer is 65 mm, one point at the center of the image, that is, ahead of the principal ray direction. The relationship between the convergence angle β related to the center point CE of the virtual image visually recognized as a certain point and the display distance d, which is the distance from the assumed position of the virtual image by the image light to the positions of the eyes EYa and EYb (the assumed eye position EY), It is represented by a graph as shown in FIG. That is, in FIG. 8, the horizontal axis represents the display distance d (m), and the vertical axis represents the convergence angle β (°). In this case, for example, if the value of the convergence angle β is 1.0 °, the display distance d is about 4 m (or about 4 m), and if the value of the convergence angle β is 5.0 °, the display distance d. Is about several tens of centimeters.

観察者の距離感を定める輻輳角βは、上記のように、透過型表示装置100において設定される視差(輻輳角β)によって定まる。虚像表示装置100が画像を表示する場合の主光線のなす角、この画像を視認する観察者の眼の輻輳角に相当する。つまり、画像の表示位置を調整することで、観察者が画像を視認する場合の輻輳角に影響を与えることができる。このため、観察者が実物体を見る場合の輻輳角に合わせて、画像の表示位置等を調整することにより、実物体と同じ視認距離を感じさせることができる。
例えば、輻輳角βが1.0°〜5.0°の範囲内のいずれかの値になる状態に適した表示を行えば、観察者PEが近くの実物体(対象物)OBを視認する場合に好適である。この例では、観察者PEが手元に対象物OBを手に持った状態で、透過型表示装置100からの映像光により想定表示位置にあるものとして視認される画像である虚像IMを、対象物OBとほぼ同じ位置で時折見ながら作業を行える。つまり、近い位置にある対象物OBと同じように見える画像を表示できる。また、観察者PEから離れた位置にある対象物OB観察者が見ながら画像を視認する場合、輻輳角βの値が5.0°より大きくなるよう調整するなど、多彩な表示が可能となる。つまり、多種多様である作業現場での使用態様のうちの多くの場合において、上記範囲のいずれかに視差すなわち輻輳角βの値を使用態様に合わせて適宜設定することで、適切な距離感の拡張現実感(AR)の世界を観察者に体験させることが可能となる。
The convergence angle β that determines the distance feeling of the observer is determined by the parallax (convergence angle β) set in the transmissive display device 100 as described above. This corresponds to the angle formed by the chief ray when the virtual image display device 100 displays an image, and the vergence angle of the eye of the observer viewing this image. That is, by adjusting the display position of the image, it is possible to affect the convergence angle when the observer visually recognizes the image. For this reason, the same viewing distance as that of the real object can be felt by adjusting the display position of the image in accordance with the convergence angle when the observer views the real object.
For example, if a display suitable for a state in which the convergence angle β is any value within a range of 1.0 ° to 5.0 ° is performed, the observer PE visually recognizes a nearby real object (object) OB. It is suitable for the case. In this example, a virtual image IM, which is an image that is visually recognized as being at an assumed display position by video light from the transmissive display device 100 in a state where the observer PE has the object OB in hand, You can work while watching from time to time at almost the same position as OB. That is, it is possible to display an image that looks the same as the object OB at a close position. In addition, when the object OB observer located at a position away from the observer PE views the image while viewing it, various displays such as adjusting the value of the convergence angle β to be larger than 5.0 ° are possible. . That is, in many cases of use at work sites that are diverse, by appropriately setting the parallax, that is, the value of the convergence angle β in any of the above ranges according to the use, an appropriate sense of distance can be obtained. An observer can experience the world of augmented reality (AR).

また、例えば、映画鑑賞といった比較的遠くにある画像を眺める状態の映像光を視認させることを想定した場合、表示距離を遠くにするような使用態様(例えばd=25m程度)で表示することができる。この場合、輻輳角β値は、例えば0.15°程度となる)とすることが考えられる。このような態様の場合、リラックスした状態で映像を眺めるという使用には適するといえる。
そして、本実施形態では、上記のように左右一対の表示装置100A,100Bを傾けて配置した光学的構造を有することにより左右の映像光について主光線を傾けて左右の画像に視差を設けている。これにより、視差の設定角度に応じて、例えば図5(A)等に示すように虚像IMを観察者の手元にある実物体MAとほぼ同じ位置とすることができる。さらには、同じ位置に重なるように視認させることも可能であり、拡張現実(AR)への対応ができる。また、この場合において、視差に応じて主光線PRa,PRbを傾けていることで観察者の眼の輻輳角の状態が無理なく自然に目的とする表示位置に合うものとなる。さらに、左右一対の表示装置100A,100Bにおいて、焦点距離を調整し、視認される虚像IMの画像表示位置を、視差を示す角θの値に対応する表示距離dに合わせていることで、輻輳角と調節とが合致していないいわゆる輻輳角と調節の矛盾の問題も回避又は抑制される。
In addition, for example, when it is assumed that video light in a state of viewing an image at a relatively long distance such as watching a movie is viewed, the display may be performed in a usage mode (for example, about d = 25 m) that increases the display distance. it can. In this case, it is conceivable that the convergence angle β value is, for example, about 0.15 °. In the case of such an aspect, it can be said that it is suitable for use in which a video is viewed in a relaxed state.
In the present embodiment, as described above, the pair of left and right display devices 100A and 100B are tilted and arranged to tilt the principal ray of the left and right video light, thereby providing parallax for the left and right images. . Thereby, according to the set angle of parallax, for example, as shown in FIG. 5A or the like, the virtual image IM can be set at substantially the same position as the real object MA at the viewer's hand. Furthermore, it can be visually recognized so as to overlap with the same position, and can cope with augmented reality (AR). In this case, the chief rays PRa and PRb are inclined according to the parallax, so that the state of the vergence angle of the observer's eyes naturally fits the intended display position. Further, in the pair of left and right display devices 100A and 100B, the focal length is adjusted, and the image display position of the visually recognized virtual image IM is adjusted to the display distance d corresponding to the value of the angle θ indicating the parallax, thereby causing congestion. The so-called convergence angle and adjustment contradiction, where the angle and adjustment do not match, are also avoided or suppressed.

また、図8に示すように、観察者の視認距離が長くなるほど輻輳角βが0に近づき、例えば視認距離が15mの場合の輻輳角は0.3°である。つまり、輻輳角βが0.3°以下の場合に、視認距離は15m以上に感じられる。この場合、観察者は、それ以上の視認距離の変化を感じにくいため、輻輳角βが0.3°以下の場合は、輻輳角はほぼゼロであると見なしてよい。本実施形態では、制御部140は、虚像表示装置100によって画像を左右の視差を有さない態様で観察者の右眼及び左眼のそれぞれに対応して表示することができるが、この場合の輻輳角はほぼゼロとされる。具体的には、0.3°以下であり、0.3°以下0.0°以上と言うこともできる。   Further, as shown in FIG. 8, the convergence angle β approaches 0 as the viewing distance of the observer becomes longer. For example, when the viewing distance is 15 m, the convergence angle is 0.3 °. That is, when the convergence angle β is 0.3 ° or less, the viewing distance is felt to be 15 m or more. In this case, the observer hardly perceives any further change in the viewing distance, and therefore, when the convergence angle β is 0.3 ° or less, the convergence angle may be regarded as almost zero. In the present embodiment, the control unit 140 can display an image corresponding to each of the right eye and the left eye of the observer in a manner that does not have left and right parallaxes by the virtual image display device 100. The convergence angle is almost zero. Specifically, it can be said to be 0.3 ° or less and 0.3 ° or less and 0.0 ° or more.

図1及び図3(B)に示すように、虚像表示装置100は、使用者(観察者)の視線方向を撮像する外カメラ35、36(第2撮像部、外部撮像部)を備える。外カメラ35は、虚像表示装置100の右側すなわち第1表示装置100A側の端部に位置する第1像形成本体部105aに埋込設置され、外装部材105dにおいて露出する。また、外カメラ36は、虚像表示装置100の左側すなわち第2表示装置100B側の端部に位置する第2像形成本体部105bに埋込設置され、外装部材105dにおいて露出する。   As shown in FIGS. 1 and 3B, the virtual image display device 100 includes outer cameras 35 and 36 (second imaging unit and external imaging unit) that capture the user's (observer) line-of-sight direction. The outer camera 35 is embedded in the first image forming main body 105a located on the right side of the virtual image display device 100, that is, at the end on the first display device 100A side, and is exposed at the exterior member 105d. The outer camera 36 is embedded in the second image forming main body 105b located at the left side of the virtual image display device 100, that is, at the end on the second display device 100B side, and is exposed at the exterior member 105d.

外カメラ35、36は虚像表示装置100の表側(外側)の露出面に配置され、使用者の顔の略正面方向を向いており、使用者が導光部材10を透過して視認する外景を撮像する。外カメラ35、36の撮像範囲すなわち画角は、虚像表示装置100を装着した状態における使用者の視界方向の少なくとも一部の外景を撮影できればよい。また、外カメラ35、36の画角が、導光部材10を透過して使用者に見える視界の全体を撮影できるように設定されていると、より好ましい。別の言い方をすれば、外カメラ35、36の撮像範囲すなわち画角は、使用者の視線方向を含む方向であることが好ましい。   The outer cameras 35 and 36 are arranged on the exposed surface on the front side (outside) of the virtual image display device 100, face the front direction of the user's face, and view the outside scene that the user sees through the light guide member 10. Take an image. The imaging range, that is, the angle of view of the outer cameras 35 and 36 only needs to capture at least a part of the outside scene in the user's viewing direction with the virtual image display device 100 mounted. In addition, it is more preferable that the angle of view of the outer cameras 35 and 36 is set so that the entire field of view visible to the user through the light guide member 10 can be photographed. In other words, it is preferable that the imaging range, that is, the angle of view of the outer cameras 35 and 36 is a direction including the user's line-of-sight direction.

外カメラ35、36は、制御装置300が内蔵する制御部140(図9)に接続され、制御部140の制御に従って撮像を実行し、撮像画像データを出力する。外カメラ35と外カメラ36とは、枠部102において左右に離れて配置されるため、外カメラ35の撮像画像と外カメラ36の撮像画像との間には視差が生じる。従って、外カメラ35、36をステレオカメラとして使用し、外カメラ35の撮像画像と外カメラ36の撮像画像とに基づき、奥行き方向における情報を取得することができる。   The outer cameras 35 and 36 are connected to a control unit 140 (FIG. 9) built in the control device 300, execute imaging in accordance with the control of the control unit 140, and output captured image data. Since the outer camera 35 and the outer camera 36 are spaced apart from each other in the frame 102, parallax occurs between the captured image of the outer camera 35 and the captured image of the outer camera 36. Therefore, the outer cameras 35 and 36 are used as stereo cameras, and information in the depth direction can be acquired based on the captured image of the outer camera 35 and the captured image of the outer camera 36.

虚像表示装置100は、図4に示すように、使用者の眼を向く側、すなわち裏側(内側)の露出面に、4つの内カメラ、37a、37b、38a、38b(第1撮像部)を備える。内カメラ37a、37bは使用者の右眼に対応して第1表示装置100Aに設けられ、内カメラ38a、38bは使用者の左眼に対応して第2表示装置100Bに設けられる。内カメラ37a、38aは鼻受部40の近傍に配置され、内カメラ37b、38bは枠部102の端部に配置される。   As shown in FIG. 4, the virtual image display device 100 has four inner cameras 37 a, 37 b, 38 a, and 38 b (first imaging unit) on the exposed side facing the user's eye, that is, the back side (inner side). Prepare. The inner cameras 37a and 37b are provided in the first display device 100A corresponding to the right eye of the user, and the inner cameras 38a and 38b are provided in the second display device 100B corresponding to the left eye of the user. The inner cameras 37 a and 38 a are disposed in the vicinity of the nose receiving portion 40, and the inner cameras 37 b and 38 b are disposed at the end of the frame portion 102.

内カメラ37aは使用者の右眼を左側上方から撮像し、内カメラ37bは使用者の右眼を右側上方から撮像する。また、内カメラ38aは使用者の左眼を右側上方から撮像し、内カメラ38bは使用者の左眼を左側上方から撮像する。   The inner camera 37a images the right eye of the user from the upper left side, and the inner camera 37b images the right eye of the user from the upper right side. The inner camera 38a images the user's left eye from the upper right side, and the inner camera 38b images the user's left eye from the upper left side.

内カメラ37a、37b、38a、38bは、それぞれ、後述する制御装置300の制御部140(図9)に接続され、制御部140の制御に従って撮像を実行し、撮像画像データを出力する。内カメラ37a、37b、38a、38bは使用者の眼球を撮像するので、この撮像画像を用いて、眼球運動の検出及び計測を行い、使用者の視線方向、及び輻輳角を求めることができる。   Each of the inner cameras 37a, 37b, 38a, and 38b is connected to a control unit 140 (FIG. 9) of the control device 300, which will be described later, executes imaging under the control of the control unit 140, and outputs captured image data. Since the inner cameras 37a, 37b, 38a, and 38b image the user's eyeballs, the eye movements can be detected and measured using the captured images, and the user's line-of-sight direction and convergence angle can be obtained.

眼球を撮像することにより眼球運動を検出し、視線方向を計測する技術は、例えば、撮像画像から眼球に反射する反射像を検出して視線方向を計測する方法がある。また、例えば、撮像画像から眼球の瞳孔中心を検出して注視方向を求める方法がある。また、虚像表示装置100の裏側の露出面に、眼球に対して赤外光を照射する発光素子(図示略)を設け、眼球表面における反射光を内カメラ37a、37b、38a、38bで検出し、注視方向を求める方法もある。   As a technique for detecting eye movement by imaging an eyeball and measuring a line-of-sight direction, for example, there is a method of measuring a line-of-sight direction by detecting a reflected image reflected from the captured image to the eyeball. Also, for example, there is a method for obtaining the gaze direction by detecting the pupil center of the eyeball from the captured image. Further, a light emitting element (not shown) that irradiates the eyeball with infrared light is provided on the exposed surface on the back side of the virtual image display device 100, and reflected light on the eyeball surface is detected by the inner cameras 37a, 37b, 38a, and 38b. There is also a method for obtaining the gaze direction.

本実施形態では一例として、制御部140が、内カメラ37a、37b、38a、38bの撮像画像から使用者の右眼および左眼のそれぞれについて、下記(1)〜(3)の処理を実行する。
(1)瞳孔中心を検出して瞳孔間距離を求める処理。
(2)瞳孔に現れる虹彩の模様を検出して瞳孔径を求める処理。
(3)瞳孔中心を検出して注視方向を求める処理。
In this embodiment, as an example, the control unit 140 executes the following processes (1) to (3) for each of the right and left eyes of the user from the captured images of the inner cameras 37a, 37b, 38a, and 38b. .
(1) Processing for detecting the pupil center and obtaining the interpupillary distance.
(2) Processing for detecting the iris pattern appearing in the pupil and determining the pupil diameter.
(3) Processing for detecting the center of the pupil and determining the gaze direction.

続いて、制御装置300の構成について説明する。
制御装置300は、HMD1を制御するための装置である。制御装置300は、図1に示すように、略箱形の筐体に、HMD1の電源をオン/オフする電源スイッチ301と、使用者が操作するトラックパッド302及びキースイッチ部303とを備える。また、制御装置300は、HMD1の動作状態を示すLED(Light Emitting Diode)インジケーター304、右イヤホン32、左イヤホン34から出力する音量の調整等を行うための上下キー305を備える。
Next, the configuration of the control device 300 will be described.
The control device 300 is a device for controlling the HMD 1. As shown in FIG. 1, the control device 300 includes a power switch 301 for turning on / off the power of the HMD 1, a track pad 302 and a key switch unit 303 operated by a user, in a substantially box-shaped housing. The control device 300 also includes an LED (Light Emitting Diode) indicator 304 indicating the operating state of the HMD 1, and an up / down key 305 for adjusting the volume output from the right earphone 32 and the left earphone 34.

電源スイッチ301はスライド式のスイッチであり、電源スイッチ301の操作により制御装置300の電源だけでなく虚像表示装置100の電源がオン/オフされる。
トラックパッド302は、トラックパッド302の操作面上での使用者の接触操作を検出して、検出した操作位置を示す操作データを出力する。トラックパッド302としては、静電式や圧力検出式、光学式といった種々のトラックパッドを採用できる。また、複数の点におけるタッチ操作を同時に検出可能なマルチタッチ方式を採用してもよい。
The power switch 301 is a slide-type switch. By operating the power switch 301, not only the power of the control device 300 but also the power of the virtual image display device 100 is turned on / off.
The track pad 302 detects a user's contact operation on the operation surface of the track pad 302 and outputs operation data indicating the detected operation position. As the track pad 302, various track pads such as an electrostatic type, a pressure detection type, and an optical type can be adopted. Further, a multi-touch method that can simultaneously detect touch operations at a plurality of points may be employed.

図9は、HMD1を構成する各部の機能ブロック図である。
図9に示すように、HMD1は、インターフェイス114を介して外部機器OAに接続される。インターフェイス114は、制御装置300に対して、コンテンツの供給元となる種々の外部機器OAを接続する。インターフェイス114としては、例えば、USBインターフェイス、マイクロUSBインターフェイス、メモリーカード用インターフェイス等の有線接続に対応したインターフェイスを用いることができる。
外部機器OAは、HMD1に画像を供給する画像供給装置として用いられ、例えば、パーソナルコンピューター(PC)や携帯電話端末、ゲーム端末等が用いられる。
FIG. 9 is a functional block diagram of each part constituting the HMD 1.
As shown in FIG. 9, the HMD 1 is connected to the external device OA via the interface 114. The interface 114 connects various external devices OA that are content supply sources to the control device 300. As the interface 114, for example, an interface corresponding to a wired connection such as a USB interface, a micro USB interface, or a memory card interface can be used.
The external device OA is used as an image supply device that supplies an image to the HMD 1, and for example, a personal computer (PC), a mobile phone terminal, a game terminal, or the like is used.

制御装置300は、制御部140と、操作部135と、入力情報取得部110と、記憶部120と、送信部(Tx)51及び送信部(Tx)52とを有している。   The control device 300 includes a control unit 140, an operation unit 135, an input information acquisition unit 110, a storage unit 120, a transmission unit (Tx) 51, and a transmission unit (Tx) 52.

操作部135は、使用者による操作を検出する。操作部135は、図1に示した電源スイッチ301、トラックパッド302、キースイッチ部303、及び上下キー305を含む。入力情報取得部110は、使用者による操作入力に対応して操作部135が出力する操作信号あるいは操作データを取得する。   The operation unit 135 detects an operation by the user. The operation unit 135 includes the power switch 301, the track pad 302, the key switch unit 303, and the up / down key 305 shown in FIG. The input information acquisition unit 110 acquires an operation signal or operation data output from the operation unit 135 in response to an operation input by the user.

記憶部120は、不揮発性の記憶装置であって、種々のコンピュータープログラムを格納している。また、記憶部120には、HMD1の虚像表示装置100に表示する画像データが格納されていても良い。また、制御部140が、記憶部120に記憶されるプログラムを実行することにより、虚像表示装置100が表示する表示データを生成してもよい。   The storage unit 120 is a nonvolatile storage device, and stores various computer programs. The storage unit 120 may store image data to be displayed on the virtual image display device 100 of the HMD 1. The control unit 140 may generate display data displayed by the virtual image display device 100 by executing a program stored in the storage unit 120.

制御部140には、3軸センサー113、GPS115、及び通信部117が接続される。3軸センサー113は3軸の加速度センサーであり、3軸センサー113の検出値を制御部140が取得可能である。GPS115は、アンテナ(図示略)を備え、GPS(Global Positioning System)信号を受信し、制御装置300の現在位置を求める。GPS115は、GPS信号に基づいて求めた現在位置や現在時刻を制御部140に出力する。GPS115はGPS信号に含まれる情報に基づいて現在時刻を取得し、制御装置300の制御部140が計時する時刻を修正させる機能を備えてもよい。   A three-axis sensor 113, a GPS 115, and a communication unit 117 are connected to the control unit 140. The triaxial sensor 113 is a triaxial acceleration sensor, and the control unit 140 can acquire the detection value of the triaxial sensor 113. The GPS 115 includes an antenna (not shown), receives a GPS (Global Positioning System) signal, and obtains the current position of the control device 300. The GPS 115 outputs the current position and the current time obtained based on the GPS signal to the control unit 140. The GPS 115 may have a function of acquiring the current time based on information included in the GPS signal and correcting the time counted by the control unit 140 of the control device 300.

通信部117は、無線LAN(WiFi(登録商標))や、Miracast(登録商標)等の無線通信の規格に準じた無線データ通信を実行する。また、通信部117は、Bluetooth(登録商標)や、Bluetooth Low Energy、RFID、Felica(登録商標)等の近距離無線通信の規格に準じた無線データ通信を実行することも可能である。   The communication unit 117 executes wireless data communication conforming to a wireless communication standard such as a wireless LAN (WiFi (registered trademark)) or Miracast (registered trademark). The communication unit 117 can also perform wireless data communication conforming to a short-range wireless communication standard such as Bluetooth (registered trademark), Bluetooth Low Energy, RFID, or Felica (registered trademark).

外部機器OAが、通信部117に無線接続された場合、制御部140は、コンテンツデータを通信部117より取得して、虚像表示装置100に画像を表示するための制御を行う。一方、外部機器OAが、インターフェイス114に有線接続された場合には、制御部140は、コンテンツデータをインターフェイス114より取得して、虚像表示装置100に画像を表示するための制御を行う。よって、通信部117及びインターフェイス114を、以下総称してデータ取得部DAと呼ぶ。
データ取得部DAは、外部機器OAからコンテンツデータを取得する。データ取得部DAは、HMD1が表示する画像のデータを、外部機器OAから取得する。
When the external device OA is wirelessly connected to the communication unit 117, the control unit 140 acquires content data from the communication unit 117 and performs control for displaying an image on the virtual image display device 100. On the other hand, when the external device OA is wired to the interface 114, the control unit 140 acquires content data from the interface 114 and performs control for displaying an image on the virtual image display device 100. Therefore, the communication unit 117 and the interface 114 are hereinafter collectively referred to as a data acquisition unit DA.
The data acquisition unit DA acquires content data from the external device OA. The data acquisition unit DA acquires image data displayed by the HMD 1 from the external device OA.

制御部140は、CPU、ROM、RAM(いずれも図示略)等を備える。制御部140は、記憶部120またはROMに記憶したプログラムを読み出して実行することにより、HMD1の各部を制御する。また、制御部140は、上記プログラムを実行して、オペレーティングシステム(OS)150、画像処理部160、表示制御部170、撮像制御部181、眼画像解析部182、外画像解析部183、変更制御部184、駆動制御部185、及び音声処理部190として機能する。   The control unit 140 includes a CPU, a ROM, a RAM (all not shown), and the like. The control unit 140 controls each unit of the HMD 1 by reading and executing a program stored in the storage unit 120 or the ROM. In addition, the control unit 140 executes the above-described program to perform an operating system (OS) 150, an image processing unit 160, a display control unit 170, an imaging control unit 181, an eye image analysis unit 182, an external image analysis unit 183, and change control. Functions as a unit 184, a drive control unit 185, and a sound processing unit 190.

画像処理部160は、コンテンツに含まれる画像信号を取得する。画像処理部160は、コンテンツに含まれる画像を表示するための垂直同期信号VSync、水平同期信号HSync等の同期信号、クロック信号PCLK、及びディジタル画像データ(図中、Data)を送信部51により送信する。また、画像処理部160は、必要に応じて、画像データに対して、解像度変換処理や、輝度、彩度の調整といった種々の色調補正処理、キーストーン補正処理等の画像処理を実行してもよい。送信部51、52は、制御装置300と虚像表示装置100との間におけるシリアル伝送のためのトランシーバーとして機能する。   The image processing unit 160 acquires an image signal included in the content. The image processing unit 160 transmits a synchronization signal such as a vertical synchronization signal VSync and a horizontal synchronization signal HSync for displaying an image included in the content, a clock signal PCLK, and digital image data (Data in the figure) by the transmission unit 51. To do. Further, the image processing unit 160 may execute image processing such as resolution conversion processing, various tone correction processing such as adjustment of luminance and saturation, and keystone correction processing on the image data as necessary. Good. The transmission units 51 and 52 function as a transceiver for serial transmission between the control device 300 and the virtual image display device 100.

表示制御部170は、虚像表示装置100が備える画像表示装置80に対して制御信号を送信する。表示制御部170は、画像表示装置80が備える右バックライト221、左バックライト222の点灯を制御する右バックライト制御部201及び左バックライト制御部202に対して制御信号を送信する。また、表示制御部170は、映像表示素子82を駆動する右駆動制御部211及び左駆動制御部212に対し制御信号を送信する。
右バックライト制御部201及び左バックライト制御部202は、表示制御部170から受信する制御信号に従って、右バックライト221及び左バックライト222のそれぞれに対し、点灯、消灯の制御および発光輝度の制御を行う。右バックライト221及び左バックライト222は、例えば、LEDやエレクトロルミネセンス(EL)等の発光体であり、レーザー光源やランプを用いて構成してもよい。
The display control unit 170 transmits a control signal to the image display device 80 included in the virtual image display device 100. The display control unit 170 transmits control signals to the right backlight control unit 201 and the left backlight control unit 202 that control lighting of the right backlight 221 and the left backlight 222 provided in the image display device 80. In addition, the display control unit 170 transmits control signals to the right drive control unit 211 and the left drive control unit 212 that drive the video display element 82.
The right backlight control unit 201 and the left backlight control unit 202 control lighting on / off and light emission luminance with respect to each of the right backlight 221 and the left backlight 222 in accordance with a control signal received from the display control unit 170. I do. The right backlight 221 and the left backlight 222 are light emitters such as LEDs and electroluminescence (EL), and may be configured using a laser light source or a lamp.

また、右駆動制御部211及び左駆動制御部212は、それぞれ、表示制御部170から受信する制御信号に従って、映像表示素子82の駆動のオン/オフを切り替える。従って、表示制御部170の制御により、第1表示装置100A、第2表示装置100Bにおけるバックライトの点灯/消灯や、映像表示素子82による画像の表示が制御される。   Further, the right drive control unit 211 and the left drive control unit 212 respectively switch driving of the video display element 82 on / off in accordance with a control signal received from the display control unit 170. Therefore, the display control unit 170 controls the backlight on / off and the image display by the video display element 82 in the first display device 100A and the second display device 100B.

音声処理部190は、コンテンツに含まれる音声信号を取得し、取得した音声信号を増幅して、オーディオケーブル46により右イヤホン32及び左イヤホン34に出力する。
また、音声処理部190は、マイク63により集音された音声をディジタルデータに変換する。音声処理部190は、ディジタル音声データから特徴を抽出してモデル化することにより、例えば話者認識処理や音声認識処理を実行する。話者認識処理では、マイク63が集音する音声から人間の声を検出し、検出した人間の声を人毎に識別して、声ごとに話している人間を特定する。また、音声認識処理では、例えば、マイク63が集音した音声をテキストに変換するテキスト変換を行う。
The audio processing unit 190 acquires an audio signal included in the content, amplifies the acquired audio signal, and outputs the amplified audio signal to the right earphone 32 and the left earphone 34 through the audio cable 46.
In addition, the sound processing unit 190 converts the sound collected by the microphone 63 into digital data. The voice processing unit 190 performs, for example, speaker recognition processing and voice recognition processing by extracting and modeling features from digital voice data. In the speaker recognition process, a human voice is detected from the sound collected by the microphone 63, the detected human voice is identified for each person, and the person who is speaking for each voice is specified. In the voice recognition process, for example, text conversion is performed to convert voice collected by the microphone 63 into text.

虚像表示装置100は、上述したように、第1表示装置100A及び第2表示装置100Bのそれぞれに、投射透視装置70、画像表示装置80を備え、画像表示装置80がインターフェイス25を介して制御部140に接続される。
また、虚像表示装置100が備える外カメラ35、36、内カメラ37a、37b、38a、38b、右光学系駆動部85、及び左光学系駆動部87は、インターフェイス25を介して制御部140に接続される。
As described above, the virtual image display device 100 includes the projection fluoroscopy device 70 and the image display device 80 in each of the first display device 100A and the second display device 100B, and the image display device 80 is connected to the control unit via the interface 25. 140.
The outer cameras 35 and 36, the inner cameras 37a, 37b, 38a and 38b, the right optical system driving unit 85, and the left optical system driving unit 87 included in the virtual image display device 100 are connected to the control unit 140 via the interface 25. Is done.

インターフェイス25は、接続ケーブル41、及び、接続ケーブル41を接続するコネクター等で構成され、接続ケーブル41に代えて無線通信回線により構成してもよい。インターフェイス25は、送信部51により送信されるクロック信号PCLK、垂直同期信号VSync、水平同期信号HSync、画像データDataを、対応する受信部(Rx)53、54に出力する。また、インターフェイス25は、表示制御部170が送信する制御信号を、受信部53、54、及び画像表示装置80に出力する。
また、インターフェイス25は、制御部140が外カメラ35、36、内カメラ37a、37b、38a、38bを制御する制御信号、及び、これらカメラの撮像画像データを送受信する。
The interface 25 is composed of a connection cable 41 and a connector for connecting the connection cable 41, and may be composed of a wireless communication line instead of the connection cable 41. The interface 25 outputs the clock signal PCLK, the vertical synchronization signal VSync, the horizontal synchronization signal HSync, and the image data Data transmitted by the transmission unit 51 to the corresponding reception units (Rx) 53 and 54. Further, the interface 25 outputs a control signal transmitted from the display control unit 170 to the receiving units 53 and 54 and the image display device 80.
The interface 25 transmits and receives control signals for the control unit 140 to control the outer cameras 35 and 36 and the inner cameras 37a, 37b, 38a, and 38b, and captured image data of these cameras.

また、図示はしないが、虚像表示装置100は、振動センサーや動きセンサー(モーションセンサー)を備えてもよい。振動センサー(図示略)は、例えば、加速度センサーを利用して構成され、使用者が枠部102を叩く操作(ノック操作)を行った場合に、この操作による振動を検出する。また、動きセンサーとしては、加速度センサー、角速度センサー、地磁気センサー等を用いることができる。例えば、加速度センサー(3軸)、角速度センサー(3軸)及び地磁気センサー(3軸)として機能する9軸センサーを実装してもよい。この場合、虚像表示装置100の動き、すなわち虚像表示装置100を装着した使用者の頭の動きや方向を、制御部140で検出できる。これら振動センサー及び動きセンサーは、インターフェイス25を介して制御装置300に接続される。
受信部53、54は、制御装置300と虚像表示装置100との間におけるシリアル伝送のためのレシーバーとして機能する。
Although not shown, the virtual image display device 100 may include a vibration sensor or a motion sensor (motion sensor). The vibration sensor (not shown) is configured using, for example, an acceleration sensor, and detects vibration caused by this operation when the user performs an operation (knock operation) to strike the frame 102. As the motion sensor, an acceleration sensor, an angular velocity sensor, a geomagnetic sensor, or the like can be used. For example, a nine-axis sensor that functions as an acceleration sensor (three axes), an angular velocity sensor (three axes), and a geomagnetic sensor (three axes) may be mounted. In this case, the control unit 140 can detect the movement of the virtual image display device 100, that is, the movement and direction of the head of the user wearing the virtual image display device 100. These vibration sensor and motion sensor are connected to the control device 300 via the interface 25.
The receiving units 53 and 54 function as a receiver for serial transmission between the control device 300 and the virtual image display device 100.

HMD1は、虚像表示装置100を装着する使用者の視線方向(注視方向)に対応して、虚像表示装置100で表示する画像の表示態様を調整する機能を具備する。
図10及び図11は画像の表示態様の調整方法を示す説明図であり、これら図10及び図11を参照して、画像の表示態様の調整に関して説明する。
The HMD 1 has a function of adjusting the display mode of an image displayed on the virtual image display device 100 in accordance with the line-of-sight direction (gaze direction) of the user wearing the virtual image display device 100.
FIGS. 10 and 11 are explanatory views showing a method for adjusting the display mode of an image. The adjustment of the display mode of an image will be described with reference to FIGS. 10 and 11.

図10(A)は使用者の注視距離と輻輳角を示す模式図である。
使用者が導光部材10を透過して外景すなわち実空間に位置する対象物OBを視認する場合、対象物OBと眼EYとの距離(注視距離)により、左右の眼の輻輳角CAが変化する。図10(A)の左の例は対象物OBが遠方にある状態を示し、同図右側の例は、対象物OBがより近い位置にある状態を示す。
FIG. 10A is a schematic diagram showing the gaze distance and convergence angle of the user.
When the user views the object OB located in the outside scene, that is, in real space through the light guide member 10, the convergence angle CA of the left and right eyes varies depending on the distance (gaze distance) between the object OB and the eye EY. To do. The example on the left of FIG. 10A shows a state where the object OB is far away, and the example on the right side of the figure shows a state where the object OB is closer.

人間の眼球運動として、両眼で一つの対象物OBを注視する場合に、視線が両眼の中央寄りに移動する、いわゆる眼球輻輳運動が知られている。図に示すように、使用者の右眼(図中、EY(R))と左眼(図中、EY(L))の視線(図中一点鎖線)が対象物OBで交差すると考えると、その交差する角度CAが輻輳角に相当する。輻輳角CAは、注視する対象が遠いほど小さく、近いほど大きくなる。言い換えれば、対象物OBが近いほど、使用者の両眼の視線は中央よりになる。   As a human eye movement, a so-called eyeball convergence movement in which the line of sight moves toward the center of both eyes when one object OB is watched with both eyes is known. As shown in the figure, when it is considered that the line of sight of the user's right eye (EY (R) in the figure) and left eye (EY (L) in the figure) intersects with the object OB. The intersecting angle CA corresponds to the convergence angle. The convergence angle CA becomes smaller as the object to be watched is farther away, and becomes larger as it is closer. In other words, as the object OB is closer, the line of sight of the user's eyes is closer to the center.

使用者の右眼EYの視線が導光部材10と交わる位置を位置10aとし、左眼EYの視線が導光部材10と交わる位置を位置10bとする。位置10a−位置10b間の距離は、上述した輻輳角CAの大きさと同様、眼EYから対象物OBまでの距離により変化する。つまり、位置10a−位置10b間の距離は輻輳角CAと相関を有し、具体的には、輻輳角CAが大きいほど位置10a−位置10b間の距離が小さく、輻輳角CAが小さいほど位置10a−位置10b間の距離が大きい。   A position where the line of sight of the right eye EY of the user intersects the light guide member 10 is defined as a position 10a, and a position where the line of sight of the left eye EY intersects the light guide member 10 is defined as a position 10b. The distance between the position 10a and the position 10b varies depending on the distance from the eye EY to the object OB, similar to the magnitude of the convergence angle CA described above. That is, the distance between the position 10a and the position 10b has a correlation with the convergence angle CA. Specifically, the larger the convergence angle CA, the smaller the distance between the position 10a and the position 10b, and the smaller the convergence angle CA, the position 10a. -The distance between the positions 10b is large.

さらに、位置10a−位置10b間の距離は、使用者の両眼の瞳孔間距離に影響される。瞳孔間距離は、内カメラ37a、37b、38a、38bの撮像画像に基づいて求めることができる。   Further, the distance between the position 10a and the position 10b is affected by the distance between the pupils of both eyes of the user. The interpupillary distance can be obtained based on the captured images of the inner cameras 37a, 37b, 38a, and 38b.

HMD1は、使用者が導光部材10を透過して外景を視認する場合に、外景と重なって視認される画像を表示する。この表示の一態様として、実空間である外景に関する情報を提供する、いわゆるAR(Augmented Reality)効果を奏する画像(以下、AR画像という)を表示することができる。AR画像は、実空間に存在する対象物に関する情報を、対象物と重なって、或いは対象物と並ぶように表示される。AR画像を見ることで、使用者は、対象物と、対象物に関する各種の情報とを同時に見ることができる。AR画像の表示は、使用者にとって対象物が見える位置に合わせて表示することが特徴である。
AR表示を行う場合、使用者の視線は、実空間に存在する対象物OBを注視する。
When the user views the outside scene through the light guide member 10, the HMD 1 displays an image that is visible while overlapping the outside scene. As an aspect of this display, an image (hereinafter referred to as an AR image) that provides information about an outside scene that is a real space and that has a so-called AR (Augmented Reality) effect can be displayed. The AR image is displayed so that information on an object existing in the real space overlaps with the object or is aligned with the object. By viewing the AR image, the user can simultaneously view the object and various information related to the object. The display of the AR image is characterized in that it is displayed in accordance with the position where the object can be seen by the user.
When the AR display is performed, the user's line of sight gazes at the object OB existing in the real space.

AR表示を行う場合、HMD1は、AR画像を外景に調和させるために、AR画像またはAR画像に含まれる表示オブジェクト(画像、図形、文字等)の表示サイズ、表示色等を調整できる。また、対象物OBに重なって表示される表示オブジェクトを、対象物OBの前に重なるように表示する表示態様と、対象物OBの後ろに重なって視認されるように表示する表示態様とを切り替えてもよい。また、AR画像に画像処理を施して、表示オブジェクトに影が付いたように視認される表示態様で表示してもよい。   When performing AR display, the HMD 1 can adjust the display size, display color, and the like of the AR image or a display object (image, graphic, character, etc.) included in the AR image in order to harmonize the AR image with the outside scene. In addition, the display object displayed so as to overlap with the object OB is switched between a display mode in which the object is displayed in front of the object OB and a display mode in which the display object is displayed so as to be viewed behind the object OB. May be. Alternatively, the AR image may be subjected to image processing, and displayed in a display mode in which the display object is visually recognized as having a shadow.

また、使用者が導光部材10を透過して外景を視認する場合にHMD1が表示する別の態様として、使用者が注視する対象物に関する情報に限らず、様々な画像や文字等を含む画像を表示することがある。この場合、使用者にとって対象物が視認される位置に合わせる処理は行われないか、或いは、対象物の視認を妨げないように、使用者の視界の端等に画像を表示する。この種の表示は、例えば、使用者が文書の内容を見ながら、外景を視認するような場合に行われる。この表示を行う場合も、使用者の視線は、実空間に存在する対象物OBを注視し、HMD1の表示画像を見る場合に、視線が対象物OBから離れて表示画像が注視される。   Moreover, as another aspect which HMD1 displays when a user permeate | transmits the light guide member 10 and visually recognizes an external scene, it is not restricted to the information regarding the target object which a user gazes, and images containing various images, characters, etc. May be displayed. In this case, the process for adjusting the position where the object is visually recognized by the user is not performed, or an image is displayed at the end of the user's field of view so as not to prevent the object from being visually recognized. This type of display is performed, for example, when the user visually recognizes the outside scene while viewing the contents of the document. Even when this display is performed, the user's line of sight pays attention to the object OB existing in the real space, and when viewing the display image of the HMD 1, the line of sight moves away from the object OB and the display image is watched.

上記のいずれの例においても、使用者は、実空間の対象物OBを見て、必要に応じてHMD1の表示画像を見る。使用者が対象物OBを注視するときの視線は導光部材10において位置10a、10bを通る。HMD1が虚像表示装置100により画像を表示する位置が、位置10a、10bに合わせた位置であれば、使用者は、対象物OBを見るときとHMD1の表示画像を見るときとで、視線を大きく動かす必要がない。
そこで、HMD1は、使用者が視線を大きく動かさずに表示画像を見ることができるように、使用者が注視する外景の対象物OBまでの距離(注視距離)に応じて、表示態様を制御する。本実施形態では表示態様の制御の一例として、使用者が表示画像を見る(視認する)位置、すなわち表示位置を制御する場合を説明する。
In any of the above examples, the user looks at the object OB in the real space and looks at the display image of the HMD 1 as necessary. The line of sight when the user gazes at the object OB passes through the positions 10 a and 10 b in the light guide member 10. If the position at which the HMD 1 displays an image by the virtual image display device 100 is a position that matches the positions 10a and 10b, the user increases the line of sight when viewing the object OB and when viewing the display image of the HMD 1. There is no need to move it.
Therefore, the HMD 1 controls the display mode according to the distance (gaze distance) to the object OB of the outside scene that the user gazes so that the user can view the display image without moving the line of sight greatly. . In this embodiment, as an example of display mode control, a case where a user views (views) a display image, that is, a display position is described.

図10(B)は使用者の両眼の視野を模式的に示す図である。図の左には、左の眼EYの視野VR(L)を示し、図の右には、右の眼EYの視野VR(R)を示す。
使用者の視野VR(L)及び視野VR(R)には、画像表示装置80が生成し投射透視装置70により投射する表示画像PL、PRがある。投射透視装置70は映像光GLを眼EYに入射させることで虚像を使用者に知覚(視認)させるものであるから、眼EYの前に表示画像PL、PRを表示する物理的な表示面はない。しかしながら、使用者にとっては、映像光GLにより、視野VR(L)、VR(R)の一部を占める画像を視認するので、ここでは模式的に映像光GLが表示画像PL、PRを形成するものとして説明する。
FIG. 10B is a diagram schematically showing the visual field of both eyes of the user. The left side of the figure shows the field of view VR (L) of the left eye EY, and the right side of the figure shows the field of view VR (R) of the right eye EY.
The user's visual field VR (L) and visual field VR (R) include display images PL and PR generated by the image display device 80 and projected by the projection fluoroscopic device 70. Since the projection fluoroscopic device 70 causes the user to perceive (view) a virtual image by causing the image light GL to enter the eye EY, the physical display surface for displaying the display images PL and PR in front of the eye EY is Absent. However, for the user, the image light GL visually recognizes an image that occupies a part of the visual fields VR (L) and VR (R), and therefore the image light GL schematically forms the display images PL and PR here. It will be explained as a thing.

表示画像PL、PRは虚像表示装置100が画像を表示可能な最大の領域であって、表示可能領域ということができる。図中の画像P1は、虚像表示装置100が表示可能範囲である表示画像PL、PRに、実際に表示する画像である。図10(B)の例では使用者の両眼に同じ画像P1を視認させる。   The display images PL and PR are the maximum areas in which the virtual image display device 100 can display images, and can be referred to as displayable areas. An image P1 in the figure is an image that is actually displayed on the display images PL and PR that are displayable ranges by the virtual image display device 100. In the example of FIG. 10B, the same image P1 is visually recognized by both eyes of the user.

視野VR(L)における画像P1が位置10bに近く、視野VR(R)における画像P1が位置10aに近いと、使用者は、対象物OBと画像P1とを、視線を大きく動かすことなく視認できる。この場合、使用者の視線の奥行き方向(遠近方向)における動きが小さいため、使用者には、遠近方向の焦点調節に係る眼の負担がかかりにくい。従って、実空間の対象物OBと、虚像表示装置100の表示画像とを、例えば交互に見る場合に、使用者の視力に対する負荷を、効果的に軽減できる。   When the image P1 in the visual field VR (L) is close to the position 10b and the image P1 in the visual field VR (R) is close to the position 10a, the user can visually recognize the object OB and the image P1 without greatly moving the line of sight. . In this case, since the movement of the user's line of sight in the depth direction (perspective direction) is small, the user is less likely to be burdened with the eyes related to the focus adjustment in the perspective direction. Therefore, when the object OB in the real space and the display image of the virtual image display device 100 are viewed alternately, for example, the load on the user's visual acuity can be effectively reduced.

以下、HMD1が実行する表示制御について具体的に説明する。
図11(A)は、機械的動作により表示位置を調整する動作を示し、図11(B)、(C)は画像処理により表示位置を調整する動作を示す。
Hereinafter, display control executed by the HMD 1 will be specifically described.
FIG. 11A shows an operation of adjusting the display position by a mechanical operation, and FIGS. 11B and 11C show an operation of adjusting the display position by image processing.

制御部140は、上述した右光学系駆動部85及び左光学系駆動部87ことにより、第1表示装置100Aと第2表示装置100Bにおいて、導光部材10に対する光学装置部130の角度を変更できる。右光学系駆動部85の動作により、導光部材10から右眼EYに入射する映像光GLの位置が変化するので、視野VR(R)における表示画像PRすなわち表示可能領域が移動する。同様に、左光学系駆動部87の動作により、導光部材10から左眼EYに入射する映像光GLの位置が変化するので、視野VR(L)における表示画像PLすなわち表示可能領域が移動する。表示画像PL、PRが移動すると、表示画像PL、PRのそれぞれにおける画像P1の位置を変化させなくても、使用者が画像P1を視認する位置を変化させることができる。また、図11(A)に示すように、位置10a−位置10b間(図10(A))の距離に合わせて表示画像PL、PRを調整するので、視野VR(L)における表示画像PLの移動方向と、視野VR(R)における表示画像PRの移動方向は逆である。従って、右光学系駆動部85が光学装置部130を動かす方向と、左光学系駆動部87が光学装置部130を動かす方向とは互いに逆である。   The control unit 140 can change the angle of the optical device unit 130 with respect to the light guide member 10 in the first display device 100A and the second display device 100B by the right optical system drive unit 85 and the left optical system drive unit 87 described above. . The position of the image light GL incident on the right eye EY from the light guide member 10 is changed by the operation of the right optical system driving unit 85, so that the display image PR, that is, the displayable region in the visual field VR (R) moves. Similarly, the position of the image light GL incident on the left eye EY from the light guide member 10 is changed by the operation of the left optical system driving unit 87, so that the display image PL, that is, the displayable area in the visual field VR (L) moves. . When the display images PL and PR move, the position at which the user visually recognizes the image P1 can be changed without changing the position of the image P1 in each of the display images PL and PR. Further, as shown in FIG. 11A, since the display images PL and PR are adjusted according to the distance between the position 10a and the position 10b (FIG. 10A), the display image PL in the visual field VR (L) is adjusted. The moving direction and the moving direction of the display image PR in the visual field VR (R) are opposite. Therefore, the direction in which the right optical system driving unit 85 moves the optical device unit 130 and the direction in which the left optical system driving unit 87 moves the optical device unit 130 are opposite to each other.

制御部140は、表示画像PLで画像P1を表示する位置、及び、表示画像PRで画像P1を表示する位置を画像処理により変更することができる。この画像処理は、右光学系駆動部85及び左光学系駆動部87を動かす制御とは独立して実行でき、例えばソフトウェアで実現できる。   The control unit 140 can change the position where the image P1 is displayed on the display image PL and the position where the image P1 is displayed on the display image PR by image processing. This image processing can be executed independently of the control for moving the right optical system driving unit 85 and the left optical system driving unit 87, and can be realized by software, for example.

表示画像PL、PRにおける画像P1の位置を動かす場合、制御部140は、画像P1の表示サイズを、表示画像PL、PRより小さくする。ここで、制御部140は、画像P1を縮小してもよいが、画像P1の一部を切り出して表示用の画像P2を生成し、画像P2の表示位置を制御してもよい。画像P2を切り出す処理は画像処理部160(画像生成部)が行えば良い。
例えば、図11(B)に示すように、画像P1の中央寄りの部分を切り出して画像P2とし、図11(C)に示すように、表示画像PL、PRのそれぞれに画像P2を表示する。表示画像PL、PRにおける画像P2の表示位置は、位置10a−位置10b間(図10(A))の距離に合わせて調整される。従って、表示画像PLにおける画像P2の移動方向と、表示画像PRにおける画像P2の移動方向は逆である。
When moving the position of the image P1 in the display images PL and PR, the control unit 140 makes the display size of the image P1 smaller than the display images PL and PR. Here, the control unit 140 may reduce the image P1, but may cut out a part of the image P1 to generate a display image P2 and control the display position of the image P2. The process of cutting out the image P2 may be performed by the image processing unit 160 (image generation unit).
For example, as shown in FIG. 11B, a portion near the center of the image P1 is cut out as an image P2, and the image P2 is displayed on each of the display images PL and PR as shown in FIG. 11C. The display position of the image P2 in the display images PL and PR is adjusted according to the distance between the position 10a and the position 10b (FIG. 10A). Accordingly, the moving direction of the image P2 in the display image PL is opposite to the moving direction of the image P2 in the display image PR.

このように、制御部140は、右光学系駆動部85及び左光学系駆動部87を用いて投射透視装置70及び画像表示装置80の構成部品を動かす機械的な調整、及び、画像処理による表示位置の調整を、それぞれ実行できる。また、この機械的な調整と画像処理による調整とを組み合わせて実行することで、より効果的に表示位置を調整できる。   Thus, the control unit 140 uses the right optical system driving unit 85 and the left optical system driving unit 87 to move the components of the projection fluoroscopic device 70 and the image display device 80, and display by image processing. Each position adjustment can be performed. In addition, the display position can be adjusted more effectively by executing a combination of this mechanical adjustment and adjustment by image processing.

また、制御部140が、図11(A)〜(C)に示す表示態様(表示位置)の制御を行わない初期状態では、所定の輻輳角CAの値に適するように、表示画像PL、PRの位置が設定される。この初期位置(デフォルト位置)が対応する輻輳角CAは、例えば、1°(度)以上かつ5°以下の範囲にあり、より具体的には、使用者の眼EYから対象物OBまでの距離が4mの場合に適した位置となっている。
別の例では、使用者の両眼の視線が真正面を向く場合(対象物OBまでの距離が無限遠)に比べ、視線方向が0.2°〜2°、内側にあることが好ましい。この場合、使用者の瞳孔間距離(PD)の標準値として65mmを採用できる。
Further, in the initial state where the control unit 140 does not control the display mode (display position) shown in FIGS. 11A to 11C, the display images PL and PR are adjusted so as to be suitable for the value of the predetermined convergence angle CA. Is set. The convergence angle CA corresponding to this initial position (default position) is, for example, in the range of 1 ° (degrees) or more and 5 ° or less, and more specifically, the distance from the user's eye EY to the object OB. It is a suitable position for the case of 4 m.
In another example, it is preferable that the line-of-sight direction is 0.2 ° to 2 ° and on the inner side as compared with the case where the line of sight of both eyes of the user faces directly in front (the distance to the object OB is infinity). In this case, 65 mm can be adopted as a standard value of the distance between the pupils (PD) of the user.

上記の調整を行うため、制御部140は、撮像制御部181、眼画像解析部182、外画像解析部183、変更制御部184、及び駆動制御部185を備える。   In order to perform the above adjustment, the control unit 140 includes an imaging control unit 181, an eye image analysis unit 182, an external image analysis unit 183, a change control unit 184, and a drive control unit 185.

撮像制御部181は、外カメラ35、36、及び、内カメラ37a、37b、38a、38bをそれぞれ制御して撮像を実行させ、撮像画像データを取得する。
眼画像解析部182は、内カメラ37a、37bの撮像画像データを解析して、虚像表示装置100を装着した使用者の右眼EYの状態に関するデータを生成する。また、眼画像解析部182は、内カメラ38a、38bの撮像画像データを解析して、使用者の左眼EYの状態に関するデータを生成する。
The imaging control unit 181 controls the outer cameras 35 and 36 and the inner cameras 37a, 37b, 38a, and 38b to execute imaging, and acquires captured image data.
The eye image analysis unit 182 analyzes the captured image data of the inner cameras 37a and 37b, and generates data regarding the state of the right eye EY of the user wearing the virtual image display device 100. The eye image analysis unit 182 analyzes the captured image data of the inner cameras 38a and 38b, and generates data related to the state of the user's left eye EY.

外画像解析部183は、外カメラ35、36の撮像画像データを解析することにより、使用者が注視する方向に存在する対象物OBを検出し、対象物OBまでの距離を求める。外カメラ35、36は上述のように互いに離隔したステレオカメラとして機能する。外画像解析部183は、外カメラ35の撮像画像と、外カメラ36の撮像画像との視差を検出し、検出した視差と、予め設定された外カメラ35、36の間隔とをもとに、演算処理を実行し、対象物OBまでの距離を求めることができる。外画像解析部183が求める距離は、外カメラ35、36から対象物OBまでの距離であってもよい。また、求めた距離を既知のパラメーターを用いて、使用者の眼EYから対象物OBまでの距離に変換してもよい。
さらに、外画像解析部183は、眼画像解析部182が生成する使用者の両眼の状態に関するデータと、外画像解析部183が求めた対象物OBまでの距離とに基づいて、輻輳角CAを算出する。
The outer image analysis unit 183 detects the object OB present in the direction in which the user is gazing by analyzing the captured image data of the outer cameras 35 and 36, and obtains the distance to the object OB. The outer cameras 35 and 36 function as stereo cameras spaced apart from each other as described above. The outer image analysis unit 183 detects the parallax between the captured image of the outer camera 35 and the captured image of the outer camera 36, and based on the detected parallax and a predetermined interval between the outer cameras 35 and 36, Calculation processing can be executed to determine the distance to the object OB. The distance obtained by the outer image analysis unit 183 may be a distance from the outer cameras 35 and 36 to the object OB. Moreover, you may convert the calculated | required distance into the distance from a user's eye EY to the target object OB using a known parameter.
Further, the outer image analysis unit 183 generates a convergence angle CA based on the data regarding the state of both eyes of the user generated by the eye image analysis unit 182 and the distance to the object OB obtained by the outer image analysis unit 183. Is calculated.

変更制御部184は、外画像解析部183が算出した輻輳角CAに応じて、第1表示装置100A及び第2表示装置100Bにおける画像の表示位置を調整する。変更制御部184は、第1表示装置100Aと第2表示装置100Bのそれぞれにおける調整量を求める。ここで、変更制御部184は、右光学系駆動部85、左光学系駆動部87を用いた機械的調整の調整量と、画像処理による調整量とを個別に求めることができる。また、変更制御部184は、機械的調整と画像処理とを組み合わせる場合の、機械的調整の調整量と画像処理の調整量とを求めることができる。
また、変更制御部184は、右光学系駆動部85及び左光学系駆動部87の動きによる調整量を求め、駆動制御部185に調整を実行させた後、再び輻輳角CAを求めさせてもよい。この場合、変更制御部184は、機械的調整の後に外画像解析部183が求める輻輳角CAに基づき、画像処理の調整量を求める。
The change control unit 184 adjusts the display positions of the images on the first display device 100A and the second display device 100B according to the convergence angle CA calculated by the outer image analysis unit 183. The change control unit 184 obtains an adjustment amount in each of the first display device 100A and the second display device 100B. Here, the change control unit 184 can individually obtain the adjustment amount of the mechanical adjustment using the right optical system driving unit 85 and the left optical system driving unit 87 and the adjustment amount by the image processing. Further, the change control unit 184 can obtain the adjustment amount of the mechanical adjustment and the adjustment amount of the image processing when the mechanical adjustment and the image processing are combined.
Further, the change control unit 184 may obtain the adjustment amount due to the movement of the right optical system driving unit 85 and the left optical system driving unit 87, and after the adjustment is performed by the drive control unit 185, the convergence angle CA may be obtained again. Good. In this case, the change control unit 184 obtains the adjustment amount of the image processing based on the convergence angle CA obtained by the outer image analysis unit 183 after the mechanical adjustment.

変更制御部184が求める調整量は、予め設定された画像の表示位置である標準位置から、表示位置をシフトさせるシフト量とすることができる。標準位置は、例えば、瞳孔間距離が標準的なサイズの使用者が、標準的な注視距離すなわち輻輳角で外景を見る場合を想定して決定され、設定データ121に含めて記憶部120に記憶される。瞳孔間距離(眼間距離)は、60mm〜65mmが標準的な値とされるため、例えば65mmに設定できる。標準的な注視距離は虚像表示装置100の仕様に合わせて決定でき、例えば一般作業に用いられる仕様では4m、近位置(手元など)の作業に用いられる仕様では1m等に設定すれば良い。シフト量は、映像表示素子82における画素数や、駆動制御部185が駆動する駆動量として決定できる。例えば、注視距離が近く輻輳角が大きい場合には、標準位置よりも表示位置を内側(鼻側)にシフトさせれば良い。   The adjustment amount obtained by the change control unit 184 can be a shift amount for shifting the display position from a standard position that is a preset image display position. The standard position is determined on the assumption that, for example, a user having a standard pupillary distance looks at the outside scene at a standard gaze distance, that is, a convergence angle, and is stored in the storage unit 120 by including it in the setting data 121. Is done. The interpupillary distance (interocular distance) can be set to, for example, 65 mm because 60 to 65 mm is a standard value. The standard gaze distance can be determined in accordance with the specifications of the virtual image display device 100. For example, it may be set to 4 m for the specifications used for general work, and 1 m for the specifications used for the work at a close position (such as the hand). The shift amount can be determined as the number of pixels in the video display element 82 or the drive amount driven by the drive control unit 185. For example, when the gaze distance is close and the convergence angle is large, the display position may be shifted inward (nose side) from the standard position.

駆動制御部185は、変更制御部184が求める機械的調整の調整量に基づき、右光学系駆動部85と左光学系駆動部87とをそれぞれ制御して駆動させる。
右光学系駆動部85は、光学装置部130を、例えば段階的に揺動させることができる。左光学系駆動部87も同様である。この場合、駆動制御部185は、右光学系駆動部85、左光学系駆動部87を動かす段数を制御する。また、右光学系駆動部85及び左光学系駆動部87が無段階で光学装置部130を傾けることが可能な場合、変更制御部184は、右光学系駆動部85及び左光学系駆動部87の動作量を制御する。
The drive control unit 185 controls and drives the right optical system drive unit 85 and the left optical system drive unit 87 based on the adjustment amount of the mechanical adjustment obtained by the change control unit 184.
The right optical system driving unit 85 can swing the optical device unit 130 stepwise, for example. The same applies to the left optical system driving unit 87. In this case, the drive control unit 185 controls the number of stages for moving the right optical system drive unit 85 and the left optical system drive unit 87. When the right optical system driving unit 85 and the left optical system driving unit 87 can tilt the optical device unit 130 without any step, the change control unit 184 includes the right optical system driving unit 85 and the left optical system driving unit 87. Control the amount of movement.

制御部140の眼画像解析部182、外画像解析部183、及び変更制御部184が実行する演算処理に用いる演算式、関数、行列、パラメーター等は、記憶部120に設定データ121として記憶される。また、後述する処理における調整可能範囲の基準値や、目標精度の設定値は、調整基準データ123として記憶部120に記憶される。   An arithmetic expression, a function, a matrix, a parameter, and the like used for arithmetic processing executed by the eye image analysis unit 182, the external image analysis unit 183, and the change control unit 184 of the control unit 140 are stored as setting data 121 in the storage unit 120. . Further, the reference value of the adjustable range and the set value of the target accuracy in the processing described later are stored in the storage unit 120 as the adjustment reference data 123.

さらに、制御部140による調整は、例えば、画像P1、P2の表示位置に適合する輻輳角CAが、使用者の視線に基づき算出した輻輳角CAに対し、±1°となることを目標に行うことが、好ましい。ここで、画像P1、P2の表示位置は、例えば、画像P1、P2の中心の位置とする。   Further, the adjustment by the control unit 140 is performed with a goal that the convergence angle CA that matches the display positions of the images P1 and P2 is ± 1 ° with respect to the convergence angle CA calculated based on the user's line of sight. It is preferable. Here, the display positions of the images P1 and P2 are, for example, the center positions of the images P1 and P2.

なお、図10(A)では使用者の両眼の中央に対象物OBがある場合、すなわち、使用者が両眼の中心に対象物OBが位置するように、頭を向けて視認する例を示している。使用者の右眼、或いは左眼のいずれか一方が明らかに利き眼である場合には、対象物OBの位置は、右眼EYと左眼EYの中央位置から利き眼側にずれた位置となる。
この場合、外画像解析部183は、利き眼の側に偏った対象物OBを検出し、利き眼を基準とする対象物OBまでの距離を算出し、輻輳角CAを算出することが可能な構成としてもよい。また、利き眼を基準とする演算処理に適した演算式、関数、行列、パラメーター等を設定データ121に含めてもよい。また、使用者の操作により利き眼を指定する構成としてもよく、利き眼の入力を求める案内メッセージ等を虚像表示装置100により表示してもよい。また、虚像表示装置100の画像の表示と、制御装置300における操作とによって利き眼を判定する処理を行ってもよい。
In FIG. 10A, when the object OB is at the center of both eyes of the user, that is, an example in which the user visually recognizes the object OB so that the object OB is positioned at the center of both eyes. Show. When either the right eye or the left eye of the user is clearly the dominant eye, the position of the object OB is a position shifted from the center position of the right eye EY and the left eye EY to the dominant eye side. Become.
In this case, the outer image analysis unit 183 can detect the object OB biased toward the dominant eye, calculate the distance to the object OB with reference to the dominant eye, and calculate the convergence angle CA. It is good also as a structure. In addition, the setting data 121 may include an arithmetic expression, a function, a matrix, a parameter, and the like suitable for arithmetic processing based on the dominant eye. Further, the dominant eye may be designated by the user's operation, and a guidance message for requesting the dominant eye may be displayed on the virtual image display device 100. Moreover, you may perform the process which determines a dominant eye by the display of the image of the virtual image display apparatus 100, and operation in the control apparatus 300. FIG.

この場合、制御部140は、使用者の利き眼に合わせて画像の表示位置を調整することもできる。例えば、利き眼が右眼であると仮定すると、右眼EYに対応する画像表示装置80では基準の位置から20画素シフトした位置に画像を表示し、左眼EYに対応する画像表示装置80では基準の位置から15画素シフトした位置に画像を表示する。このように、輻輳角に対応して表示態様を制御する場合に、利き眼と、利き眼でない側の眼とのそれぞれに対して異なる表示態様で画像を表示することで、より自然な見え方で画像を表示できる。   In this case, the control unit 140 can also adjust the display position of the image according to the user's dominant eye. For example, assuming that the dominant eye is the right eye, the image display device 80 corresponding to the right eye EY displays an image at a position shifted by 20 pixels from the reference position, and the image display device 80 corresponding to the left eye EY. An image is displayed at a position shifted by 15 pixels from the reference position. As described above, when the display mode is controlled in accordance with the convergence angle, the image is displayed in a different display mode for each of the dominant eye and the non-dominant eye, thereby providing a more natural appearance. Can display images.

さらに、輻輳角を検出する場合において、利き眼の影響により、図10(A)に示す位置10a、10bが、両眼の中央に対して対象な位置とならない場合がある。すなわち、対象物OBが使用者の正面でなく利き眼側によった位置となる場合がある。この場合、制御部140は、輻輳角CAを検出する処理において、利き眼側の位置(例えば、位置10a)を基準として輻輳角を求めてもよい。具体的には、位置10aと、位置10aに対して両眼の中央を介して対象な位置10b´を想定し、これら位置10a−位置10b´間の距離に基づき輻輳角を求めてもよい。また、利き眼側の位置(例えば、位置10b)について同様の処理を行って輻輳角を求めてもよい。さらに、このように求めた2つの輻輳角の平均値等を求めることにより、最終的な輻輳角を算出してもよい。
また、利き眼については上記のように検出する方法に限らず、対象物OBが使用者の視界の右側に寄った位置にある場合は右眼を利き眼として輻輳角の検出及び表示態様の制御の処理を行ってもよい。対象物OBが使用者の視界の左側に寄った位置にある場合は左眼を利き眼として輻輳角の検出及び表示態様の制御の処理を行ってもよい。つまり、対象物と使用者との相対位置に応じて、利き眼に関する設定を変更してもよい。また、使用者が利き眼に関する設定を行った場合、この設定を優先してもよい。
Furthermore, when detecting the convergence angle, the positions 10a and 10b shown in FIG. 10A may not be the target positions with respect to the center of both eyes due to the influence of the dominant eye. In other words, the object OB may be positioned on the dominant eye side instead of the front of the user. In this case, in the process of detecting the convergence angle CA, the control unit 140 may obtain the convergence angle with reference to the dominant eye side position (for example, the position 10a). Specifically, assuming the target position 10b ′ via the center of both eyes with respect to the position 10a and the position 10a, the convergence angle may be obtained based on the distance between the position 10a and the position 10b ′. Further, the convergence angle may be obtained by performing the same process on the dominant eye side position (for example, the position 10b). Furthermore, the final convergence angle may be calculated by obtaining an average value of the two convergence angles obtained in this way.
The dominant eye is not limited to the method of detecting as described above. When the object OB is located at the right side of the user's field of vision, the right eye is used as the dominant eye and the detection of the convergence angle and the control of the display mode are performed. You may perform the process of. When the object OB is at a position close to the left side of the user's field of vision, the left eye may be the dominant eye and the convergence angle detection and display mode control may be performed. That is, the setting related to the dominant eye may be changed according to the relative position between the object and the user. In addition, when the user makes a setting related to the dominant eye, this setting may be prioritized.

図12は、HMD1の動作を示すフローチャートであり、画像の表示位置の調整に係る処理を示す。
制御部140は、使用者の視線方向(注視方向)および注視距離を検出するための基準となる参照データを生成する(ステップST1)。ステップST1で生成される参照データは、参照データ122として記憶部120に記憶される。
制御部140は、画像(映像を含む)の表示を開始してから、或いは表示開始時に、使用者の両眼の輻輳角を検出する輻輳角検出処理を実行する(ステップST2)。続いて、制御部140は、ステップST2で検出した輻輳角に基づき、虚像表示装置100における画像の表示位置を調整する画像調整処理を実行する(ステップST3)。その後、制御部140は、画像の表示を終了するか否かを判定し(ステップST4)、表示を継続する間は(ステップST4;No)、ステップST2に戻る。また、表示を終了する場合は(ステップST4;Yes)、本処理を終了する。
FIG. 12 is a flowchart showing the operation of the HMD 1 and shows processing relating to adjustment of the display position of the image.
The control unit 140 generates reference data serving as a reference for detecting the user's gaze direction (gaze direction) and gaze distance (step ST1). The reference data generated in step ST1 is stored in the storage unit 120 as reference data 122.
The control unit 140 executes a convergence angle detection process for detecting a convergence angle of both eyes of the user after starting display of an image (including video) or at the start of display (step ST2). Subsequently, the control unit 140 executes image adjustment processing for adjusting the image display position on the virtual image display device 100 based on the convergence angle detected in step ST2 (step ST3). Thereafter, the control unit 140 determines whether or not to end the display of the image (step ST4), and returns to step ST2 while continuing the display (step ST4; No). When the display is to be ended (step ST4; Yes), this process is ended.

制御部140がステップST1で生成する参照データ122は、HMD1の起動時、或いは、使用者が初めてHMD1を使用する際に実行すればよく、使用者が制御装置300を操作することで、随時、実行できる構成としてもよい。
以下、図12に示した各処理について詳細に説明する。
The reference data 122 generated by the control unit 140 in step ST <b> 1 may be executed when the HMD 1 is started up or when the user uses the HMD 1 for the first time. It is good also as a structure which can be performed.
Hereinafter, each process shown in FIG. 12 will be described in detail.

図13は、図12のステップST1に示す参照データ生成処理を示すフローチャートである。
制御部140は、水平方向、及び垂直方向に視線を向けるよう案内する画像を虚像表示装置100で表示し(ステップST11)。この案内に従って使用者に視線を移動させる(ステップST12)。制御部140は、移動中或いは移動後に内カメラ37a、37b、38a、38bに撮像を実行させた撮像画像データを取得して、取得した撮像画像データを解析することにより、眼球運動及び眼球の方向に関するデータを取得する(ステップST13)。制御部140は、予め設定された全ての方向に関しステップST11〜ST13の処理が完了したか否かを判定し(ステップST14)、未処理の方向がある場合は(ステップST14;No)、ステップST11に戻る。
FIG. 13 is a flowchart showing the reference data generation process shown in step ST1 of FIG.
The control unit 140 displays an image for guiding the line of sight in the horizontal direction and the vertical direction on the virtual image display device 100 (step ST11). The line of sight is moved to the user according to this guidance (step ST12). The control unit 140 acquires captured image data obtained by causing the inner cameras 37a, 37b, 38a, and 38b to perform imaging during or after the movement, and analyzes the acquired captured image data, thereby moving the eye movement and the direction of the eyeball. The data regarding is acquired (step ST13). The control unit 140 determines whether or not the processing of steps ST11 to ST13 has been completed for all the preset directions (step ST14). If there is an unprocessed direction (step ST14; No), the control unit 140 determines whether or not the processing has been completed. Return to.

ステップST11では、例えば、使用者に対して上、下、右、左、右上、右下、左上、左下の8方向及び正面を含む9方向を指定して、視線を向けさせるよう案内する文字や画像を表示する。制御部140は、正面を除く8方向については、使用者に、最大限に視線を指定方向に向けるよう案内する。
ステップST13で、制御部140は、内カメラ37a、37b、38a、38bの撮像画像から使用者の眼球の画像を抽出し、(1)瞳孔間距離、(2)瞳孔径または瞳孔径の変化量、(3)注視方向、を検出し、検出データを生成する。瞳孔径は、眼球の虹彩の画像を検出することで求めることができる。一般に、虹彩の状態は水晶体を変化させる毛様体筋の動きを反映するので、瞳孔径の変化量または瞳孔径に関するデータは、注視距離に関するデータとして利用できる。
In step ST11, for example, characters that guide the user to direct the line of sight by designating 8 directions of up, down, right, left, upper right, lower right, upper left, lower left, and 9 directions including the front, Display an image. The controller 140 guides the user so that the line of sight is directed to the specified direction to the maximum extent in the eight directions except for the front.
In step ST13, the control unit 140 extracts an image of the user's eyeball from the captured images of the inner cameras 37a, 37b, 38a, and 38b, and (1) the interpupillary distance, (2) the pupil diameter or the amount of change in the pupil diameter. (3) gaze direction is detected, and detection data is generated. The pupil diameter can be obtained by detecting an iris image of the eyeball. In general, since the iris state reflects the movement of the ciliary muscle that changes the crystalline lens, the change in the pupil diameter or the data relating to the pupil diameter can be used as data relating to the gaze distance.

ステップST11〜ST13の動作は、使用者の眼球に相対する面内における上記9方向のそれぞれについて、実行すればよい。すなわち、ステップST11では上記9方向のうちいずれかの方向を指定して視線を向けるよう案内する文字や画像を表示し、ステップST13において、指定方向に関する検出データを取得する。この動作を、例えば9回実行すれば、9方向に視線を向けさせて検出データを取得できる。また、ステップST11において視線を向ける9方向と、視線を向ける順序を指定し、その後は内カメラ37a、37b、38a、38bにより眼球の運動を継続して撮像し、9方向の検出データをステップST13でまとめて取得してもよい。   Operation | movement of step ST11-ST13 should just be performed about each of the said 9 directions in the surface facing a user's eyeball. That is, in step ST11, a character or image for guiding one of the nine directions to designate a line of sight is displayed, and in step ST13, detection data regarding the designated direction is acquired. If this operation is executed nine times, for example, detection data can be acquired with the line of sight directed in nine directions. Further, in step ST11, the nine directions in which the line of sight is directed and the order in which the line of sight is directed are designated, and thereafter, the movement of the eyeball is continuously imaged by the inner cameras 37a, 37b, 38a, 38b, and the detection data in the nine directions is obtained in step ST13 You may collect all at once.

水平及び垂直方向の全てについて処理を行った場合(ステップST14;Yes)、制御部140は、奥行き(遠近)方向に視線を向けるよう案内する画像を虚像表示装置100で表示する(ステップST15)。そして、案内に従って使用者に視線を移動させ(ステップST16)、移動中或いは移動後に内カメラ37a、37b、38a、38bに撮像を実行させた撮像画像データを取得して、取得した撮像画像データを解析することにより、眼球運動及び眼球の方向に関するデータを取得する(ステップST17)。ステップST15では、例えば、最も近い位置、及び、最も遠い位置の2方向に視線を向けるよう案内する。ステップST15〜ST17の処理を2回行って、最も近い位置と最も遠い位置に関する検出データを取得してもよい。   When processing has been performed for all of the horizontal and vertical directions (step ST14; Yes), the control unit 140 displays an image for guiding the line of sight in the depth (perspective) direction on the virtual image display device 100 (step ST15). Then, the user moves his / her line of sight according to the guidance (step ST16), acquires captured image data obtained by the inner cameras 37a, 37b, 38a, and 38b performing imaging during or after the movement, and acquires the captured image data. By analyzing, the data regarding the eye movement and the direction of the eye is acquired (step ST17). In step ST15, for example, guidance is given so that the line of sight is directed in two directions: the closest position and the farthest position. You may acquire the detection data regarding the nearest position and the farthest position by performing the process of steps ST15-ST17 twice.

また、ステップST15では、使用者に見える外景すなわち実空間において、予め設定された距離を見るように案内してもよく、この場合、実空間において設定された距離に位置する対象物を指定して、その対象物を注視するように案内してもよい。この場合、事前に使用者が、参照データ生成処理を行うために用いる対象物を、指定した距離に置いておけばよい。   In step ST15, the user may be guided to see a preset distance in the outside scene that is visible to the user, that is, in the real space. In this case, an object located at the preset distance in the real space is designated. Alternatively, guidance may be given so as to watch the object. In this case, the user may place an object to be used for performing the reference data generation process at a specified distance in advance.

制御部140は、ステップST13、ST17で取得した検出データをもとに、注視方向を検出するために用いる参照データ122を生成し、記憶部120に記憶する(ステップST18)。この例で、参照データ122は、上記9方向及び遠近2方向の、合計11の方向に使用者が視線を向けた場合の、眼球の運動及び/又は方向に関するデータを含む。これにより、内カメラ37a、37b、38a、38bにより眼球を撮像し、撮像画像における眼球の画像と、上記9方向を撮像した場合の眼球の状態とを比較することで、注視方向を特定できる。また、眼球の向きから、注視距離を求めることができる。   The control unit 140 generates reference data 122 used for detecting the gaze direction based on the detection data acquired in steps ST13 and ST17, and stores the reference data 122 in the storage unit 120 (step ST18). In this example, the reference data 122 includes data relating to eye movement and / or direction when the user turns his / her line of sight in a total of 11 directions including the 9 directions and the two perspective directions. Thereby, the eye direction is imaged by the inner cameras 37a, 37b, 38a, 38b, and the gaze direction can be specified by comparing the image of the eyeball in the captured image with the state of the eyeball when the nine directions are captured. Further, the gaze distance can be obtained from the direction of the eyeball.

図14は、図12のステップST2の輻輳角検出処理を示すフローチャートである。
制御部140は、内カメラ37a、37b、38a、38bにより撮像を実行させて撮像画像データを取得し、撮像画像データを解析することにより、眼球の状態に関するデータを取得する(ステップST31)。ステップST31で取得するデータは、例えば、ステップST13、ST17と同様の処理で得られるデータであり、参照データ122と比較可能なデータであることが好ましい。
FIG. 14 is a flowchart showing the convergence angle detection process in step ST2 of FIG.
The control unit 140 obtains captured image data by executing imaging with the inner cameras 37a, 37b, 38a, and 38b, and obtains data relating to the state of the eyeball by analyzing the captured image data (step ST31). The data acquired in step ST31 is, for example, data obtained by the same processing as in steps ST13 and ST17, and is preferably data that can be compared with the reference data 122.

制御部140は、参照データ122を参照し、ステップST31で取得したデータに基づいて使用者の注視方向、及び、注視距離を算出する(ステップST32)。
制御部140は、外カメラ35、36により撮像を実行させて撮像画像データを取得し、撮像画像に写る対象物OBを検出する(ステップST33)。制御部140は、撮像画像において物体(物体の一部を含む)として識別可能なもののうち、ステップST32で求めた注視方向及び注視距離に適合する物体を、対象物OBとして検出する。
The control unit 140 refers to the reference data 122 and calculates the gaze direction and gaze distance of the user based on the data acquired in step ST31 (step ST32).
The control unit 140 executes imaging with the outer cameras 35 and 36, acquires captured image data, and detects an object OB that appears in the captured image (step ST33). The control unit 140 detects an object that can be identified as an object (including a part of the object) in the captured image and that matches the gaze direction and gaze distance obtained in step ST32 as the object OB.

制御部140は、ステップST33で検出した対象物までの距離を算出する(ステップST34)。外カメラ35、36はステレオカメラを構成するので、外カメラ35の撮像画像と外カメラ36の撮像画像における視差に基づいて、外カメラ35、36から対象物までの距離を求めることができる。ここで、制御部140は、求めた距離を、使用者の眼から対象物までの距離に換算してもよい。   The controller 140 calculates the distance to the object detected in step ST33 (step ST34). Since the outer cameras 35 and 36 constitute a stereo camera, the distance from the outer cameras 35 and 36 to the target can be obtained based on the parallax between the captured image of the outer camera 35 and the captured image of the outer camera 36. Here, the control unit 140 may convert the obtained distance into a distance from the user's eyes to the object.

制御部140は、ステップST32で算出した注視方向と、ステップST34で算出した距離とに基づいて、輻輳角を算出する(ステップST35)。ステップST35では、外カメラ35、36の撮像画像から注視距離を求めるため、よりシンプルな演算処理によって高い精度で注視距離を得られるという利点がある。なお、ステップST34の動作を省略し、ステップST32で算出した注視方向及び注視距離を用いて、ステップST35で輻輳角を算出してもよい。   The controller 140 calculates a convergence angle based on the gaze direction calculated in step ST32 and the distance calculated in step ST34 (step ST35). In step ST35, since the gaze distance is obtained from the captured images of the outer cameras 35 and 36, there is an advantage that the gaze distance can be obtained with high accuracy by simpler calculation processing. Note that the operation of step ST34 may be omitted, and the convergence angle may be calculated in step ST35 using the gaze direction and gaze distance calculated in step ST32.

なお、輻輳角を検出する具体的な手法は、図14で説明したようにステレオカメラを用いる方法に限定されず、例えば、単眼のカメラを用いて時間差を設けて複数回の撮像を実行し、これら複数回の撮像で得られる複数の撮像画像を用いて輻輳角を検出してもよい。また、使用者の眼(片眼、或いは両眼)を撮像し、瞳孔径の変化または瞳孔径を検出することにより輻輳角を検出してもよい。一般に、外景(実空間)において注視したい対象を視認した場合に、人間の瞳孔径が短時間で拡大することが知られている。このため、瞳孔径の変化または瞳孔径を検出する機能を、使用者の注視方向を求める処理で利用してもよい。また、制御部140は、撮像画像から注視距離を求める処理において、例えばルックアップテーブル(Lookup table:変換テーブル)を用いてもよい。この場合、制御部140は、カメラまたは撮像画像から求められる検知データに基づきルックアップテーブルを参照することで、注視距離を求めることができる。また、検知データとして瞳孔間距離(眼間距離)を組み合わせてもよい。ルックアップテーブルは、例えば、予め記憶部120に記憶すれば良い。   Note that the specific method for detecting the convergence angle is not limited to the method using a stereo camera as described in FIG. 14, and for example, performing a plurality of times of imaging with a time difference using a monocular camera, The convergence angle may be detected using a plurality of captured images obtained by the plurality of times of imaging. Alternatively, the convergence angle may be detected by imaging the user's eyes (one eye or both eyes) and detecting a change in pupil diameter or pupil diameter. In general, it is known that the diameter of a human pupil expands in a short time when an object to be watched is visually recognized in an outside scene (real space). For this reason, you may utilize the function which detects the change of a pupil diameter, or a pupil diameter in the process which calculates | requires a user's gaze direction. In addition, the control unit 140 may use, for example, a look-up table (conversion table) in the process of obtaining the gaze distance from the captured image. In this case, the control unit 140 can obtain the gaze distance by referring to the lookup table based on the detection data obtained from the camera or the captured image. Moreover, you may combine the distance between eyes (interocular distance) as detection data. The lookup table may be stored in the storage unit 120 in advance, for example.

図15は、図12のステップST3の画像調整処理を示すフローチャートである。
制御部140は、図14の動作で求めた輻輳角が、調整可能範囲内であるか否かを判定する(ステップST51)。HMD1では、右光学系駆動部85、左光学系駆動部87を用いる機械的な調整、及び、画像処理部160が画像処理を行う調整によって調整可能な輻輳角の限界値があり、この限界値に対応する調整可能範囲が予め設定される。制御部140は、輻輳角の値が調整可能範囲内であると判定した場合(ステップST51;Yes)、機械的調整を要するか否かを判定する(ステップST52)。
FIG. 15 is a flowchart showing the image adjustment processing in step ST3 of FIG.
The control unit 140 determines whether or not the convergence angle obtained by the operation of FIG. 14 is within the adjustable range (step ST51). In the HMD 1, there is a limit value of the convergence angle that can be adjusted by mechanical adjustment using the right optical system driving unit 85 and the left optical system driving unit 87 and adjustment by which the image processing unit 160 performs image processing. An adjustable range corresponding to is preset. When determining that the value of the convergence angle is within the adjustable range (step ST51; Yes), the control unit 140 determines whether mechanical adjustment is required (step ST52).

右光学系駆動部85及び左光学系駆動部87は、例えば段階的に調整を行う構成を有し、光学装置部130を揺動させることで画像の表示位置を大きく動かすことができる。このため、輻輳角に合わせて大きく画像の表示位置を動かす場合には、機械的調整を行い、画像の表示位置の調整量が小さい場合は画像処理のみを利用すると、効率がよい。ステップST52では、機械的調整を行うか否かについて予め設定された閾値を用いて判定する。   The right optical system driving unit 85 and the left optical system driving unit 87 have a configuration in which, for example, adjustment is performed in stages, and the display position of the image can be moved greatly by swinging the optical device unit 130. For this reason, when the image display position is moved largely according to the convergence angle, it is efficient to perform mechanical adjustment and use only image processing when the image display position adjustment amount is small. In step ST52, whether to perform mechanical adjustment is determined using a preset threshold value.

制御部140は、機械的調整を要しないと判定した場合(ステップST52;No)、後述するステップST56に移行する。
また、機械的調整を要すると判定した場合(ステップST52;Yes)、制御部140は、右光学系駆動部85及び左光学系駆動部87の調整量を決定する(ステップST53)。制御部140は、ステップST53で決定した調整量に従って右光学系駆動部85及び左光学系駆動部87を動作させ(ステップST54)、調整後に、目標精度を満たすか否かを判定する(ステップST55)。
When determining that the mechanical adjustment is not required (step ST52; No), the control unit 140 proceeds to step ST56 described later.
If it is determined that mechanical adjustment is required (step ST52; Yes), the control unit 140 determines adjustment amounts of the right optical system driving unit 85 and the left optical system driving unit 87 (step ST53). The control unit 140 operates the right optical system driving unit 85 and the left optical system driving unit 87 according to the adjustment amount determined in step ST53 (step ST54), and determines whether or not the target accuracy is satisfied after the adjustment (step ST55). ).

上述のように、HMD1では、輻輳角に合わせた画像の位置調整の精度が、例えば輻輳角について±1°と設定されている。図14の輻輳角検出処理で検出した輻輳角と、調整後の画像の表示位置に適合する輻輳角とが、設定された精度を満たす場合(ステップST55;Yes)、制御部140は本処理を終了する。   As described above, in the HMD 1, the accuracy of image position adjustment in accordance with the convergence angle is set to ± 1 ° for the convergence angle, for example. When the convergence angle detected by the convergence angle detection process of FIG. 14 and the convergence angle that matches the display position of the adjusted image satisfy the set accuracy (step ST55; Yes), the control unit 140 performs this process. finish.

また、調整精度を満たさない場合(ステップST55;No)、制御部140は画質調整の調整量を決定し(ステップST56)、調整を実行する(ステップST57)。制御部140は、調整により目標精度を満たすか否かを判定する(ステップST58)。ステップST58で判定する目標精度は、例えばステップST55と同様である。目標精度を満たさない場合(ステップST58;No)、制御部140はステップST56に戻って、画像処理を繰り返す。なお、ステップST56〜ST57の実行回数に上限を設けてもよく、上限に達した場合にステップST51に戻ってもよい。
また、目標精度を満たすと判定した場合(ステップST58;Yes)、制御部140は本処理を終了する。
If the adjustment accuracy is not satisfied (step ST55; No), the control unit 140 determines an adjustment amount for image quality adjustment (step ST56) and executes the adjustment (step ST57). Control unit 140 determines whether or not the target accuracy is satisfied by adjustment (step ST58). The target accuracy determined in step ST58 is the same as that in step ST55, for example. When the target accuracy is not satisfied (step ST58; No), the control unit 140 returns to step ST56 and repeats the image processing. Note that an upper limit may be set for the number of executions of steps ST56 to ST57, and when the upper limit is reached, the process may return to step ST51.
Moreover, when it determines with satisfy | filling target accuracy (step ST58; Yes), the control part 140 complete | finishes this process.

なお、ステップST55で目標精度を満たすか否かの判定をする場合、制御部140は、機械的調整の調整量を決定した時点で、調整が目標精度を満たすかどうかを判定できる。このため、ステップST55の判定を、ステップST54で実行してもよい。   When determining whether or not the target accuracy is satisfied in step ST55, the control unit 140 can determine whether or not the adjustment satisfies the target accuracy when the adjustment amount of the mechanical adjustment is determined. For this reason, you may perform determination of step ST55 by step ST54.

また、図14の動作で求めた輻輳角が、調整可能範囲内でないと判定した場合(ステップST51;No)、制御部140は、調整範囲外の輻輳角に対応する表示態様(表示形態)への切り替えを行う(ステップST59)。
ステップST59では、例えば、制御部140は、第1表示装置100Aと第2表示装置100Bのいずれか一方の表示を停止し、片方のみ表示する状態への切り替えを行う。片眼のみで一つの画像を視認する場合、輻輳角の影響を受けないため、画像の表示位置を輻輳角に適した位置に調整しなくても、使用者の視機能への負担がない。
Further, when it is determined that the convergence angle obtained by the operation of FIG. 14 is not within the adjustable range (step ST51; No), the control unit 140 moves to a display mode (display form) corresponding to the convergence angle outside the adjustment range. Are switched (step ST59).
In step ST59, for example, the control unit 140 stops the display of one of the first display device 100A and the second display device 100B, and switches to a state in which only one is displayed. When a single image is viewed with only one eye, it is not affected by the convergence angle. Therefore, even if the display position of the image is not adjusted to a position suitable for the convergence angle, there is no burden on the visual function of the user.

また、ステップST59で、制御部140は、VR(Virtual Reality)表示を行ってもよい。VR表示では、外カメラ35、36の撮像画像を第1表示装置100A、第2表示装置100Bの表示可能領域に最大サイズで表示する。ここで、画像表示装置80の輝度を大きくして、導光部材10を透過する外光の強度を相対的に小さくして、外景の視認性を低下させてもよい。また、VR表示において、外カメラ35、36の撮像画像から、図14のステップST33で検出した対象物を含む領域を切り出して表示してもよい。この場合、使用者は表示画像を見ることで対象物を視認するので、外景と表示画像との輻輳角の差の影響を受けにくい。このため、使用者の視機能への負荷を軽減できる。   In step ST59, the control unit 140 may perform VR (Virtual Reality) display. In the VR display, the captured images of the outer cameras 35 and 36 are displayed in the maximum size in the displayable areas of the first display device 100A and the second display device 100B. Here, the brightness of the image display device 80 may be increased, and the intensity of the external light transmitted through the light guide member 10 may be relatively decreased to reduce the visibility of the outside scene. In VR display, a region including the target detected in step ST33 of FIG. 14 may be cut out from the captured images of the outer cameras 35 and 36 and displayed. In this case, since the user visually recognizes the object by looking at the display image, the user is not easily affected by the difference in the convergence angle between the outside scene and the display image. For this reason, the load on the user's visual function can be reduced.

さらに、VR表示を行う場合、制御部140は、図14のステップST32またはST34で算出した注視距離に応じて、第1表示装置100Aで表示する画像と第2表示装置100Bで表示する画像とに視差を持たせてもよい。すなわち、外カメラ35、36の撮像画像から、視差を有する2つの画像を生成し、この2つの画像を第1表示装置100Aと第2表示装置100Bとでそれぞれ表示してもよい。この2つの画像は3D(立体)画像を構成する。従って、使用者は、立体画像により対象物をVRで見ることができる。   Furthermore, when performing VR display, the control unit 140 converts the image displayed on the first display device 100A and the image displayed on the second display device 100B according to the gaze distance calculated in step ST32 or ST34 of FIG. You may give parallax. That is, two images having parallax may be generated from the captured images of the outer cameras 35 and 36, and these two images may be displayed on the first display device 100A and the second display device 100B, respectively. These two images constitute a 3D (stereoscopic) image. Therefore, the user can see the object in VR by the stereoscopic image.

図12〜図15に示す動作において、演算処理に使用する演算式、関数、行列、パラメーター等は、いずれも記憶部120に設定データ121として、予め記憶される。また、図15のステップST51で判定基準となる調整可能範囲に関する基準値や閾値、目標精度を定める基準値や閾値等は、記憶部120に、調整基準データ123として記憶される。これら設定データ121、調整基準データ123は、制御装置300の操作により設定あるいは更新可能であってもよいし、通信部117を介して接続する外部の機器(図示略)から入力されてもよい。   In the operations shown in FIGS. 12 to 15, arithmetic expressions, functions, matrices, parameters, and the like used for the arithmetic processing are all stored in advance as setting data 121 in the storage unit 120. In addition, the reference value and threshold value relating to the adjustable range that is the determination criterion in step ST51 of FIG. 15, the reference value and threshold value that determine the target accuracy, and the like are stored in the storage unit 120 as the adjustment reference data 123. The setting data 121 and the adjustment reference data 123 may be set or updated by operating the control device 300, or may be input from an external device (not shown) connected via the communication unit 117.

以上説明したように、本発明を適用した実施形態に係るHMD1は、外景を視認可能に、使用者の右眼と左眼のそれぞれに対応して画像を表示する虚像表示装置100を有する。HMD1は、虚像表示装置100による画像の表示態様を、使用者の注視距離に応じて制御する制御部140を備える。このため、使用者が外景と画像とを視認する場合に、画像の表示態様を、使用者が注視する距離に適合させることができる。このため、表示画像を適切に調整することができ、例えば使用者の負荷を軽減し、表示画像の視認性を高めることができる。   As described above, the HMD 1 according to the embodiment to which the present invention is applied has the virtual image display device 100 that displays an image corresponding to each of the right eye and the left eye of the user so that the outside scene can be visually recognized. The HMD 1 includes a control unit 140 that controls the display mode of the image by the virtual image display device 100 according to the gaze distance of the user. For this reason, when a user visually recognizes an outside scene and an image, the display mode of an image can be adapted to the distance which a user gazes at. For this reason, a display image can be adjusted appropriately, for example, a user's load can be reduced and the visibility of a display image can be improved.

制御部140は、使用者の注視距離に対応する両眼の輻輳角に基づき、虚像表示装置100による画像の表示態様を制御する。このため、使用者の両眼の輻輳角に対応して画像の表示態様を制御することで、使用者が注視する距離に適合する表示態様を実現できる。   The control unit 140 controls the display mode of the image by the virtual image display device 100 based on the convergence angle of both eyes corresponding to the gaze distance of the user. For this reason, the display mode suitable for the distance which a user gazes is realizable by controlling the display mode of an image according to the convergence angle of a user's both eyes.

また、制御部140は、使用者の両眼の輻輳角を求め、求めた輻輳角に対応して、虚像表示装置100が表示する画像を使用者が視認する位置を変化させる。このため、使用者の注視距離に適した位置に画像を表示でき、表示画像の視認性を高めることができ、使用者が外景において注視する距離に適した表示画像を、使用者に視認させることができる。   Further, the control unit 140 obtains the convergence angle of both eyes of the user, and changes the position at which the user visually recognizes the image displayed by the virtual image display device 100 in accordance with the obtained convergence angle. Therefore, an image can be displayed at a position suitable for the user's gaze distance, the visibility of the display image can be improved, and the user can visually recognize a display image suitable for the distance that the user gazes in the outside scene. Can do.

さらに、HMD1は、使用者の両眼の状態を検出する状態検出部としての外カメラ35、36及び内カメラ37a、37b、38a、38bを備える。制御部140は、状態検出部の検出結果に基づいて、使用者の注視距離を算出し、算出した注視距離に応じて虚像表示装置100による画像の表示態様を制御する。HMD1が使用者の両眼の状態を検出して注視距離を算出するので、使用者が煩雑な操作を行わなくても、画像の表示態様を適切に調整できる。   Further, the HMD 1 includes outer cameras 35 and 36 and inner cameras 37a, 37b, 38a, and 38b as state detection units that detect the state of both eyes of the user. The control unit 140 calculates the gaze distance of the user based on the detection result of the state detection unit, and controls the display mode of the image by the virtual image display device 100 according to the calculated gaze distance. Since the HMD 1 detects the state of both eyes of the user and calculates the gaze distance, the display mode of the image can be adjusted appropriately without the user performing a complicated operation.

HMD1は、状態検出部として、使用者の右眼と左眼のそれぞれに対応して設けられる内カメラ37a、37b、38a、38bを備える。制御部140は、内カメラ37a、37b、38a、38bの撮像画像に基づいて、使用者の両眼の瞳孔間距離、瞳孔径、或いは注視方向の注視時間の少なくともいずれかを求めることにより、使用者の注視距離を算出する。これにより、使用者の両眼の状態から高精度で注視距離を算出できる。   The HMD 1 includes inner cameras 37a, 37b, 38a, and 38b that are provided corresponding to the right eye and the left eye of the user, respectively, as a state detection unit. The control unit 140 is used by obtaining at least one of the distance between the pupils of both eyes of the user, the pupil diameter, and the gaze time in the gaze direction based on the captured images of the inner cameras 37a, 37b, 38a, and 38b. The gaze distance of the person is calculated. Thereby, the gaze distance can be calculated with high accuracy from the state of both eyes of the user.

また、HMD1は、状態検出部として、使用者の注視方向を撮像する外カメラ35、36を備える。制御部140は、外カメラ35、36の撮像画像に基づいて、使用者が注視する注視対象物までの距離を求めることにより、使用者の注視距離を算出するので、より高精度で注視距離を算出できる。   Moreover, HMD1 is provided with the outer cameras 35 and 36 which image a user's gaze direction as a state detection part. The control unit 140 calculates the gaze distance of the user by calculating the gaze distance of the user by obtaining the distance to the gaze target object that the user gazes on the basis of the captured images of the outer cameras 35 and 36. It can be calculated.

また、虚像表示装置100は、画像光を出射する画像表示装置80と、画像表示装置80が出射する画像光を使用者の右眼と左眼のそれぞれに導く投射透視装置70とを備える。虚像表示装置100は、画像表示装置80または投射透視装置70を構成する少なくとも一部の部材を変位させ、投射透視装置70から使用者の右眼と左眼とに入射する画像光の角度を変更する右光学系駆動部85及び左光学系駆動部87を備える。制御部140は、使用者の注視距離に応じて右光学系駆動部85及び左光学系駆動部87を動作させるので、機械的な動作により、画像の表示態様を調整できる。   The virtual image display device 100 includes an image display device 80 that emits image light, and a projection fluoroscopy device 70 that guides the image light emitted from the image display device 80 to each of the right eye and the left eye of the user. The virtual image display device 100 displaces at least a part of the members constituting the image display device 80 or the projection fluoroscopy device 70, and changes the angle of image light incident on the right and left eyes of the user from the projection fluoroscopy device 70. The right optical system drive unit 85 and the left optical system drive unit 87 are provided. Since the control unit 140 operates the right optical system driving unit 85 and the left optical system driving unit 87 according to the gaze distance of the user, the display mode of the image can be adjusted by a mechanical operation.

また、制御部140は、使用者の注視距離に応じて、虚像表示装置100が表示する画像を使用者が視認する表示範囲における画像の位置を制御する。これにより、画像の表示位置を、使用者の注視距離に合わせて適切に調整できる。   Further, the control unit 140 controls the position of the image in the display range where the user visually recognizes the image displayed by the virtual image display device 100 according to the gaze distance of the user. Thereby, the display position of an image can be appropriately adjusted according to a user's gaze distance.

また、HMD1は、画像データに基づき虚像表示装置100が表示する画像を生成する画像処理部160を備える。制御部140は、使用者の注視距離に応じて、画像処理部160により画像データの一部を切り出して調整用の画像を生成させ、調整用の画像を虚像表示装置100に表示させる。これにより、画像を切り出すことによって、画像の表示位置の調整範囲を拡大することができ、画像の表示位置を変更する場合の違和感を解消できる。   The HMD 1 also includes an image processing unit 160 that generates an image to be displayed by the virtual image display device 100 based on the image data. In accordance with the gaze distance of the user, the control unit 140 causes the image processing unit 160 to cut out part of the image data to generate an adjustment image, and causes the virtual image display device 100 to display the adjustment image. Thereby, by cutting out the image, the adjustment range of the display position of the image can be enlarged, and the uncomfortable feeling when changing the display position of the image can be eliminated.

また、制御部140は、使用者の注視距離が予め設定された基準距離より近く、輻輳角が調整可能範囲内でない場合に、虚像表示装置100によって使用者の右眼または左眼のいずれかに対応する画像を表示させる。これにより、使用者の注視距離が近い場合であっても、使用者の負担を軽減できる。   In addition, the control unit 140 controls the virtual image display device 100 to display either the right eye or the left eye of the user when the gaze distance of the user is closer than a preset reference distance and the convergence angle is not within the adjustable range. Display the corresponding image. Thereby, even if it is a case where a user's gaze distance is near, a user's burden can be eased.

[第2実施形態]
図16は、本発明を適用した第2実施形態におけるHMD1の動作を示すフローチャートである。
第2の実施形態において、HMD1は上記第1実施形態と共通の構成を有するので、共通の構成部に同じ符号を付して図示及び説明を省略する。
[Second Embodiment]
FIG. 16 is a flowchart showing the operation of the HMD 1 in the second embodiment to which the present invention is applied.
In the second embodiment, the HMD 1 has the same configuration as that of the first embodiment. Therefore, the same reference numerals are assigned to the common components, and illustration and description thereof are omitted.

第2実施形態のHMD1は、外カメラ35、36の撮像画像を虚像表示装置100により表示する、撮像画像表示モードを実行する。HMD1は、撮像画像表示モードとして、3つの動作モードを実行可能であり、1つはマイクロスコープモード(近領域拡大モード)、1つはテレスコープモード(遠領域拡大モード)、1つは近接表示モードである。撮像画像表示モードは、一種のビデオシースルー表示ということができる。   The HMD 1 of the second embodiment executes a captured image display mode in which captured images of the outer cameras 35 and 36 are displayed by the virtual image display device 100. The HMD 1 can execute three operation modes as a captured image display mode: one is a microscope mode (near region enlargement mode), one is a telescope mode (far region enlargement mode), and one is a proximity display Mode. The captured image display mode is a kind of video see-through display.

図16の動作は、図12に示した動作に代えて実行される。図16において、図12と同様の動作(処理)については同ステップ番号を付す。
HMD1の制御部140は、使用者の視線方向(注視方向)および注視距離を検出するための基準となる参照データを生成する(ステップST1)。ステップST1で生成される参照データは、参照データ122として記憶部120に記憶される。
制御部140は、画像(映像を含む)の表示を開始してから、或いは表示開始時に、使用者の両眼の輻輳角を検出する輻輳角検出処理を実行する(ステップST2)。
The operation of FIG. 16 is executed instead of the operation shown in FIG. In FIG. 16, the same step numbers are assigned to the same operations (processes) as in FIG.
The control unit 140 of the HMD 1 generates reference data serving as a reference for detecting the user's gaze direction (gaze direction) and gaze distance (step ST1). The reference data generated in step ST1 is stored in the storage unit 120 as reference data 122.
The control unit 140 executes a convergence angle detection process for detecting a convergence angle of both eyes of the user after starting display of an image (including video) or at the start of display (step ST2).

ここで、制御部140は、入力情報取得部110によって、ズーム(拡大)の指示を受け付けたか否かを判定する(ステップST101)。ズームの指示は、例えば、使用者がトラックパッド302やキースイッチ部303を操作して、視野を拡大して表示するように行う指示である。
ズームの指示を受け付けた場合(ステップST101;Yes)、制御部140は、指示されたズームの倍率(拡大率)が、予め設定された値以上であるか否かを判定する(ステップST102)。ズームの倍率が設定値以上である場合(ステップST102;Yes)、制御部140は、HMD1の動作をマイクロスコープモードに切り替えて(ステップST103)、マイクロスコープ表示処理を実行する(ステップST104)。HMD1がマイクロスコープモードで実行するマイクロスコープ表示処理の詳細は、後述する。
Here, control section 140 determines whether or not zoom (enlargement) instruction has been received by input information acquisition section 110 (step ST101). The zoom instruction is, for example, an instruction that the user operates the track pad 302 or the key switch unit 303 to enlarge and display the field of view.
When a zoom instruction is accepted (step ST101; Yes), the control unit 140 determines whether or not the instructed zoom magnification (enlargement ratio) is equal to or greater than a preset value (step ST102). If the zoom magnification is greater than or equal to the set value (step ST102; Yes), the control unit 140 switches the operation of the HMD1 to the microscope mode (step ST103) and executes the microscope display process (step ST104). Details of the microscope display process executed by the HMD 1 in the microscope mode will be described later.

また、ズームの倍率が設定値より小さい場合(ステップST102;No)、制御部140は、HMD1の動作をテレスコープモードに切り替えて(ステップST106)、テレスコープ表示処理を実行する(ステップST107)。HMD1がテレスコープモードで実行するテレスコープ表示処理の詳細は、後述する。   If the zoom magnification is smaller than the set value (step ST102; No), the control unit 140 switches the operation of the HMD1 to the telescope mode (step ST106) and executes a telescope display process (step ST107). Details of the telescope display process executed by the HMD 1 in the telescope mode will be described later.

また、ズームの指示を受け付けていない場合(ステップST101;No)、制御部140は、入力情報取得部110により動作モードの切り替えの指示を受け付けたか否かを判定する(ステップST109)。動作モードの切り替えの指示は、例えば、操作部111の操作によって入力され、入力情報取得部110が受け付ける。
ステップST109で、マイクロスコープモードへの切り替えの指示を受け付けた場合、制御部140は、ステップST103に移行する。また、テレスコープモードへの切り替えの指示を受け付けた場合、制御部140は、ステップST106に移行する。また、通常動作モードへの切り替えの指示を受け付けた場合、及び、テレスコープモードやマイクロスコープモードに切り替えない場合、制御部140は、画像調整処理を実行する(ステップST110)。
When the zoom instruction has not been received (step ST101; No), the control unit 140 determines whether or not the input information acquisition unit 110 has received an operation mode switching instruction (step ST109). The operation mode switching instruction is input by, for example, an operation of the operation unit 111 and is received by the input information acquisition unit 110.
When receiving an instruction to switch to the microscope mode in step ST109, the control unit 140 proceeds to step ST103. When receiving an instruction to switch to the telescope mode, the control unit 140 proceeds to step ST106. In addition, when an instruction to switch to the normal operation mode is received, and when switching to the telescope mode or the microscope mode is not performed, the control unit 140 executes an image adjustment process (step ST110).

ステップST104のマイクロスコープ表示処理、ステップST107のテレスコープ表示処理、または、ステップST110の画像調整処理を実行した後、制御部140は、画像の表示を終了するか否かを判定する(ステップST4)。表示を継続する間は(ステップST4;No)、ステップST2に戻る。また、表示を終了する場合は(ステップST4;Yes)、本処理を終了する。   After executing the microscope display process in step ST104, the telescope display process in step ST107, or the image adjustment process in step ST110, the control unit 140 determines whether or not to end the image display (step ST4). . While the display is continued (step ST4; No), the process returns to step ST2. When the display is to be ended (step ST4; Yes), this process is ended.

図17は、ステップST104(図16)のマイクロスコープ表示処理を詳細に示すフローチャートである。図18は、マイクロスコープ表示処理における表示例を示す図である。図18(A)は虚像表示装置100を透過して視認される実空間の像(実像)を模式的に示し、図18(B)は撮像画像から表示画像を生成する処理の例を示し、図18(C)はAR表示の例を示す。   FIG. 17 is a flowchart showing in detail the microscope display process in step ST104 (FIG. 16). FIG. 18 is a diagram illustrating a display example in the microscope display process. FIG. 18A schematically shows an image of a real space (real image) that is viewed through the virtual image display device 100, and FIG. 18B shows an example of processing for generating a display image from the captured image. FIG. 18C shows an example of AR display.

制御部140は、ステップST103でマイクロスコープモードに切り替えられたときの外カメラ35、35の撮像方向を、以下の動作で撮像する撮像方向として設定し(ステップST121)、スタビライズ処理を開始する(ステップST122)。制御部140は、外カメラ35、36の撮像を開始し、外カメラ35、36の撮像画像データを取得し、撮像画像から表示画像を生成する処理を開始する(ステップST123)。   The control unit 140 sets the imaging direction of the outer cameras 35 and 35 when switched to the microscope mode in step ST103 as the imaging direction for imaging by the following operation (step ST121), and starts the stabilization process (step ST121). ST122). The control unit 140 starts imaging of the outer cameras 35 and 36, acquires captured image data of the outer cameras 35 and 36, and starts processing for generating a display image from the captured images (step ST123).

ステップST123で、制御部140は、例えば撮像画像の一部をトリミング(切り出し処理)して、表示画像を生成する。マイクロスコープ表示処理では、外カメラ35及び外カメラ36のいずれか一方のみで撮像してもよい。この場合、外カメラ35または外カメラ36の撮像画像の一部をトリミングすることで表示画像を生成できる。外カメラ35及び外カメラ36の両方で撮像を行う場合、制御部140は、外カメラ35及び外カメラ36のそれぞれの撮像画像をトリミングして、2つの画像を取得し、これら2つの画像を組み合わせて表示画像を生成する。例えば、2つの画像から、視差を有する2つの表示画像で構成される立体表示画像を生成してもよい。また、例えば、2つの画像を合成した1つの表示画像を生成してもよい。   In step ST123, the control unit 140 trims (cuts out) a part of the captured image, for example, to generate a display image. In the microscope display process, the image may be captured by only one of the outer camera 35 and the outer camera 36. In this case, a display image can be generated by trimming a part of the image captured by the outer camera 35 or the outer camera 36. When imaging is performed by both the outer camera 35 and the outer camera 36, the control unit 140 trims the captured images of the outer camera 35 and the outer camera 36 to acquire two images, and combines these two images. To generate a display image. For example, a stereoscopic display image composed of two display images having parallax may be generated from two images. Further, for example, one display image obtained by combining two images may be generated.

図18(A)に示すように、使用者が対象物OBに視線を合わせた状態では、外カメラ35、36の撮像画像P11は、図18(B)に示すように対象物OBを中心に撮像した画像となる。撮像画像P11は外カメラ35、36のいずれかの撮像画像とする。制御部140は、撮像画像P11から、視線の中心から所定範囲に相当するトリミング範囲Aを切り出して、表示画像を生成する。撮像画像P11におけるトリミング範囲Aの位置、及び、範囲またはサイズは適宜設定、変更可能であるが、初期値(デフォルト)では、撮像画像P11の中心に位置する所定サイズの範囲である。   As shown in FIG. 18 (A), in a state where the user focuses on the object OB, the captured images P11 of the outer cameras 35 and 36 center on the object OB as shown in FIG. 18 (B). This is a captured image. The captured image P11 is a captured image of one of the outer cameras 35 and 36. The control unit 140 cuts out a trimming range A corresponding to a predetermined range from the center of the line of sight from the captured image P11 to generate a display image. The position and range or size of the trimming range A in the captured image P11 can be set and changed as appropriate, but the initial value (default) is a range of a predetermined size located at the center of the captured image P11.

虚像表示装置100が動いた場合、外カメラ35、36の画角が動き、撮像画像の動きを生じる。ステップST123で、撮像画像においてトリミングする位置や範囲を固定すると、撮像画像の動きに対応して表示画像が動く。虚像表示装置100の動きによっては、使用者に、いわゆる映像酔いを喚起する可能性がある。そこで、HMD1は、ステップST122でスタビライズ処理を開始する。スタビライズ処理は、撮像画像の動きを相殺(キャンセル)するように、ステップST123で撮像画像をトリミングする位置及び/または範囲を移動させる処理である。例えば、図18(B)において撮像画像P11から切り出すトリミング範囲Aの位置を、外カメラ35、36の画角が動く方向とは逆方向に変化させることで、動きをキャンセルできる。また、外カメラ35、36が視界の奥行き方向に動く場合には撮像される対象物と撮像画像とのサイズが変化する。この場合、制御部140は、トリミング範囲Aのサイズを変化させれば、動きをキャンセルできる。   When the virtual image display device 100 moves, the angle of view of the outer cameras 35 and 36 moves, and the captured image moves. If the position and range to be trimmed in the captured image are fixed in step ST123, the display image moves in accordance with the movement of the captured image. Depending on the movement of the virtual image display device 100, there is a possibility that a so-called video sickness is aroused to the user. Therefore, the HMD 1 starts the stabilization process in step ST122. The stabilization process is a process of moving the position and / or range for trimming the captured image in step ST123 so as to cancel (cancel) the motion of the captured image. For example, the movement can be canceled by changing the position of the trimming range A cut out from the captured image P11 in FIG. 18B in the direction opposite to the direction in which the angle of view of the outer cameras 35 and 36 moves. Further, when the outer cameras 35 and 36 move in the depth direction of the field of view, the size of the object to be imaged and the captured image changes. In this case, the control unit 140 can cancel the movement by changing the size of the trimming range A.

制御部140は、撮像画像の動きを、外カメラ35、36から順次入力される複数の撮像画像を比較する処理により検出し特定できる。また、虚像表示装置100が、加速度センサーや角速度センサー等の図示しない慣性センサー(動きセンサー)を備える構成では、制御部140は、慣性センサーの検出値に基づいて外カメラ35、36の画角の動きを特定できる。制御部140は、外カメラ35、36の画角の動きに合わせて、撮像画像をトリミングする位置を変更し、必要に応じてトリミングする範囲を変化させることにより、表示画像を安定させる。   The control unit 140 can detect and specify the movement of the captured image by a process of comparing a plurality of captured images sequentially input from the outer cameras 35 and 36. In the configuration in which the virtual image display device 100 includes an inertia sensor (motion sensor) (not shown) such as an acceleration sensor or an angular velocity sensor, the control unit 140 adjusts the angle of view of the outer cameras 35 and 36 based on the detection value of the inertia sensor. Can identify movement. The control unit 140 stabilizes the display image by changing the trimming position of the captured image in accordance with the movement of the angle of view of the outer cameras 35 and 36 and changing the trimming range as necessary.

スタビライズ処理は、外カメラ35、36の画角の変化を全てキャンセルする処理でなくてもよい。すなわち、映像酔いを喚起しない、或いは軽減できればよいので、画角の動きのうち予め定められた速さを超える動きをキャンセルする方法を採用できる。この場合、定められた速さ以下の、低速の動きはキャンセルされず、画角の動きに対応して表示画像が変化する。これにより、例えば、使用者が意図して外カメラ35、36の画角を変化させた場合に、使用者の意図に沿った表示を行える。   The stabilization process may not be a process for canceling all changes in the angle of view of the outer cameras 35 and 36. That is, since it is only necessary to prevent or reduce video sickness, a method of canceling a motion exceeding a predetermined speed among the motions of the angle of view can be employed. In this case, the low-speed movement below the predetermined speed is not canceled, and the display image changes corresponding to the movement of the angle of view. Thereby, for example, when the user intends to change the angle of view of the outer cameras 35 and 36, display according to the user's intention can be performed.

制御部140は、撮像画像から生成した表示画像の表示を開始する際に、表示する範囲(表示範囲)と実空間との対応関係を示す表示を行う(ステップST124)。例えば、図18(C)に示すように、制御部140は、使用者が外光によって視認する実空間の外景に重なって視認されるように、指標画像P12をAR表示する。指標画像P12は制御部140が表示する表示画像に含まれる範囲を示し、制御部140が撮像画像からトリミングする範囲に対応する。図18(C)の例の指標画像P12はリング形状であるが、使用者に範囲を提示することができればよく、その形状や表示色は限定されない。また、指標画像P11は、実空間の視認を妨げないことが好ましく、例えば、実空間の対象物OBが視認可能な程度の輝度で表示される。この場合、指標画像P11は透き通って視認され、指標画像P11とともに実空間の対象物OBが視認できる。
図18(C)の例では、外光により視認される実空間の実物体(対象物)OBに重なるように指標画像P12が表示され、使用者は、指標画像P12に重なる範囲が外カメラ35、36の撮像画像をもとに表示されることを把握できる。AR表示の表示位置及び表示サイズは、外カメラ35、36の撮像画像を外画像解析部183が解析することで決定できる。
When starting display of the display image generated from the captured image, the control unit 140 performs display indicating the correspondence between the display range (display range) and the real space (step ST124). For example, as illustrated in FIG. 18C, the control unit 140 displays the index image P12 in an AR display so that the user can see the image superimposed on the outside scene of the real space visually recognized by the external light. The index image P12 indicates a range included in the display image displayed by the control unit 140, and corresponds to a range in which the control unit 140 trims the captured image. The index image P12 in the example of FIG. 18C has a ring shape, but it is sufficient that the range can be presented to the user, and the shape and display color are not limited. In addition, it is preferable that the index image P11 does not hinder the visual recognition of the real space. For example, the index image P11 is displayed with a luminance that allows the object OB in the real space to be visually recognized. In this case, the index image P11 is clearly seen and the object OB in real space can be visually recognized together with the index image P11.
In the example of FIG. 18C, the index image P12 is displayed so as to overlap the real object (object) OB in the real space visually recognized by the external light, and the user has a range where the index image P12 overlaps the outer camera 35. , 36 can be grasped based on the captured images. The display position and display size of the AR display can be determined by the outside image analysis unit 183 analyzing the images captured by the outside cameras 35 and 36.

制御部140は、指定されたズームの倍率で画像を表示する前に、初期値の倍率で撮像画像を拡大した表示画像を表示する(ステップST125)。初期値の倍率は、例えば、第1表示装置100A及び第2表示装置100Bを透過して使用者が視認する外景と、概ね同じ大きさで視認される倍率とすることができる。この場合、使用者には、実空間の外景の対象物OBと表示画像における対象物OBとがほぼ同じ大きさで、拡大も縮小もしないように見えるので、この場合の倍率を1倍としてもよい。
使用者が第1表示装置100A及び第2表示装置100Bを透過する外光により、視界に位置する対象物を視認する場合を想定する。この対象物を含む範囲を外カメラ35、36で撮像した撮像画像に基づき制御部140が表示させる対象物の画像と、外光により視認される対象物の像(実像)とが、使用者に、概ね同じ大きさに見える場合を、上記の1倍と呼ぶことができる。
The control unit 140 displays a display image obtained by enlarging the captured image with the initial value magnification before displaying the image with the designated zoom magnification (step ST125). The magnification of the initial value can be, for example, a magnification that is visually recognized by the same size as the outside scene that is visible to the user through the first display device 100A and the second display device 100B. In this case, since the object OB in the outside scene in the real space and the object OB in the display image appear to be almost the same size and do not expand or contract, the user can increase the magnification in this case to 1. Good.
Assume that the user visually recognizes an object located in the field of view by the external light transmitted through the first display device 100A and the second display device 100B. An image of the object displayed by the control unit 140 based on a captured image obtained by capturing the range including the object with the outer cameras 35 and 36 and an image (real image) of the object visually recognized by the external light are presented to the user. The case where they appear to be approximately the same size can be referred to as the above one.

次に、制御部140は、虚像表示装置100により表示する表示画像の倍率を変更する(ステップST126)。制御部140は、ステップST125の初期値のズームの倍率から、目標の倍率まで変化させる。この変化は、例えば段階的な変化とすることができ、例えば、倍率の変化について予め変化率が設定され、設定された変化率を1段階として倍率を変化させることができる。目標の倍率は、ステップST101(図16)で受け付けた指示に対応する倍率、ステップST109でマイクロスコープモードが指定された場合に指定される倍率、または、マイクロスコープモードの目標の倍率として予め設定された倍率である。
1回目にステップST126を実行する場合、制御部140は、ステップST125の初期値の倍率から、1段階に相当する倍率の変更を行う。
Next, the control unit 140 changes the magnification of the display image displayed by the virtual image display device 100 (step ST126). The controller 140 changes the zoom value from the initial zoom value in step ST125 to the target magnification. This change can be, for example, a stepwise change. For example, a change rate is set in advance for a change in magnification, and the magnification can be changed with the set change rate as one step. The target magnification is preset as a magnification corresponding to the instruction received in step ST101 (FIG. 16), a magnification specified when the microscope mode is specified in step ST109, or a target magnification in the microscope mode. Magnification.
When executing step ST126 for the first time, the control unit 140 changes the magnification corresponding to one step from the magnification of the initial value of step ST125.

制御部140は、倍率の変更に対応して、視認性に係る表示パラメーターを変更する(ステップST127)。視認性に係る表示パラメーターは、映像表示素子82における表示輝度を指定するパラメーター、表示色を指定するパラメーター、及び、エッジ強調処理の有無を指定するパラメーターである。映像表示素子82における表示輝度を変化させる処理は、画像処理部160が表示画像の画像データの輝度を変更する処理、及び/又は、右バックライト221、左バックライト222の発光輝度を変化させる処理により実現できる。
また、表示色を変化させる場合、画像処理部160によって画像データを処理することにより実現できる。また、エッジ強調処理は画像処理部160により実行可能である。上記のパラメーターは、例えば記憶部120に記憶される設定データ121に含めることができる。上記のパラメーターは、倍率の絶対値、或いは、目標の倍率に対する現在の倍率の割合に対応して予め設定される。表示画像の輝度が高いほど、外光により視認される実空間の外景に比べ、表示画像の視認性が高くなる。また、表示画像の色調については、彩度が高いほど表示画像の視認性が高くなる。また、エッジ強調処理を実行すると、実行しない場合に比べて表示画像の視認性が高くなる。上記パラメーターは、表示画像の倍率が高いほど表示画像の視認性が高くなるように、設定される。ステップST127において、制御部140は、ステップST126で変更した倍率に対応して、上記パラメーターを設定あるいは変更する。
Control unit 140 changes the display parameter related to visibility in response to the change in magnification (step ST127). The display parameters related to visibility are a parameter for specifying the display luminance in the video display element 82, a parameter for specifying the display color, and a parameter for specifying the presence / absence of edge enhancement processing. The process of changing the display brightness in the video display element 82 is a process in which the image processing unit 160 changes the brightness of the image data of the display image and / or a process of changing the light emission brightness of the right backlight 221 and the left backlight 222. Can be realized.
Further, the display color can be changed by processing image data by the image processing unit 160. The edge enhancement process can be executed by the image processing unit 160. The above parameters can be included in the setting data 121 stored in the storage unit 120, for example. The above parameters are set in advance corresponding to the absolute value of the magnification or the ratio of the current magnification to the target magnification. The higher the brightness of the display image is, the higher the visibility of the display image is compared to an outside scene in real space that is visually recognized by external light. As for the color tone of the display image, the higher the saturation, the higher the visibility of the display image. In addition, when the edge enhancement process is executed, the visibility of the display image becomes higher than when the edge enhancement process is not executed. The parameter is set so that the higher the magnification of the display image, the higher the visibility of the display image. In step ST127, the control unit 140 sets or changes the parameter corresponding to the magnification changed in step ST126.

また、視認性に係る表示パラメーターは設定データ121に含まれる構成に限定されない。すなわち、制御部140が、視認性に係る表示パラメーターを設定データ121から取得する方法だけでなく、他の方法により表示パラメーターを取得、生成あるいは算出してもよい。   Further, the display parameter related to visibility is not limited to the configuration included in the setting data 121. That is, the control unit 140 may acquire, generate, or calculate a display parameter by other methods as well as a method of acquiring the display parameter related to visibility from the setting data 121.

例えば、制御部140は、外カメラ35、36の撮像画像から外景の輝度、色調、撮像画像の輝度、色度分布等を検出し、検出結果に基づいて、表示パラメーターを取得してもよい。この場合、検出結果から表示パラメーターを得るためのLUT(LookUp Table:ルックアップテーブル)や演算式等を予め記憶部120に記憶してもよい。制御部140は、外景の撮像画像に基づき外景の明るさを検出してもよいし、外景の天候を判定してもよいし、外カメラ35、36の撮像画像から得られる輝度、色調、色度分布を予め設定された閾値と比較して比較結果を生成してもよい。また、外カメラ35、36の他にイメージセンサー(図示略)や赤外線センサーを虚像表示装置100に設けて、外界、特に使用者の視線方向を含む範囲の輝度、色調等を検出してもよい。さらに、外カメラ35、36の撮像画像に関する検出結果と、内カメラ37a、37b、38a、38bの検出結果とを比較することにより、外景の輝度、色調、撮像画像の輝度、色度分布等を検出してもよい。   For example, the control unit 140 may detect the brightness and color tone of the outside scene from the captured images of the outer cameras 35 and 36, the brightness of the captured image, the chromaticity distribution, and the like, and acquire the display parameter based on the detection result. In this case, a LUT (LookUp Table) for obtaining a display parameter from the detection result, an arithmetic expression, or the like may be stored in the storage unit 120 in advance. The control unit 140 may detect the brightness of the outside scene based on the captured image of the outside scene, determine the weather of the outside scene, and brightness, tone, and color obtained from the captured images of the outside cameras 35 and 36. The degree distribution may be compared with a preset threshold value to generate a comparison result. Further, in addition to the external cameras 35 and 36, an image sensor (not shown) or an infrared sensor may be provided in the virtual image display device 100 to detect the brightness, color tone, and the like in a range including the external environment, particularly the user's line-of-sight direction. . Furthermore, by comparing the detection results regarding the captured images of the outer cameras 35 and 36 with the detection results of the inner cameras 37a, 37b, 38a, and 38b, the brightness and color tone of the outside scene, the brightness of the captured image, the chromaticity distribution, and the like can be obtained. It may be detected.

制御部140は、ステップST126で倍率を変更した結果、目標の倍率に達したか否かを判定する(ステップST128)。目標の倍率に達していない場合は(ステップST128;No)、ステップST126に移行して、倍率を変更する。このようにしてステップST126〜ST128を繰り返し実行することで、虚像表示装置100における表示倍率が、目標の倍率に達するまで、徐々に変化する。倍率の変化の度合いは任意に設定可能であり、例えば、0.5倍刻みなど予め設定された倍率を単位として変化させてもよいし、初期値と目標値との差に基づき倍率の1回の変化量を決めてもよい。   The control unit 140 determines whether or not the target magnification has been reached as a result of changing the magnification in step ST126 (step ST128). If the target magnification has not been reached (step ST128; No), the process proceeds to step ST126 to change the magnification. By repeatedly executing steps ST126 to ST128 in this manner, the display magnification in the virtual image display device 100 gradually changes until the target magnification is reached. The degree of change of the magnification can be arbitrarily set. For example, the magnification may be changed in units of a preset magnification such as 0.5 times, or the magnification may be changed once based on the difference between the initial value and the target value. The amount of change may be determined.

目標の倍率に達した場合(ステップST128;Yes)、制御部140は、目標倍率が変更されたか否かを判定する(ステップST129)。例えば、入力情報取得部110によって、目標倍率を変更する使用者の操作を受け付けた場合、制御部140は、目標倍率が変更されたと判定する(ステップST129;Yes)。この場合、制御部140は、変更された目標倍率に基づき、ステップST126に戻って表示倍率を変更する処理を開始する。
また、目標倍率が変更されない場合(ステップST129;No)、制御部140は、画像の表示を終了するか否かを判定する(ステップST130)。表示を継続する間は(ステップST130;No)、ステップST129に戻る。また、表示を終了する場合は(ステップST130;Yes)、本処理を終了する。
When the target magnification is reached (step ST128; Yes), the control unit 140 determines whether or not the target magnification has been changed (step ST129). For example, when the input information acquisition unit 110 receives a user operation to change the target magnification, the control unit 140 determines that the target magnification has been changed (step ST129; Yes). In this case, based on the changed target magnification, control unit 140 returns to step ST126 and starts a process of changing the display magnification.
When the target magnification is not changed (step ST129; No), the control unit 140 determines whether or not to end the image display (step ST130). While the display is continued (step ST130; No), the process returns to step ST129. When the display is to be ended (step ST130; Yes), this process is ended.

図17のマイクロスコープ表示処理では、使用者の視野に含まれる範囲あるいは方向のうちステップST121で特定した方向を、あたかも顕微鏡、或いは拡大鏡のように拡大表示することができる。
マイクロスコープモードは、ステップST102(図16)で設定値以上のズームの倍率が指定された場合、及び、ステップST109でマイクロスコープモードへの移行が指示された場合に、実行される。従って、使用者が視野の一部を大きく拡大して見たいと考えた場合、操作部111への操作により、容易にマイクロスコープモードに切り替えて、視野を大きく拡大して見ることができる。
In the microscope display process of FIG. 17, the direction specified in step ST121 out of the range or direction included in the user's field of view can be enlarged and displayed as if it were a microscope or a magnifying glass.
The microscope mode is executed when a zoom magnification greater than or equal to the set value is designated in step ST102 (FIG. 16), and when a transition to the microscope mode is instructed in step ST109. Therefore, when the user wants to greatly enlarge a part of the field of view, the user can easily switch to the microscope mode by operating the operation unit 111 and can view the field of view with a greatly enlarged view.

マイクロスコープ表示処理において、ステップST125〜ST126で表示する画像を、視差を有する立体画像として表示することが可能である。制御部140は、画像処理部160は、使用者の右眼に対応して第1表示装置100Aで表示する画像と、左眼に対応して第2表示装置100Bで表示する画像とに視差を生じさせる。この場合、制御部140は、ステップST127において、左右の画像の視差を指定するパラメーターを変更し、設定してもよい。この場合、外カメラ35、36の撮像画像に基づき生成した画像を、視差を有する画像として表示し、例えば図18(C)の指標画像P12のように、実空間にAR表示するオブジェクトを、視差を有しない平面画像として表示してもよい。指標画像P12に限らず、例えば、作業内容の案内、指示、その他使用者に情報伝達のために制御部140が表示するARコンテンツ中のテキストや画像による案内用のオブジェクトを、視差を有しない画像として表示してもよい。   In the microscope display process, the image displayed in steps ST125 to ST126 can be displayed as a stereoscopic image having parallax. In the control unit 140, the image processing unit 160 converts the parallax between an image displayed on the first display device 100A corresponding to the right eye of the user and an image displayed on the second display device 100B corresponding to the left eye. Cause it to occur. In this case, in step ST127, the control unit 140 may change and set a parameter that specifies the parallax between the left and right images. In this case, an image generated based on the captured images of the outer cameras 35 and 36 is displayed as an image having parallax, and an object for AR display in the real space is displayed as parallax, for example, as an index image P12 in FIG. You may display as a plane image which does not have. Not only the index image P12 but also, for example, an image having no parallax as a guidance object based on text or an image in the AR content displayed by the control unit 140 for the purpose of guidance, instruction, and other information transmission to the user. May be displayed.

また、マイクロスコープモードに移行する前に視差を有する画像を表示した場合、制御部140は、マイクロスコープモードに移行する際に、左右の視差を有しない表示態様に切り替えてもよい。この場合、制御部140は、外カメラ35、36の撮像画像に基づいて生成した画像、及び、ARコンテンツに含まれるテキストや画像等のオブジェクトを、視差を有しない画像として表示する。   In addition, when an image having parallax is displayed before shifting to the microscope mode, the control unit 140 may switch to a display mode having no left and right parallax when shifting to the microscope mode. In this case, the control unit 140 displays an image generated based on the captured images of the outer cameras 35 and 36 and an object such as text or an image included in the AR content as an image having no parallax.

制御部140は、ステップST122でスタビライズ処理を開始する。スタビライズ処理では、外カメラ35、36の撮像方向が変化した場合に、表示用の画像を切り出す位置を撮像画像の変化を相殺または補償する方向に移動させる。このため、外カメラ35、36の撮像方向が変化しても、撮像画像から生成する表示用の画像が大きく変動しない。また、外カメラ35、36の撮像方向の動き、すなわち撮像画像の変化が大きい場合は、撮像画像から切り出す表示画像も変化するが、この場合も表示画像の変化の速度が抑えられる。従って、外カメラ35、36の撮像方向の変化に追従し、かつ、表示画像の急激な変化を抑えて映像酔いを抑制できる。   The control unit 140 starts the stabilization process in step ST122. In the stabilization process, when the imaging direction of the outer cameras 35 and 36 is changed, the position where the display image is cut out is moved in a direction to cancel or compensate for the change in the captured image. For this reason, even if the imaging direction of the outer cameras 35 and 36 changes, the display image generated from the captured image does not vary greatly. In addition, when the movement of the outer cameras 35 and 36 in the imaging direction, that is, when the change in the captured image is large, the display image cut out from the captured image also changes. Therefore, the motion sickness can be suppressed by following the change in the imaging direction of the outer cameras 35 and 36 and suppressing a sudden change in the display image.

また、マイクロスコープ表示処理で、制御部140は、外カメラ35、36の撮像画像から生成する表示画像を、第1表示装置100A、または第2表示装置100Bのいずれか一方で表示し、他方で表示しない構成としてもよい。この表示方法を片眼表示と呼ぶ。例えば、ステップST126で表示倍率を変更したことにより、表示倍率が事前に設定された閾値を超えた場合に、制御部140は、片眼表示への切り替えを行ってもよい。また、目標の倍率が閾値を超える倍率であると判定した場合に、片眼表示への切り替えを行ってもよい。或いは、ステップST127で表示画像の視認性を高めるパラメーターを設定し、このパラメーターの値が事前に設定された閾値を超えた場合に、片眼表示を行ってもよい。片眼表示の実行中、使用者は、画像を表示していない側の目で実空間を視認できる。これにより、一方bの眼では実空間の視認性が確保されるので、他方の目に対して撮像画像に基づく表示画像の視認性を大幅に高めることができる。
また、片眼表示の実行中、第1表示装置100A及び第2表示装置100Bのうち、撮像画像に基づく表示画像を表示しない側において、実空間に重ねてAR表示を行ってもよい。
In the microscope display process, the control unit 140 displays a display image generated from the captured images of the outer cameras 35 and 36 on either the first display device 100A or the second display device 100B, and on the other side. It is good also as a structure which does not display. This display method is called single-eye display. For example, when the display magnification exceeds the threshold set in advance by changing the display magnification in step ST126, the control unit 140 may switch to the one-eye display. In addition, when it is determined that the target magnification is a magnification exceeding the threshold value, switching to the one-eye display may be performed. Alternatively, a parameter for enhancing the visibility of the display image is set in step ST127, and when the value of this parameter exceeds a preset threshold value, one-eye display may be performed. During the execution of the one-eye display, the user can visually recognize the real space with the eyes on the side not displaying the image. Thereby, the visibility of the real space is ensured with the eye of one b, so that the visibility of the display image based on the captured image can be greatly enhanced with respect to the other eye.
Further, during the one-eye display, the AR display may be performed by superimposing on the real space on the side of the first display device 100A and the second display device 100B that does not display the display image based on the captured image.

図19は、ステップST107(図16)のテレスコープ表示処理を詳細に示すフローチャートである。
この図19に示すテレスコープ表示処理は、図17に示したマイクロスコープ表示処理と同様の処理を含む。従って同じ処理については同ステップ番号を付す。
FIG. 19 is a flowchart showing in detail the telescope display process of step ST107 (FIG. 16).
The telescope display process shown in FIG. 19 includes the same process as the microscope display process shown in FIG. Therefore, the same step number is assigned to the same process.

制御部140は、ステップST106でテレスコープモードに切り替えられたときの外カメラ35、35の撮像方向を、以下の動作で撮像する撮像方向として設定し(ステップST121)、スタビライズ処理を開始する(ステップST122)。制御部140は、外カメラ35、36の撮像を開始し、外カメラ35、36の撮像画像データを取得し、撮像画像から表示画像を生成する処理を開始する(ステップST123)。スタビライズ処理は図17を参照して説明した処理と同様である。   The control unit 140 sets the imaging direction of the outer cameras 35 and 35 when switched to the telescope mode in step ST106 as the imaging direction for imaging by the following operation (step ST121), and starts the stabilization process (step ST121). ST122). The control unit 140 starts imaging of the outer cameras 35 and 36, acquires captured image data of the outer cameras 35 and 36, and starts processing for generating a display image from the captured images (step ST123). The stabilization process is the same as the process described with reference to FIG.

制御部140は、ステップST124の表示を行わず、初期値の倍率で撮像画像を拡大した表示画像を表示し(ステップST125)、表示倍率を変更する(ステップST126)。制御部140は、ステップST125の初期値のズームの倍率から、目標の倍率まで変化させる。この変化は、例えば段階的な変化とすることができ、例えば、倍率の変化について予め変化率が設定され、設定された変化率を1段階として倍率を変化させることができる。例えば、1回目にステップST126を実行する場合、制御部140は、ステップST125の初期値の倍率から、1段階に相当する倍率の変更を行う。その後の倍率の変化は、図17を参照して説明した通りである。   The control unit 140 does not perform the display in step ST124, but displays a display image obtained by enlarging the captured image at the initial value magnification (step ST125), and changes the display magnification (step ST126). The controller 140 changes the zoom value from the initial zoom value in step ST125 to the target magnification. This change can be, for example, a stepwise change. For example, a change rate is set in advance for a change in magnification, and the magnification can be changed with the set change rate as one step. For example, when executing step ST126 for the first time, the control unit 140 changes the magnification corresponding to one step from the magnification of the initial value in step ST125. The subsequent change in magnification is as described with reference to FIG.

制御部140は、倍率の変更に対応して、視認性に係る表示パラメーターを変更する(ステップST127)。視認性に係る表示パラメーターは、ステップST127について上述した通りである。
テレスコープ表示処理では、使用者が、あたかも双眼鏡や望遠鏡のように、遠方を拡大して見る場合に好適である。マイクロスコープ表示処理では、虚像表示装置100から近い位置を大きく拡大して表示することを想定するのに対し、テレスコープ表示処理では、使用者が遠方を見ることを想定することが好ましい。このため、使用者が、虚像表示装置100を透過する外光により実空間を視認できる状態を維持することが好ましい。従って、図19のテレスコープ表示処理におけるステップST127では、外カメラ35、36の撮像画像に基づき表示する表示画像の視認性を、実空間の視認性よりも高くする場合に、実空間の視認性を確保する程度のパラメーターが設定される。
Control unit 140 changes the display parameter related to visibility in response to the change in magnification (step ST127). The display parameters related to visibility are as described above for step ST127.
The telescope display process is suitable when the user enlarges and looks far away like a binocular or a telescope. In the microscope display process, it is assumed that a position close to the virtual image display device 100 is enlarged and displayed, whereas in the telescope display process, it is preferable to assume that the user looks far away. For this reason, it is preferable to maintain a state in which the user can visually recognize the real space with the external light transmitted through the virtual image display device 100. Accordingly, in step ST127 in the telescope display process of FIG. 19, the visibility of the real space is set when the visibility of the display image displayed based on the captured images of the outer cameras 35 and 36 is higher than the visibility of the real space. The parameter is set so as to secure

具体的には、ステップST127で設定されるパラメーターについて、図17で説明したマイクロスコープ表示処理とは異なる値が予め設定される。また、制御部140がステップST127で設定するパラメーターの上限値、または下限値が、マイクロスコープ表示処理とは異なる値に設定される。これにより、図19のテレスコープ表示処理では、虚像表示装置100の透過光で視認できる実空間の視界が確保される。   Specifically, values different from the microscope display process described with reference to FIG. 17 are set in advance for the parameters set in step ST127. Further, the upper limit value or the lower limit value of the parameter set by control unit 140 in step ST127 is set to a value different from that in the microscope display process. Thereby, in the telescope display processing of FIG. 19, a field of view in real space that can be visually recognized by the transmitted light of the virtual image display device 100 is secured.

その後、制御部140は、ステップST126で倍率を変更した結果、目標の倍率に達したか否かを判定し(ステップST128)、目標の倍率に達していない場合は(ステップST128;No)、ステップST126に移行して、倍率を変更する。制御部140は、ステップST126〜ST128を繰り返し実行し、虚像表示装置100における表示倍率を目標の倍率まで徐々に変化させる。   Thereafter, the control unit 140 determines whether or not the target magnification has been reached as a result of changing the magnification in step ST126 (step ST128). If the target magnification has not been reached (step ST128; No), step Moving to ST126, the magnification is changed. The control unit 140 repeatedly executes steps ST126 to ST128, and gradually changes the display magnification in the virtual image display device 100 to the target magnification.

目標の倍率に達した場合(ステップST128;Yes)、制御部140は、目標倍率が変更されたか否かを判定する(ステップST129)。制御部140は、目標倍率が変更されたと判定した場合(ステップST129;Yes)、変更された目標倍率に基づき、ステップST126に戻って表示倍率を変更する処理を開始する。目標倍率が変更されない場合(ステップST129;No)、制御部140は、画像の表示を終了するか否かを判定する(ステップST130)。表示を継続する間は(ステップST130;No)、ステップST129に戻る。また、表示を終了する場合は(ステップST130;Yes)、本処理を終了する。   When the target magnification is reached (step ST128; Yes), the control unit 140 determines whether or not the target magnification has been changed (step ST129). When it is determined that the target magnification has been changed (step ST129; Yes), the control unit 140 returns to step ST126 and starts a process of changing the display magnification based on the changed target magnification. When the target magnification is not changed (step ST129; No), the control unit 140 determines whether or not to end the image display (step ST130). While the display is continued (step ST130; No), the process returns to step ST129. When the display is to be ended (step ST130; Yes), this process is ended.

図19のテレスコープ表示処理は、ステップST109でテレスコープモードへの移行が指示された場合に、実行される。従って、使用者が視野の一部を大きく拡大して見たいと考えた場合、操作部111への操作により、容易にマイクロスコープモードに切り替えて、視野を大きく拡大して見ることができる。また、テレスコープ表示処理で拡大表示される範囲はステップST109で移行が指示されたときの視野の中心、または、使用者の視線方向に相当する撮像画像の一部であり、ステップST124で初期値の表示倍率で表示を開始する。従って、テレスコープ表示処理の実行前と比べて急激な視野の変化がなく、使用者は自然に拡大画像を見ることができる。   The telescope display process of FIG. 19 is executed when the transition to the telescope mode is instructed in step ST109. Therefore, when the user wants to greatly enlarge a part of the field of view, the user can easily switch to the microscope mode by operating the operation unit 111 and can view the field of view with a greatly enlarged view. Further, the enlarged display range in the telescope display process is the center of the field of view when the shift is instructed in step ST109 or a part of the captured image corresponding to the user's line-of-sight direction. In step ST124, the initial value is displayed. Display starts at the display magnification of. Therefore, the visual field does not change abruptly compared to before the telescope display process is executed, and the user can naturally see the enlarged image.

テレスコープ表示処理で、ステップST125〜ST126で表示する画像を、視差を有する立体画像として表示することが可能である。制御部140は、画像処理部160は、使用者の右眼に対応して第1表示装置100Aで表示する画像と、左眼に対応して第2表示装置100Bで表示する画像とに視差を生じさせる。この場合、制御部140は、ステップST127において、左右の画像の視差を指定するパラメーターを変更し、設定してもよい。また、テレスコープ表示処理で、実空間にオブジェクトをAR表示してもよい。例えば、表示倍率を示すテキストや画像をAR表示してもよい。AR表示は視差を有しない平面画像として表示してもよい。   In the telescope display process, the image displayed in steps ST125 to ST126 can be displayed as a stereoscopic image having parallax. In the control unit 140, the image processing unit 160 converts the parallax between an image displayed on the first display device 100A corresponding to the right eye of the user and an image displayed on the second display device 100B corresponding to the left eye. Cause it to occur. In this case, in step ST127, the control unit 140 may change and set a parameter that specifies the parallax between the left and right images. In addition, the object may be AR displayed in the real space by the telescope display process. For example, text or an image indicating the display magnification may be displayed as an AR. The AR display may be displayed as a planar image having no parallax.

また、テレスコープモードにおいて、片眼表示を行ってもよい。片眼表示を行う場合のタイミングあるいは条件は、マイクロスコープ表示処理で説明した処理と同様とすることができる。   Further, one-eye display may be performed in the telescope mode. The timing or conditions for performing single-eye display can be the same as those described in the microscope display process.

図20は、ステップST110(図16)の画像調整処理を詳細に示すフローチャートである。
図20の画像調整処理は、上記第1実施形態で説明した画像調整処理(図15)と同様の処理を含むので、同じ処理については同ステップ番号を付す。
FIG. 20 is a flowchart showing in detail the image adjustment processing in step ST110 (FIG. 16).
The image adjustment process in FIG. 20 includes the same process as the image adjustment process (FIG. 15) described in the first embodiment, and thus the same step number is assigned to the same process.

制御部140は、ステップST2(図16)で求めた輻輳角が、調整可能範囲内であるか否かを判定する(ステップST51)。輻輳角の値が調整可能範囲内であると判定した場合(ステップST51;Yes)、機械的調整を要するか否かを判定する(ステップST52)。機械的調整を要しないと判定した場合(ステップST52;No)、制御部140は、ステップST56に移行する。
機械的調整を要すると判定した場合(ステップST52;Yes)、制御部140は、右光学系駆動部85及び左光学系駆動部87の調整量を決定する(ステップST53)。制御部140は、ステップST53で決定した調整量に従って右光学系駆動部85及び左光学系駆動部87を動作させ(ステップST54)、調整後に、目標精度を満たすか否かを判定する(ステップST55)。ステップST2の輻輳角検出処理で検出した輻輳角と、調整後の画像の表示位置に適合する輻輳角とが、設定された精度を満たす場合(ステップST55;Yes)、制御部140は本処理を終了する。
The control unit 140 determines whether or not the convergence angle obtained in step ST2 (FIG. 16) is within the adjustable range (step ST51). If it is determined that the value of the convergence angle is within the adjustable range (step ST51; Yes), it is determined whether mechanical adjustment is required (step ST52). When it determines with mechanical adjustment not being required (step ST52; No), the control part 140 transfers to step ST56.
If it is determined that mechanical adjustment is required (step ST52; Yes), the control unit 140 determines adjustment amounts of the right optical system driving unit 85 and the left optical system driving unit 87 (step ST53). The control unit 140 operates the right optical system driving unit 85 and the left optical system driving unit 87 according to the adjustment amount determined in step ST53 (step ST54), and determines whether or not the target accuracy is satisfied after the adjustment (step ST55). ). When the convergence angle detected by the convergence angle detection process in step ST2 and the convergence angle that matches the display position of the adjusted image satisfy the set accuracy (step ST55; Yes), the control unit 140 performs this process. finish.

また、調整精度を満たさない場合(ステップST55;No)、制御部140は画質調整の調整量を決定し(ステップST56)、調整を実行する(ステップST57)。制御部140は、調整により目標精度を満たすか否かを判定する(ステップST58)。ステップST58で判定する目標精度は、例えばステップST55と同様である。目標精度を満たさない場合(ステップST58;No)、制御部140はステップST56に戻って、画像処理を繰り返す。なお、ステップST56〜ST57の実行回数に上限を設けてもよく、上限に達した場合にステップST51に戻ってもよい。
また、目標精度を満たすと判定した場合(ステップST58;Yes)、制御部140は本処理を終了する。
If the adjustment accuracy is not satisfied (step ST55; No), the control unit 140 determines an adjustment amount for image quality adjustment (step ST56) and executes the adjustment (step ST57). Control unit 140 determines whether or not the target accuracy is satisfied by adjustment (step ST58). The target accuracy determined in step ST58 is the same as that in step ST55, for example. When the target accuracy is not satisfied (step ST58; No), the control unit 140 returns to step ST56 and repeats the image processing. Note that an upper limit may be set for the number of executions of steps ST56 to ST57, and when the upper limit is reached, the process may return to step ST51.
Moreover, when it determines with satisfy | filling target accuracy (step ST58; Yes), the control part 140 complete | finishes this process.

一方、ステップST2(図16)の輻輳角検出処理で求めた輻輳角が、調整可能範囲内でないと判定した場合(ステップST51;No)、制御部140は、輻輳角が予め設定された上限の角度より大きいか否かを判定する(ステップST161)。上限の角度より大きい場合(ステップST161;Yes)、制御部140は、調整範囲外の輻輳角に対応する表示態様(表示形態)への切り替えを行う(ステップST59)。このステップST59では、例えば、制御部140は、第1表示装置100Aと第2表示装置100Bのいずれか一方の表示を停止し、片方のみ表示する状態への切り替えを行う。片眼のみで一つの画像を視認する場合、輻輳角の影響を受けないため、画像の表示位置を輻輳角に適した位置に調整しなくても、使用者の視機能への負担がない。   On the other hand, when it is determined that the convergence angle obtained in the convergence angle detection process in step ST2 (FIG. 16) is not within the adjustable range (step ST51; No), the control unit 140 sets the convergence angle to a preset upper limit. It is determined whether or not the angle is larger (step ST161). If larger than the upper limit angle (step ST161; Yes), the control unit 140 switches to a display mode (display mode) corresponding to the convergence angle outside the adjustment range (step ST59). In step ST59, for example, the control unit 140 stops the display of one of the first display device 100A and the second display device 100B and switches to a state in which only one is displayed. When a single image is viewed with only one eye, it is not affected by the convergence angle. Therefore, even if the display position of the image is not adjusted to a position suitable for the convergence angle, there is no burden on the visual function of the user.

また、輻輳角が上限の角度以下であると判定した場合(ステップST161;No)、制御部140は、動作モードを近接表示モードに切り替えて、近接表示処理を開始する(ステップST162)。近接表示モードでは、虚像表示装置100に近接した位置を、外カメラ35、36の撮像画像を利用して見やすく表示する動作モードであり、使用者の視線が、虚像表示装置100に近接した位置に向いている場合に実行する。   If it is determined that the convergence angle is equal to or smaller than the upper limit angle (step ST161; No), the control unit 140 switches the operation mode to the proximity display mode and starts the proximity display process (step ST162). The proximity display mode is an operation mode in which a position close to the virtual image display device 100 is displayed in an easy-to-see manner using the captured images of the outer cameras 35 and 36, and the user's line of sight is at a position close to the virtual image display device 100. Run if you are facing.

制御部140は、外カメラ35、35の撮像方向を設定し(ステップST163)、スタビライズ処理を開始する(ステップST164)。制御部140は、外カメラ35、36の撮像を開始し、外カメラ35、36の撮像画像データを取得し、撮像画像から表示画像を生成する処理を開始する(ステップST165)。   The control unit 140 sets the imaging direction of the outer cameras 35 and 35 (step ST163), and starts the stabilization process (step ST164). The control unit 140 starts imaging of the outer cameras 35 and 36, acquires captured image data of the outer cameras 35 and 36, and starts processing to generate a display image from the captured images (step ST165).

ステップST165で、制御部140は、例えば撮像画像の一部をトリミング(切り出し処理)して、表示画像を生成する。ここで、制御部140は、外カメラ35及び外カメラ36のいずれか一方のみの撮像画像を用いて表示画像を生成してもよい。この場合、外カメラ35または外カメラ36の撮像画像の一部をトリミングすることで表示画像を生成できる。外カメラ35及び外カメラ36の両方の撮像画像を使用する場合、制御部140は、外カメラ35及び外カメラ36のそれぞれの撮像画像をトリミングして、2つの画像を取得し、これら2つの画像を組み合わせて表示画像を生成する。例えば、2つの画像から、視差を有する2つの表示画像で構成される立体表示画像を生成してもよい。また、例えば、2つの画像を合成した1つの表示画像を生成してもよい。   In step ST165, for example, the control unit 140 trims (cuts out) a part of the captured image to generate a display image. Here, the control unit 140 may generate a display image using a captured image of only one of the outer camera 35 and the outer camera 36. In this case, a display image can be generated by trimming a part of the image captured by the outer camera 35 or the outer camera 36. When using the captured images of both the outer camera 35 and the outer camera 36, the control unit 140 trims the captured images of the outer camera 35 and the outer camera 36 to obtain two images, and these two images Are combined to generate a display image. For example, a stereoscopic display image composed of two display images having parallax may be generated from two images. Further, for example, one display image obtained by combining two images may be generated.

また、スタビライズ処理は、ステップST122(図17)と同様の処理である。制御部140は、外カメラ35、36の画角の動きに起因する撮像画像の動きを、相殺または補償するように、撮像画像においてトリミングする位置や範囲を変化させる。   The stabilization process is the same process as step ST122 (FIG. 17). The controller 140 changes the trimming position and range in the captured image so as to cancel or compensate for the motion of the captured image caused by the movement of the angle of view of the outer cameras 35 and 36.

制御部140は、ステップST165で生成した表示画像の表示を開始する(ステップST166)。ステップST166で、制御部140は、表示する画像の視認性に係る表示パラメーターを設定し、表示調整を行う。調整されるパラメーターは、例えば、映像表示素子82における表示輝度を指定するパラメーター、表示色を指定するパラメーター、及び、エッジ強調処理の有無を指定するパラメーターである。映像表示素子82における表示輝度を変化させる処理は、画像処理部160が表示画像の画像データの輝度を変更する処理、及び/又は、右バックライト221、左バックライト222の発光輝度を変化させる処理により実現できる。また、表示色を変化させる場合、画像処理部160によって画像データを処理することにより実現できる。また、エッジ強調処理は画像処理部160により実行可能である。上記のパラメーターは、例えば記憶部120に記憶される設定データ121に含めることができる。上記のパラメーターは、倍率の絶対値、或いは、目標の倍率に対する現在の倍率の割合に対応して予め設定される。表示画像の輝度が高いほど、外光により視認される実空間の外景に比べ、表示画像の視認性が高くなる。また、表示画像の色調については、彩度が高いほど表示画像の視認性が高くなる。また、エッジ強調処理を実行すると、実行しない場合に比べて表示画像の視認性が高くなる。上記パラメーターは、表示画像の倍率が高いほど表示画像の視認性が高くなるように、設定される。ステップST166で、制御部140は、輻輳角に対応して、上記パラメーターを設定あるいは変更する。   Control unit 140 starts displaying the display image generated in step ST165 (step ST166). In step ST166, the control unit 140 sets display parameters related to the visibility of the image to be displayed, and performs display adjustment. The parameters to be adjusted are, for example, a parameter that designates display luminance in the video display element 82, a parameter that designates a display color, and a parameter that designates whether or not edge enhancement processing is performed. The process of changing the display brightness in the video display element 82 is a process in which the image processing unit 160 changes the brightness of the image data of the display image and / or a process of changing the light emission brightness of the right backlight 221 and the left backlight 222. Can be realized. Further, the display color can be changed by processing image data by the image processing unit 160. The edge enhancement process can be executed by the image processing unit 160. The above parameters can be included in the setting data 121 stored in the storage unit 120, for example. The above parameters are set in advance corresponding to the absolute value of the magnification or the ratio of the current magnification to the target magnification. The higher the brightness of the display image is, the higher the visibility of the display image is compared to an outside scene in real space that is visually recognized by external light. As for the color tone of the display image, the higher the saturation, the higher the visibility of the display image. In addition, when the edge enhancement process is executed, the visibility of the display image becomes higher than when the edge enhancement process is not executed. The parameter is set so that the higher the magnification of the display image, the higher the visibility of the display image. In step ST166, the control unit 140 sets or changes the parameter corresponding to the convergence angle.

制御部140が撮像画像をトリミングする位置及び範囲は、ステップST2(図16)で検出した輻輳角に対応して決定される。使用者は、肉眼で見ることが容易でないほど近い位置を、外カメラ35、36を利用して見ることができる。また、使用者の輻輳角に応じて、制御部140は、外カメラ35、36の撮像画像から切り出した画像を拡大して表示してもよい。この場合の倍率は、例えば輻輳角に対応して決定してもよい。   The position and range where the control unit 140 trims the captured image is determined according to the convergence angle detected in step ST2 (FIG. 16). The user can use the outer cameras 35 and 36 to see a position that is so close that it is not easy to see with the naked eye. Further, according to the convergence angle of the user, the control unit 140 may enlarge and display an image cut out from the captured images of the outer cameras 35 and 36. The magnification in this case may be determined, for example, corresponding to the convergence angle.

このように、本発明を適用した第2実施形態に係るHMD1は、虚像表示装置100の外側を撮像する外カメラ35、36を備え、制御部140は、外カメラ35、36の撮像画像に基づく画像を虚像表示装置100に表示させる撮像画像表示モードを実行可能である。これにより、表示部の外側の景色である外景を使用者に視認させることができる。撮像画像表示モードは、上述したマイクロスコープモード(近領域拡大モード)、テレスコープモード(遠領域拡大モード)、及び近接表示モードが該当する。   As described above, the HMD 1 according to the second embodiment to which the present invention is applied includes the outer cameras 35 and 36 that capture the outside of the virtual image display device 100, and the control unit 140 is based on the captured images of the outer cameras 35 and 36. A captured image display mode in which an image is displayed on the virtual image display device 100 can be executed. Thereby, the user can visually recognize the outside scene which is the scenery outside the display unit. The captured image display mode corresponds to the above-described microscope mode (near region enlargement mode), telescope mode (far region enlargement mode), and proximity display mode.

制御部140は、撮像画像表示モードの実行中に、虚像表示装置100を透過する外光により視認される実空間に比べて、撮像画像に基づき表示する表示画像の視認性を高める処理を行う。これにより、表示画像により使用者が視認する外景を、虚像表示装置100の透過光により視認する実空間よりも高い視認性で、明瞭に視認できる。また、使用者は、透過光により視認する実空間と、撮像画像に基づき表示される外景とを区別しやすいので、使用者の利便性の向上を図ることができる。   During execution of the captured image display mode, the control unit 140 performs a process of increasing the visibility of the display image displayed based on the captured image, as compared to the real space visually recognized by the external light transmitted through the virtual image display device 100. Thereby, the outside scene visually recognized by the user from the display image can be clearly viewed with higher visibility than the real space visually recognized by the transmitted light of the virtual image display device 100. In addition, since the user can easily distinguish between the real space visually recognized by the transmitted light and the outside scene displayed based on the captured image, the convenience of the user can be improved.

制御部140は、撮像画像表示モードの実行中に、外カメラ35、36の撮像画像に基づく表示画像の輝度または色彩を変化させ、或いは、外カメラ35、36の撮像画像に基づく画像に対するエッジ強調処理を行う。これらの処理により、制御部140は、透過光に比べ表示画像の視認性を高める処理を行うので、表示画像の外景の視認性を、効果的に高めることができる。   While executing the captured image display mode, the control unit 140 changes the luminance or color of the display image based on the captured image of the outer camera 35 or 36, or edge enhancement for the image based on the captured image of the outer camera 35 or 36. Process. With these processes, the control unit 140 performs a process of increasing the visibility of the display image as compared to the transmitted light, so that the visibility of the outside scene of the display image can be effectively enhanced.

制御部140は、撮像画像表示モードで、外カメラ35、36の撮像画像に基づく画像を、第1表示装置100Aと第2表示装置100Bにより、使用者の右眼と左眼のいずれか一方に対応して表示してもよい。この場合、使用者の注視距離に影響されずに、表示画像を使用者に視認させることができる。
また、制御部140は、撮像画像表示モードにおいて、外カメラ35、36の撮像画像に基づく画像を、左右の視差を有さない態様で使用者の右眼及び左眼のそれぞれに対応して表示してもよい。この場合、表示画像を、使用者が立体視をせずに視認できる。このため、使用者の注視距離の影響を受けにくく、表示画像の視認性を高めることができる。
In the captured image display mode, the control unit 140 causes the first display device 100A and the second display device 100B to transfer an image based on the captured images of the outer cameras 35 and 36 to either the right eye or the left eye of the user. You may display correspondingly. In this case, the display image can be visually recognized by the user without being affected by the user's gaze distance.
In addition, in the captured image display mode, the control unit 140 displays an image based on the captured images of the outer cameras 35 and 36 corresponding to each of the right eye and the left eye of the user in a manner having no left and right parallax. May be. In this case, the user can visually recognize the display image without stereoscopic viewing. For this reason, it is hard to be influenced by a user's gaze distance, and the visibility of a display image can be improved.

制御部140は、撮像画像表示モードにおいて外カメラ35、36の撮像画像に基づき生成する表示画像を拡大して表示してもよい。また、制御部140は、使用者の操作を入力情報取得部110で受け付けた場合に、撮像画像表示モードを実行してもよい。
また、制御部140は、使用者の注視距離を検出し、検出した注視距離が予め設定された距離より短い場合(例えば、輻輳角が設定された値より大きい場合)に、撮像画像表示モードを実行してもよい。
The control unit 140 may enlarge and display a display image generated based on the captured images of the outer cameras 35 and 36 in the captured image display mode. Further, the control unit 140 may execute the captured image display mode when the input information acquisition unit 110 receives a user operation.
In addition, the control unit 140 detects the user's gaze distance, and when the detected gaze distance is shorter than a preset distance (for example, when the convergence angle is larger than the set value), the captured image display mode is set. May be executed.

[第3実施形態]
図21は、第3実施形態におけるHMDの構成を示す図である。
第3実施形態では、図21のように、視差を設定する視差設定部(例えば図1の枠部102参照)において、角度可変部を有する構成となっている。この構成により、導光装置20である第1光学部材101aの組み付け基準方向ASaと、第2光学部材101bの組み付け基準方向ASbとの交差角度が調整可能である。すなわち、第1光学部材101aに対する第2光学部材101bの角度を変更できる。これにより、図示のように、左右の視差を定める主光線PRa,PRbのなす角θの値を変更できる。
[Third Embodiment]
FIG. 21 is a diagram illustrating the configuration of the HMD in the third embodiment.
In the third embodiment, as illustrated in FIG. 21, the parallax setting unit (for example, refer to the frame unit 102 in FIG. 1) that sets parallax includes an angle variable unit. With this configuration, the crossing angle between the assembly reference direction Asa of the first optical member 101a that is the light guide device 20 and the assembly reference direction ASb of the second optical member 101b can be adjusted. That is, the angle of the second optical member 101b with respect to the first optical member 101a can be changed. Thereby, as shown in the drawing, the value of the angle θ formed by the principal rays PRa and PRb that define the left and right parallax can be changed.

なお、角度変更においては、各光学部材101a,101b(導光装置20)のみならず、第1及び第2表示装置100A,100Bを一体的に動かすものとする。この角度可変部については、種々の構成が考えられるが、例えば、左右一対の構成で、左右対称に第1及び第2表示装置100A,100Bの姿勢を変化させるピエゾ素子やマイクロアジャスター等を適用して精密に動作させることが考えられる。また、視差設定部である枠部102(図1参照)の中央部分CPに連続的、あるいは段階的に角度を変更でき、かつ所望の角度で固定できるストッパー付の蝶番(例えば図11に示す蝶番HNと同様の位置に配置)のようなものを精密に動作させる角度調整部材として設けることも考えられる。第1及び第2表示装置100A,100Bの姿勢を所望な状態に変化させるに際しては、典型的には、上記のピエゾ素子や蝶番といった変形可能な可動素子を角度可変部に利用することが考えられる。その他、変形可能な可動素子で、かつ、精密に制御できるものであれば、上記以外のものを角度可変部として適用してもよい。   In the angle change, not only the optical members 101a and 101b (light guide device 20) but also the first and second display devices 100A and 100B are moved integrally. Various configurations are conceivable for the angle variable unit. For example, a piezo element or a micro adjuster that changes the posture of the first and second display devices 100A and 100B symmetrically in a pair of left and right configurations is applied. It is conceivable to operate it precisely. Further, a hinge with a stopper (for example, a hinge shown in FIG. 11) whose angle can be changed continuously or stepwise to the central portion CP of the frame portion 102 (see FIG. 1), which is a parallax setting unit, and can be fixed at a desired angle. It is also conceivable to provide an angle adjusting member for precisely operating a component such as (located at the same position as HN). When changing the postures of the first and second display devices 100A and 100B to a desired state, it is typically considered to use a deformable movable element such as the piezo element or the hinge as the angle variable unit. . In addition, as long as it is a movable element that can be deformed and can be precisely controlled, elements other than those described above may be applied as the angle variable section.

以上に加え、本第3実施形態では、左右一対の投射レンズ30をそれぞれ構成する光学レンズ(図示略)がフォーカスレンズ群を構成するものとし、これを左右一対のアクチュエータACa,ACbで光軸方向について動かすものとする、すなわち投射レンズ30がフォーカス機構を有するものとなっている。つまり、フォーカス機構が焦点距離を調整する焦点距離調整部として機能する。投射レンズ30において、焦点距離を調整することが可能となることで、上述した視差設定部の角度可変部によって角θの値すなわち視差が変更された場合に、これに対応して各表示装置100A,100Bにおける焦点距離延いては映像光GLにより視認される画像の想定表示位置(虚像IMの想定位置)を変更することが可能となる。   In addition to the above, in the third embodiment, the optical lenses (not shown) constituting the pair of left and right projection lenses 30 constitute the focus lens group, and this is formed in the optical axis direction by the pair of left and right actuators ACa and ACb. That is, the projection lens 30 has a focus mechanism. That is, the focus mechanism functions as a focal length adjustment unit that adjusts the focal length. Since it becomes possible to adjust the focal length in the projection lens 30, when the value of the angle θ, that is, the parallax is changed by the angle variable unit of the parallax setting unit described above, each display device 100A corresponds to this. , 100B, the assumed display position of the image visually recognized by the video light GL (the assumed position of the virtual image IM) can be changed.

図21の構成において、第1光学部材101aに対する第2光学部材101bの角度を変更する動作は、変更制御部184の制御により右光学系駆動部85及び左光学系駆動部87を用いた機械的調整と合わせて、機械的調整の一部として実行できる。つまり、変更制御部184は、第1光学部材101aに対する第2光学部材101bの角度を変更する動作による調整可能量を、右光学系駆動部85及び左光学系駆動部87を用いた機械的調整の調整可能量に加えて、機械的調整可能な範囲とすることができる。この調整可能な範囲に基づき、変更制御部184は、機械的調整と画像処理とを組み合わせる場合の、機械的調整の調整量と画像処理の調整量とを求めることができる。
また、変更制御部184は、光学系駆動部85及び左光学系駆動部87を用いた機械的調整の調整量と、第1光学部材101aに対する第2光学部材101bの角度を変更する動作による調整量と、画像処理による調整量とを個別に求めることができる。
In the configuration of FIG. 21, the operation of changing the angle of the second optical member 101b with respect to the first optical member 101a is mechanical using the right optical system driving unit 85 and the left optical system driving unit 87 under the control of the change control unit 184. Together with the adjustment, it can be performed as part of the mechanical adjustment. That is, the change control unit 184 mechanically adjusts the adjustable amount by the operation of changing the angle of the second optical member 101b with respect to the first optical member 101a using the right optical system driving unit 85 and the left optical system driving unit 87. In addition to the adjustable amount, a mechanically adjustable range can be set. Based on this adjustable range, the change control unit 184 can obtain the adjustment amount of the mechanical adjustment and the adjustment amount of the image processing when the mechanical adjustment and the image processing are combined.
Further, the change control unit 184 adjusts by an operation of changing the adjustment amount of the mechanical adjustment using the optical system driving unit 85 and the left optical system driving unit 87 and the angle of the second optical member 101b with respect to the first optical member 101a. The amount and the adjustment amount by image processing can be obtained individually.

変更制御部184は、図15及び図20のステップST53において、機械的調整の調整量を求める処理で、光学系駆動部85及び左光学系駆動部87を用いた機械的調整の調整量と、第1光学部材101aに対する第2光学部材101bの角度を変更する動作による調整量とをそれぞれ求める。そして、ステップST54において、求めた調整量に従って、光学系駆動部85及び左光学系駆動部87を用いた機械的調整と、第1光学部材101aに対する第2光学部材101bの角度を変更する動作とを行うことができる。   In step ST53 of FIG. 15 and FIG. 20, the change control unit 184 is a process for obtaining the adjustment amount of the mechanical adjustment, and the adjustment amount of the mechanical adjustment using the optical system driving unit 85 and the left optical system driving unit 87, An adjustment amount by an operation of changing the angle of the second optical member 101b with respect to the first optical member 101a is obtained. Then, in step ST54, according to the obtained adjustment amount, mechanical adjustment using the optical system driving unit 85 and the left optical system driving unit 87, and an operation of changing the angle of the second optical member 101b with respect to the first optical member 101a. It can be performed.

このように、虚像表示装置100における画像の表示態様を調整することにより、視認距離を調整する処理は、上述した構成に限定されず、種々の態様とすることができる。   Thus, the process which adjusts a viewing distance by adjusting the display mode of the image in the virtual image display apparatus 100 is not limited to the structure mentioned above, It can be set as various aspects.

なお、この発明は上記各実施形態の構成に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能である。
例えば、上記実施形態では、使用者の注視距離に応じて表示態様を制御する一例として、使用者が表示画像を見る(視認する)表示位置を制御する場合を例に挙げて説明したが、本発明はこれに限定されない。例えば、AR表示を行う場合に、注視距離に応じて、AR画像またはAR画像に含まれる表示オブジェクト(画像、図形、文字等)の表示サイズ、表示色等を変更してもよい。また、対象物OBに重なって表示される表示オブジェクトを、対象物OBの前に重なるように表示する表示態様と、対象物OBの後ろに重なって視認されるように表示する表示態様とを、注視距離に応じて切り替えてもよい。また、AR画像に画像処理を施して、表示オブジェクトに影が付いたように視認される表示態様のオン/オフを、注視距離に応じて切り替えてもよい。
In addition, this invention is not restricted to the structure of said each embodiment, In the range which does not deviate from the summary, it can be implemented in a various aspect.
For example, in the above embodiment, as an example of controlling the display mode according to the gaze distance of the user, the case where the user controls the display position for viewing (viewing) the display image has been described as an example. The invention is not limited to this. For example, when performing AR display, the display size, display color, and the like of an AR image or a display object (image, graphic, character, etc.) included in the AR image may be changed according to the gaze distance. In addition, a display mode in which a display object that is displayed so as to overlap the object OB is displayed so as to overlap in front of the target object OB, and a display mode in which the display object is displayed so as to be overlapped behind the target object OB. You may switch according to a gaze distance. Alternatively, the image processing may be performed on the AR image to switch on / off the display mode in which the display object is visually recognized as being shaded according to the gaze distance.

また、使用者の注視距離に応じて表示態様を制御する別の例として、使用者が導光部材10を透過して視認する実空間の対象物OBに画像を重ねて表示する表示態様を制御してもよい。例えば、対象物OBに画像が重なるように表示して、対象物OBの視認性を低下させるマスク表示や、対象物OBの色が異なる色に視認されるようにする表示を、注視距離に応じて切り替え、或いは調整してもよい。この場合、制御部140は、対象物OBに重ねて視認される画像に対し、輝度調整、配色、ドット抜き、シャープネス或いはエッジ強調、階調調整、フォーカス調整(ぼかし処理)等の画像処理を行ってもよい。また、当該画像の表示位置の調整を、上記画像処理に組み合わせて行ってもよい。   Further, as another example of controlling the display mode according to the user's gaze distance, the display mode for displaying the image superimposed on the object OB in the real space that the user sees through the light guide member 10 is controlled. May be. For example, a mask display that reduces the visibility of the target object OB by displaying the image so as to overlap the target object OB, or a display that allows the target object OB to be viewed in a different color depending on the gaze distance. May be switched or adjusted. In this case, the control unit 140 performs image processing such as brightness adjustment, color arrangement, dot removal, sharpness or edge enhancement, gradation adjustment, and focus adjustment (blurring process) on the image that is visually recognized while being superimposed on the object OB. May be. Further, the adjustment of the display position of the image may be performed in combination with the image processing.

また、例えば、上記実施形態において、制御部140は、図14の輻輳角検出処理で算出した輻輳角に基づき、第1表示装置100Aと第2表示装置100Bの両方において同様の調整を行う例を説明した。すなわち、図15のステップST53、ST56で、機械的調整の調整量及び/又は画像処理による調整量を、左右で同量とした。本発明はこれに限定されず、利き眼側と、利き眼でない側とで、異なる調整量を決定してもよい。この場合の調整量の差は、予め設定されたパラメーター等に従ってもよいし、図13のステップST13で算出した検出データから求めてもよい。   Further, for example, in the above embodiment, the control unit 140 performs the same adjustment in both the first display device 100A and the second display device 100B based on the convergence angle calculated in the convergence angle detection process of FIG. explained. That is, in steps ST53 and ST56 in FIG. 15, the adjustment amount of mechanical adjustment and / or the adjustment amount by image processing is set to the same amount on the left and right. The present invention is not limited to this, and different adjustment amounts may be determined for the dominant eye side and the non-dominant eye side. In this case, the difference in the adjustment amount may follow a preset parameter or the like, or may be obtained from the detection data calculated in step ST13 in FIG.

また、例えば、虚像表示装置100は、テンプル部104と鼻受部40により眼鏡と同様に使用者の頭部に保持される構成に限定されない。例えば、帽子のように装着する方式を採用してもよく、使用者の左眼に対応して画像を表示する表示部と、使用者の右眼に対応して画像を表示する表示部とを分離し、それぞれを使用者の頭部に装着してもよい。また、眼鏡、帽子、ヘルメット等を介して間接的に使用者の身体に装着されてもよい。また、例えば、自動車や飛行機等の車両に搭載されるヘッドマウントディスプレイとして構成されてもよい。また、例えば、ヘルメット等の身体防護具に内蔵されたヘッドマウントディスプレイとして構成されてもよいし、自動車のフロントガラスに用いられるヘッドアップディスプレイ(Head-up Display;HUD)であってもよい。   Further, for example, the virtual image display device 100 is not limited to a configuration that is held on the user's head by the temple unit 104 and the nose receiving unit 40 similarly to the glasses. For example, a method of wearing like a hat may be adopted, and a display unit that displays an image corresponding to the left eye of the user and a display unit that displays an image corresponding to the right eye of the user They may be separated and attached to the user's head. Moreover, you may mount | wear with a user's body indirectly via glasses, a hat, a helmet, etc. Further, for example, it may be configured as a head mounted display mounted on a vehicle such as an automobile or an airplane. Moreover, for example, it may be configured as a head-mounted display built in a body protective device such as a helmet, or may be a head-up display (HUD) used for a windshield of an automobile.

さらに、上記実施形態では、虚像表示装置100と制御装置300とが分離され、接続ケーブル41を介して接続された構成を例に挙げて説明したが、制御装置300と虚像表示装置100とが一体に構成され、使用者の頭部に装着される構成とすることも可能である。また、制御装置300と虚像表示装置100とをより長いケーブルにより接続した場合に、制御装置300として、ノート型コンピューター、タブレット型コンピューター又はデスクトップ型コンピューターを用いてもよい。また、制御装置300として、ゲーム機や携帯型電話機やスマートフォンや携帯型メディアプレーヤーを含む携帯型電子機器、その他の専用機器等を用いてもよい。ここで、制御装置300が表示画面を有する場合、バッテリー交換モードにおいて、制御装置300が備える表示画面を停止させてもよい。   Further, in the above embodiment, the virtual image display device 100 and the control device 300 are separated and connected through the connection cable 41 as an example. However, the control device 300 and the virtual image display device 100 are integrated. It is also possible to be configured to be mounted on the user's head. Further, when the control device 300 and the virtual image display device 100 are connected by a longer cable, a notebook computer, a tablet computer, or a desktop computer may be used as the control device 300. The control device 300 may be a game machine, a portable phone, a portable electronic device including a smartphone or a portable media player, other dedicated devices, or the like. Here, when the control device 300 has a display screen, the display screen included in the control device 300 may be stopped in the battery replacement mode.

また、例えば、虚像表示装置100において画像光を生成する構成として、有機EL(有機エレクトロルミネッセンス、Organic Electro-Luminescence)のディスプレイと、有機EL制御部とを備える構成としてもよい。また、画像光を生成する構成として、LCOS(Liquid crystal on silicon, LCoSは登録商標)を用いる構成とすることができる。また、無機EL(Electro-Luminescence)ディスプレイ、LEDアレイ、デジタル・マイクロミラー・デバイス(DMD)等を用いて、画像光を生成する構成とすることもできる。
また、例えば、レーザー網膜投影型のヘッドマウントディスプレイに対して本発明を適用することも可能である。すなわち、画像生成部が、レーザー光源と、レーザー光源を使用者の眼に導く光学系とを備え、レーザー光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより、使用者に画像を視認させる構成を採用してもよい。レーザー網膜投影型のヘッドマウントディスプレイを採用する場合、「画像光生成部における画像光の射出可能領域」とは、使用者の眼に認識される画像領域として定義することができる。
For example, as a configuration for generating image light in the virtual image display device 100, a configuration including an organic EL (Organic Electro-Luminescence) display and an organic EL control unit may be used. Further, as a configuration for generating image light, a configuration using LCOS (Liquid crystal on silicon, LCoS is a registered trademark) can be used. Moreover, it can also be set as the structure which produces | generates image light using an inorganic EL (Electro-Luminescence) display, an LED array, a digital micromirror device (DMD), etc. FIG.
Further, for example, the present invention can be applied to a laser retinal projection type head mounted display. That is, the image generation unit includes a laser light source and an optical system that guides the laser light source to the user's eye, makes the laser light enter the user's eye, scans the retina, and forms an image on the retina. A configuration that allows the user to visually recognize an image may be employed. When a laser retina projection type head-mounted display is employed, the “image light emitting area in the image light generation unit” can be defined as an image area recognized by the user's eyes.

画像光を使用者の眼に導く光学系としては、外部から装置に向けて入射する外光を透過する光学部材を備え、画像光とともに使用者の眼に入射させる構成を採用できる。また、使用者の眼の前方に位置して使用者の視界の一部または全部に重なる光学部材を用いてもよい。さらに、レーザー光等を走査させて画像光とする走査方式の光学系を採用してもよい。また、光学部材の内部で画像光を導光させるものに限らず、使用者の眼に向けて画像光を屈折及び/または反射させて導く機能のみを有するものであってもよい。   As an optical system that guides image light to the user's eyes, an optical member that transmits external light that is incident from the outside toward the apparatus and that enters the user's eyes together with the image light can be employed. Moreover, you may use the optical member which is located ahead of a user's eyes and overlaps a part or all of a user's visual field. Further, a scanning optical system that scans a laser beam or the like to obtain image light may be employed. Further, the optical member is not limited to guiding the image light inside the optical member, and may have only a function of guiding the image light by refracting and / or reflecting it toward the user's eyes.

また、本発明を、MEMSミラーを用いた走査光学系を採用し、MEMSディスプレイ技術を利用した表示装置に適用することも可能である。すなわち、画像表示素子として、信号光形成部と、信号光形成部が射出する光を走査するMEMSミラーを有する走査光学系と、走査光学系により走査される光によって虚像が形成される光学部材とを備えてもよい。この構成では、信号光形成部が射出した光がMEMSミラーにより反射され、光学部材に入射し、光学部材の中を導かれて、虚像形成面に達する。MEMSミラーが光を走査することにより、虚像形成面に虚像が形成され、この虚像を使用者が眼で捉えることで、画像が認識される。この場合の光学部品は、例えば上記実施形態の右導光板261及び左導光板262のように、複数回の反射を経て光を導くものであってもよく、ハーフミラー面を利用してもよい。また、MEMSを利用して光を使用者の眼に入射させて網膜上を走査し、網膜に結像させることにより使用者に画像を視認させる、上述のレーザー網膜投影型のヘッドマウントディスプレイを構成してもよい。   Further, the present invention can be applied to a display device that employs a scanning optical system using a MEMS mirror and uses MEMS display technology. That is, as an image display element, a signal light forming unit, a scanning optical system having a MEMS mirror that scans light emitted from the signal light forming unit, and an optical member on which a virtual image is formed by light scanned by the scanning optical system May be provided. In this configuration, the light emitted from the signal light forming unit is reflected by the MEMS mirror, enters the optical member, is guided through the optical member, and reaches the virtual image forming surface. When the MEMS mirror scans the light, a virtual image is formed on the virtual image forming surface, and the user recognizes the virtual image with the eyes, thereby recognizing the image. The optical component in this case may be one that guides light through a plurality of reflections, such as the right light guide plate 261 and the left light guide plate 262 of the above embodiment, and may use a half mirror surface. . In addition, the above-mentioned laser retinal projection type head mounted display is configured in which light is incident on a user's eye using MEMS, scanned on the retina, and imaged on the retina to allow the user to visually recognize the image. May be.

また、図9に示した各機能ブロックのうち少なくとも一部は、ハードウェアで実現してもよいし、ハードウェアとソフトウェアの協働により実現される構成としてもよく、図9に示した通りに独立したハードウェア資源を配置する構成に限定されない。また、制御部140が実行するプログラムは、記憶部120又は制御装置300内の記憶装置に記憶されてもよいし、外部の装置に記憶されたプログラムを通信部117又はインターフェイス114を介して取得して実行する構成としてもよい。また、制御装置300に形成された構成のうち、操作部135のみが単独の使用者インターフェイス(UI)として形成されてもよい。また、制御装置300に形成された構成が重複して虚像表示装置100に形成されていてもよい。例えば、図9に示す制御部140が制御装置300と虚像表示装置100との両方に形成されていてもよいし、制御装置300に形成された制御部140と虚像表示装置100に形成されたCPUとが行う機能が別々に分けられている構成としてもよい。   Further, at least a part of the functional blocks shown in FIG. 9 may be realized by hardware, or may be realized by cooperation of hardware and software, as shown in FIG. It is not limited to a configuration in which independent hardware resources are arranged. The program executed by the control unit 140 may be stored in the storage unit 120 or the storage device in the control device 300, or the program stored in the external device is acquired via the communication unit 117 or the interface 114. It is good also as a structure to execute. Of the components formed in the control device 300, only the operation unit 135 may be formed as a single user interface (UI). Moreover, the structure formed in the control apparatus 300 may be formed in the virtual image display apparatus 100 overlapping. For example, the control unit 140 illustrated in FIG. 9 may be formed in both the control device 300 and the virtual image display device 100, or the control unit 140 formed in the control device 300 and the CPU formed in the virtual image display device 100. The functions performed by and may be configured separately.

1…HMD(表示装置)、10…導光部材、10a、10b…位置、35、36…外カメラ(第2撮像部、外部撮像部)、37a、37b、38a、38b…内カメラ(第1撮像部)、41…接続ケーブル、50…光透過部材、70…投射透視装置(光学系)、80…画像表示装置(出射部)、84…駆動制御部、85…右光学系駆動部(変更部)、86…映像素子ケース、87…左光学系駆動部(変更部)、100…虚像表示装置(表示部)、100A…第1表示装置、100B…第2表示装置、101a…第1光学部材、101b…第2光学部材、102…枠部、104…テンプル部、105a…第1像形成本体部、105b…第2像形成本体部、105d…外装部材、107…フレーム、107a…正面部、107b…側面部、107c…側面部、108…樹脂部、110…入力情報取得部、114…インターフェイス、117…通信部、120…記憶部、121…設定データ、130…光学装置部、135…操作部、140…制御部、160…画像処理部(画像生成部)、170…表示制御部、181…撮像制御部、182…眼画像解析部、183…外画像解析部、184…変更制御部、185…駆動制御部、190…音声処理部、201…右バックライト制御部、202…左バックライト制御部、211…右駆動制御部、212…左駆動制御部、221…右バックライト、222…左バックライト、261…右導光板、262…左導光板、300…制御装置、302…トラックパッド。   DESCRIPTION OF SYMBOLS 1 ... HMD (display apparatus), 10 ... Light guide member, 10a, 10b ... Position, 35, 36 ... Outer camera (2nd imaging part, external imaging part), 37a, 37b, 38a, 38b ... Inner camera (1st (Imaging unit), 41 ... connection cable, 50 ... light transmission member, 70 ... projection see-through device (optical system), 80 ... image display device (emission unit), 84 ... drive control unit, 85 ... right optical system drive unit (change) Part), 86 ... image element case, 87 ... left optical system drive part (change part), 100 ... virtual image display device (display part), 100A ... first display device, 100B ... second display device, 101a ... first optical Member 101b second optical member 102 frame portion 104 temple portion 105a first image forming body portion 105b second image forming body portion 105d exterior member 107 frame 107a front portion , 107b... Side portion, 107 ... Side part 108 ... Resin part 110 ... Input information acquisition part 114 ... Interface 117 ... Communication part 120 ... Storage part 121 ... Setting data 130 ... Optical device part 135 ... Operation part 140 ... Control part , 160 ... Image processing unit (image generation unit), 170 ... Display control unit, 181 ... Imaging control unit, 182 ... Eye image analysis unit, 183 ... Outside image analysis unit, 184 ... Change control unit, 185 ... Drive control unit, 190 ... Audio processing unit 201 ... Right backlight control unit 202 ... Left backlight control unit 211 ... Right drive control unit 212 ... Left drive control unit 221 ... Right backlight 222 ... Left backlight 261 ... Right light guide plate, 262... Left light guide plate, 300... Control device, 302.

Claims (25)

外景を視認可能に、使用者の右眼と左眼のそれぞれに対応して画像を表示する表示部と、
前記表示部による画像の表示態様を、前記使用者の注視距離に応じて制御する制御部と、
を備えることを特徴とする表示装置。
A display unit that displays an image corresponding to each of the user's right eye and left eye so that the outside scene can be visually recognized;
A control unit that controls the display mode of the image by the display unit according to the gaze distance of the user;
A display device comprising:
前記制御部は、前記使用者の注視距離に応じて、前記表示部による前記画像の表示位置及び/又は前記画像の表示サイズを変更すること、
を特徴とする請求項1記載の表示装置。
The control unit is configured to change a display position of the image and / or a display size of the image according to the gaze distance of the user.
The display device according to claim 1.
前記制御部は、前記使用者の注視距離に対応する両眼の輻輳角に基づき、前記表示部による画像の表示態様を制御すること、
を特徴とする請求項1または2記載の表示装置。
The control unit controls a display mode of an image by the display unit based on a convergence angle of both eyes corresponding to the gaze distance of the user;
The display device according to claim 1 or 2.
前記制御部は、前記使用者の両眼の輻輳角を求め、求めた輻輳角に対応して、前記表示部が表示する画像を前記使用者が視認する位置を変化させること、
を特徴とする請求項3記載の表示装置。
The control unit obtains the convergence angle of both eyes of the user, and changes the position at which the user visually recognizes the image displayed by the display unit, corresponding to the obtained convergence angle,
The display device according to claim 3.
前記制御部は、前記使用者の両眼の輻輳角に対応して、前記表示部が前記画像を表示する表示位置を、予め設定された標準位置からシフトさせること、
を特徴とする請求項4記載の表示装置。
The control unit shifts a display position where the display unit displays the image from a preset standard position in response to a convergence angle of both eyes of the user.
The display device according to claim 4.
前記使用者の両眼の状態を検出する状態検出部を備え、
前記制御部は、前記状態検出部の検出結果に基づいて、前記使用者の注視距離を算出し、算出した注視距離に応じて前記表示部による画像の表示態様を制御すること、
を特徴とする請求項1から5のいずれかに記載の表示装置。
A state detection unit for detecting the state of both eyes of the user;
The control unit calculates a gaze distance of the user based on a detection result of the state detection unit, and controls a display mode of an image by the display unit according to the calculated gaze distance;
The display device according to claim 1, wherein:
前記状態検出部は、前記使用者の右眼と左眼のそれぞれに対応して設けられる第1撮像部を備え、
前記制御部は、前記第1撮像部の撮像画像に基づいて、前記使用者の両眼の瞳孔間距離、瞳孔径、或いは注視方向の注視時間の少なくともいずれかを求めることにより、前記使用者の注視距離を算出すること、
を特徴とする請求項6記載の表示装置。
The state detection unit includes a first imaging unit provided corresponding to each of the user's right eye and left eye,
The control unit obtains at least one of a distance between pupils of both eyes of the user, a pupil diameter, or a gaze time in a gaze direction based on a captured image of the first imaging unit. Calculating the gaze distance,
The display device according to claim 6.
前記状態検出部は、前記使用者の注視方向を撮像する第2撮像部を備え、
前記制御部は、前記第2撮像部の撮像画像に基づいて、前記使用者が注視する注視対象物までの距離を求めることにより、前記使用者の注視距離を算出すること、
を特徴とする請求項6または7記載の表示装置。
The state detection unit includes a second imaging unit that images the gaze direction of the user,
The control unit calculates a gaze distance of the user by obtaining a distance to a gaze object that the user gazes based on a captured image of the second imaging unit.
The display device according to claim 6 or 7.
前記表示部は、画像光を出射する出射部と、
前記出射部が出射する画像光を前記使用者の右眼と左眼のそれぞれに導く光学系と、
前記出射部または前記光学系を構成する少なくとも一部の部材を変位させ、前記光学系から前記使用者の右眼と左眼とに入射する画像光の角度を変更する変更部と、を備え、
前記制御部は、前記使用者の注視距離に応じて前記変更部を動作させること、
を特徴とする請求項1から8のいずれかに記載の表示装置。
The display unit includes an emission unit that emits image light;
An optical system that guides the image light emitted by the emission unit to each of the right eye and the left eye of the user;
A displacement unit that displaces at least a part of the light emitting unit or the optical system and changes the angle of image light incident on the right and left eyes of the user from the optical system, and
The control unit operates the changing unit according to the gaze distance of the user;
The display device according to claim 1, wherein:
前記制御部は、前記使用者の注視距離に応じて、前記表示部が表示する画像を前記使用者が視認する表示範囲における、画像の位置を制御すること、
を特徴とする請求項1から9のいずれかに記載の表示装置。
The control unit controls the position of the image in a display range in which the user visually recognizes the image displayed by the display unit according to the gaze distance of the user;
The display device according to claim 1, wherein:
画像データに基づき前記表示部が表示する画像を生成する画像生成部を備え、
前記制御部は、前記使用者の注視距離に応じて、前記画像生成部により前記画像データの一部を切り出して調整用の画像を生成させ、前記調整用の画像を前記表示部に表示させること、
を特徴とする請求項10記載の表示装置。
An image generation unit that generates an image to be displayed by the display unit based on image data;
The control unit causes the image generation unit to cut out part of the image data to generate an adjustment image according to the user's gaze distance, and to display the adjustment image on the display unit. ,
The display device according to claim 10.
前記制御部は、前記使用者の注視距離が予め設定された基準距離より近い場合に、前記表示部によって前記使用者の右眼または左眼のいずれかに対応する画像を表示させること、
を特徴とする請求項1から11のいずれかに記載の表示装置。
The control unit causes the display unit to display an image corresponding to either the right eye or the left eye of the user when the gaze distance of the user is closer than a preset reference distance;
The display device according to claim 1, wherein:
外景を視認可能に、使用者の右眼と左眼のそれぞれに対応して画像を表示する表示装置であって、
画像光を出射する出射部と、
前記出射部が出射する画像光を前記使用者の右眼と左眼のそれぞれに導く光学系と、
前記出射部の出射方向または前記光学系から前記使用者の右眼と左眼とに入射する画像光の入射角度を変更する変更部と、を備える表示部と、
画像データに基づき前記表示部が表示する画像を生成する画像生成部と、
前記使用者の注視距離を算出し、算出した注視距離に応じて、前記変更部を動作させる処理、及び、前記使用者の注視距離に応じて、前記画像生成部により前記画像データの一部を切り出して調整用の画像を生成させ、前記調整用の画像を前記表示部に表示させる処理の少なくともいずれかを実行する制御部と、
を備えることを特徴とする表示装置。
A display device that displays an image corresponding to each of a user's right eye and left eye so that the outside scene can be visually recognized,
An exit for emitting image light;
An optical system that guides the image light emitted by the emission unit to each of the right eye and the left eye of the user;
A changing unit that changes an incident angle of image light that is incident on the right eye and the left eye of the user from the emitting direction of the emitting unit or the optical system;
An image generation unit that generates an image to be displayed by the display unit based on image data;
A process of calculating the gaze distance of the user, operating the changing unit according to the calculated gaze distance, and a part of the image data by the image generation unit according to the gaze distance of the user. A control unit that cuts out and generates an adjustment image, and executes at least one of the processes of displaying the adjustment image on the display unit;
A display device comprising:
外部撮像部を備え、
前記制御部は、前記外部撮像部の撮像画像に基づく画像を前記表示部に表示させる処理を実行可能であること、
を特徴とする請求項1から13のいずれかに記載の表示装置。
With an external imaging unit,
The control unit is capable of executing a process of displaying an image based on a captured image of the external imaging unit on the display unit;
The display device according to claim 1, wherein:
前記表示部は、前記表示部を透過する外光により前記使用者が外景を視認可能に構成され、前記外部撮像部の撮像画像に基づく画像を、前記外景と同時に視認可能に表示すること、
を特徴とする請求項14記載の表示装置。
The display unit is configured so that the user can visually recognize an outside scene by external light transmitted through the display unit, and an image based on a captured image of the external imaging unit is displayed so as to be visible simultaneously with the outside scene.
The display device according to claim 14.
前記制御部は、前記撮像画像に基づく画像を前記表示部に表示させる場合に、前記表示部を透過する外光に比べ、前記撮像画像に基づく画像の視認性を高める処理を行うこと、
を特徴とする請求項14または15記載の表示装置。
The control unit, when displaying an image based on the captured image on the display unit, performs a process of increasing the visibility of the image based on the captured image compared to external light transmitted through the display unit;
16. A display device according to claim 14 or 15, wherein:
前記制御部は、前記撮像画像に基づく画像を前記表示部に表示させる場合に、前記撮像画像に基づく画像の輝度または色彩を変化させ、或いは、前記撮像画像に基づく画像に対するエッジ強調処理を行うことにより、前記撮像画像に基づく画像の視認性を高める処理を行うこと、
を特徴とする請求項16記載の表示装置。
When the control unit displays an image based on the captured image on the display unit, the control unit changes the luminance or color of the image based on the captured image, or performs edge enhancement processing on the image based on the captured image To perform a process of improving the visibility of the image based on the captured image,
The display device according to claim 16.
前記制御部は、前記外部撮像部の撮像画像に基づく画像を、前記表示部により前記使用者の右眼と左眼のいずれか一方に対応して表示すること、
を特徴とする請求項14から17のいずれかに記載の表示装置。
The control unit displays an image based on a captured image of the external imaging unit in correspondence with either the right eye or the left eye of the user by the display unit,
The display device according to claim 14, wherein:
前記制御部は、前記外部撮像部の撮像画像に基づく画像を、前記表示部により、左右の視差を有さない態様で前記使用者の右眼及び左眼のそれぞれに対応して表示すること、
を特徴とする請求項14から17のいずれかに記載の表示装置。
The control unit displays an image based on a captured image of the external imaging unit on the display unit in correspondence with each of the right eye and the left eye of the user in a manner that does not have left and right parallax;
The display device according to claim 14, wherein:
前記制御部は、前記外部撮像部の撮像画像を拡大して前記表示部により表示すること、
を特徴とする請求項14から19のいずれかに記載の表示装置。
The control unit enlarges a captured image of the external imaging unit and displays the enlarged image on the display unit;
The display device according to claim 14, wherein:
前記制御部は、前記使用者の操作を受け付けた場合に、前記外部撮像部の撮像画像に基づく画像を表示すること、
を特徴とする請求項14から20のいずれかに記載の表示装置。
The control unit displays an image based on a captured image of the external imaging unit when an operation of the user is received;
The display device according to claim 14, wherein the display device is a display device.
前記制御部は、前記使用者の注視距離を検出し、検出した注視距離が予め設定された距離より短い場合に、前記外部撮像部の撮像画像に基づく画像を表示すること、
を特徴とする請求項14から20のいずれかに記載の表示装置。
The control unit detects a gaze distance of the user, and displays an image based on a captured image of the external imaging unit when the detected gaze distance is shorter than a preset distance;
The display device according to claim 14, wherein the display device is a display device.
前記外部撮像部は、前記表示部の装着状態において前記使用者の視線方向を含む範囲を撮像すること、
を特徴とする請求項14から22のいずれかに記載の表示装置。
The external imaging unit captures an image of a range including the line-of-sight direction of the user when the display unit is mounted;
The display device according to claim 14, wherein:
外景を視認可能に、使用者の右眼と左眼のそれぞれに対応して画像を表示する表示部を備える表示装置により、前記表示部による画像の表示態様を、前記使用者の注視距離に応じて制御すること、
を特徴とする表示装置の制御方法。
The display device includes a display unit that displays an image corresponding to each of the right eye and the left eye of the user so that the outside scene can be visually recognized, and the display mode of the image by the display unit depends on the gaze distance of the user. Control,
A control method of a display device characterized by the above.
外景を視認可能に、使用者の右眼と左眼のそれぞれに対応して画像を表示する表示部を備える表示装置を制御するコンピューターが実行可能なプログラムであって、
前記コンピューターを、前記表示部による画像の表示態様を、前記使用者の注視距離に応じて制御する制御部として機能させる、プログラム。
A program that can be executed by a computer that controls a display device that includes a display unit that displays an image corresponding to each of the user's right eye and left eye so that the outside scene can be visually recognized,
The program which makes the said computer function as a control part which controls the display mode of the image by the said display part according to the said user's gaze distance.
JP2015173682A 2015-03-27 2015-09-03 Display device, display device control method, and program Active JP6707823B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015173682A JP6707823B2 (en) 2015-09-03 2015-09-03 Display device, display device control method, and program
US15/049,203 US10162412B2 (en) 2015-03-27 2016-02-22 Display, control method of display, and program
CN201610117993.XA CN106019584A (en) 2015-03-27 2016-03-02 Display, control method of display, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015173682A JP6707823B2 (en) 2015-09-03 2015-09-03 Display device, display device control method, and program

Publications (2)

Publication Number Publication Date
JP2017049468A true JP2017049468A (en) 2017-03-09
JP6707823B2 JP6707823B2 (en) 2020-06-10

Family

ID=58279491

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015173682A Active JP6707823B2 (en) 2015-03-27 2015-09-03 Display device, display device control method, and program

Country Status (1)

Country Link
JP (1) JP6707823B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019125965A (en) * 2018-01-18 2019-07-25 キヤノン株式会社 Display device
JP2020080074A (en) * 2018-11-13 2020-05-28 本田技研工業株式会社 Sight line detection device, program, and sight line detection method
JPWO2020178960A1 (en) * 2019-03-04 2020-09-10
WO2021152683A1 (en) * 2020-01-28 2021-08-05 三菱電機株式会社 Display control device, display control system, and display control method
CN113366367A (en) * 2019-01-24 2021-09-07 西尔欧集团 Electronic magnifier
JP2022527965A (en) * 2019-05-07 2022-06-07 アップル インコーポレイテッド Adjustment mechanism for head-mounted display
JP7382954B2 (en) 2018-11-01 2023-11-17 株式会社ソニー・インタラクティブエンタテインメント VR sickness reduction system, head mounted display, VR sickness reduction method and program
WO2024070289A1 (en) * 2022-09-29 2024-04-04 ソニーグループ株式会社 Head-mounted display

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0847001A (en) * 1994-08-01 1996-02-16 Minolta Co Ltd Steroscopic television camera
JPH11202256A (en) * 1998-01-20 1999-07-30 Ricoh Co Ltd Head-mounting type image display device
JP2012042654A (en) * 2010-08-18 2012-03-01 Sony Corp Display device
US20130021373A1 (en) * 2011-07-22 2013-01-24 Vaught Benjamin I Automatic Text Scrolling On A Head-Mounted Display
JP2014131094A (en) * 2012-12-28 2014-07-10 Seiko Epson Corp Display device and method of controlling display device
JP2014241523A (en) * 2013-06-12 2014-12-25 セイコーエプソン株式会社 Head-mounted display device and control method of head-mounted display device
JP2016186561A (en) * 2015-03-27 2016-10-27 セイコーエプソン株式会社 Display device, control method for display device, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0847001A (en) * 1994-08-01 1996-02-16 Minolta Co Ltd Steroscopic television camera
JPH11202256A (en) * 1998-01-20 1999-07-30 Ricoh Co Ltd Head-mounting type image display device
JP2012042654A (en) * 2010-08-18 2012-03-01 Sony Corp Display device
US20130021373A1 (en) * 2011-07-22 2013-01-24 Vaught Benjamin I Automatic Text Scrolling On A Head-Mounted Display
JP2014131094A (en) * 2012-12-28 2014-07-10 Seiko Epson Corp Display device and method of controlling display device
JP2014241523A (en) * 2013-06-12 2014-12-25 セイコーエプソン株式会社 Head-mounted display device and control method of head-mounted display device
JP2016186561A (en) * 2015-03-27 2016-10-27 セイコーエプソン株式会社 Display device, control method for display device, and program

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019125965A (en) * 2018-01-18 2019-07-25 キヤノン株式会社 Display device
JP7118650B2 (en) 2018-01-18 2022-08-16 キヤノン株式会社 Display device
JP7382954B2 (en) 2018-11-01 2023-11-17 株式会社ソニー・インタラクティブエンタテインメント VR sickness reduction system, head mounted display, VR sickness reduction method and program
JP2020080074A (en) * 2018-11-13 2020-05-28 本田技研工業株式会社 Sight line detection device, program, and sight line detection method
JP7146585B2 (en) 2018-11-13 2022-10-04 本田技研工業株式会社 Line-of-sight detection device, program, and line-of-sight detection method
CN113366367A (en) * 2019-01-24 2021-09-07 西尔欧集团 Electronic magnifier
JPWO2020178960A1 (en) * 2019-03-04 2020-09-10
WO2020178960A1 (en) * 2019-03-04 2020-09-10 マクセル株式会社 Remote operation instruction system and mount-type device
US11915339B2 (en) 2019-03-04 2024-02-27 Maxell, Ltd. Remote operation instructing system, and mount type device
JP2022527965A (en) * 2019-05-07 2022-06-07 アップル インコーポレイテッド Adjustment mechanism for head-mounted display
JP7202482B2 (en) 2019-05-07 2023-01-11 アップル インコーポレイテッド Adjustment mechanism for head-mounted display
WO2021152683A1 (en) * 2020-01-28 2021-08-05 三菱電機株式会社 Display control device, display control system, and display control method
WO2024070289A1 (en) * 2022-09-29 2024-04-04 ソニーグループ株式会社 Head-mounted display

Also Published As

Publication number Publication date
JP6707823B2 (en) 2020-06-10

Similar Documents

Publication Publication Date Title
US10162412B2 (en) Display, control method of display, and program
JP6707823B2 (en) Display device, display device control method, and program
US9898868B2 (en) Display device, method of controlling the same, and program
CN112130329B (en) Head-mounted display device and method for controlling head-mounted display device
KR101845350B1 (en) Head-mounted display device, control method of head-mounted display device, and display system
US10645374B2 (en) Head-mounted display device and display control method for head-mounted display device
JP6225546B2 (en) Display device, head-mounted display device, display system, and display device control method
JP6337418B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6707809B2 (en) Display device, display device control method, and program
JP6369005B2 (en) Head-mounted display device and method for controlling head-mounted display device
JP6641763B2 (en) Display system
JP6492531B2 (en) Display device and control method of display device
JP6459380B2 (en) Head-mounted display device, head-mounted display device control method, and computer program
JP2016224086A (en) Display device, control method of display device and program
JP2016122177A (en) Display device and control method of display device
JP2016024208A (en) Display device, method for controlling display device, and program
JP6575117B2 (en) Display device, display device control method, and program
JP2016033759A (en) Display device, method for controlling display device, and program
JP6428024B2 (en) Display device, display device control method, and program
JP6620417B2 (en) Display device, control method therefor, and computer program
JP2016090853A (en) Display device, control method of display device and program
JP2017079389A (en) Display device, display device control method, and program
JP2016033763A (en) Display device, method for controlling display device, and program
JP6638195B2 (en) DISPLAY DEVICE, DISPLAY DEVICE CONTROL METHOD, AND PROGRAM
JP6582374B2 (en) Display device, control method therefor, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200504

R150 Certificate of patent or registration of utility model

Ref document number: 6707823

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150