JP2019066564A - Display, display control method, and program - Google Patents

Display, display control method, and program Download PDF

Info

Publication number
JP2019066564A
JP2019066564A JP2017189144A JP2017189144A JP2019066564A JP 2019066564 A JP2019066564 A JP 2019066564A JP 2017189144 A JP2017189144 A JP 2017189144A JP 2017189144 A JP2017189144 A JP 2017189144A JP 2019066564 A JP2019066564 A JP 2019066564A
Authority
JP
Japan
Prior art keywords
image
distance
user
display
gaze
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017189144A
Other languages
Japanese (ja)
Inventor
忠慈 牧野
Tadashige Makino
忠慈 牧野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2017189144A priority Critical patent/JP2019066564A/en
Publication of JP2019066564A publication Critical patent/JP2019066564A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide: a display capable of reducing troubles that a content in a superimposed image is visually recognized to shift when a user visually recognizing a superimposed image moves the line of sight from a distant place to a nearby place; a display control method; and a program.SOLUTION: The display comprises: display means for displaying a superimposed image visually recognized to overlap scenery by a user; display control means for controlling the display of the superimposed image; and gaze distance determining means for estimating a user's gaze distance to determine whether or not the estimated gaze distance is closer than a predetermined distance. The display control means hardly visually recognizes or eliminates contents C5 and C6 displayed in portions except a predetermined region of the superimposed image when the gaze distance determining means determines that the estimated gaze distance is short.SELECTED DRAWING: Figure 10

Description

本発明は、表示装置、表示制御方法、及びプログラムに関する。   The present invention relates to a display device, a display control method, and a program.

使用者に風景と重なって視認される画像を表示する表示装置として、例えば、特許文献1に開示されたものがある。この種の表示装置は、ヘッドマウントディスプレイ(HMD:Head Mounted Display)とも呼ばれ、使用者の眼に対応して設けられた透光部材の前方に、風景に重畳させて各種情報を示す虚像(以下、重畳画像とも言う)を表示することで、AR(Augmented Reality)を実現する。   As a display device for displaying an image visually perceived to be superimposed on a landscape by the user, for example, there is one disclosed in Patent Document 1. This type of display device is also called a head mounted display (HMD: Head Mounted Display), and is a virtual image showing various information superimposed on a scene in front of a translucent member provided corresponding to the user's eye Hereinafter, AR (Augmented Reality) is realized by displaying a superimposed image).

特開2016−186561号公報JP, 2016-186561, A

HMDのような表示装置は、ある結像位置に、設定されたサイズの重畳画像が表示されるように制御するが、使用者にとっては自身の注視位置(注視している物体までの距離)に応じて重畳画像のサイズが変化したように感じるという特性がある。この特性は、使用者が重畳画像とともに見る風景との比較として重畳画像のサイズを認識することに起因する。この特性により、使用者は、注視位置が近ければ近いほど重畳画像が小さく感じ、遠ければ遠いほど重畳画像が大きく感じる。このような特性により、重畳画像を視認する使用者が遠方から近方に視線を移すと、遠方時に風景内の特定対象に重なって表示されていたコンテンツ(重畳画像内の所定画像)が、当該特定対象とずれて視認されるという問題がある。   A display device such as an HMD controls a superimposed image of a set size to be displayed at a certain imaging position, but for the user, the user views it at his own gaze position (the distance to the object being gazed). There is a characteristic that the size of the superimposed image is felt to change accordingly. This characteristic results from the recognition of the size of the superimposed image as a comparison with the landscape that the user views with the superimposed image. Due to this characteristic, the user feels the superimposed image smaller as the gaze position is closer, and feels larger as the distance is farther. According to such a characteristic, when the user viewing the superimposed image shifts the gaze from a distance to a near position, the content (a predetermined image in the superimposed image) displayed overlapping with the specific object in the landscape at the time of the distance There is a problem that it is viewed off the specific target.

本発明は、上記実情に鑑みてなされたものであり、重畳画像を視認する使用者が遠方から近方に視線を移した場合に、重畳画像内のコンテンツがずれて視認されることの煩わしさを低減できる表示装置、表示制御方法、及びプログラムを提供することを目的とする。   The present invention has been made in view of the above-mentioned circumstances, and it is troublesome for the content in the superimposed image to be viewed in a shifted manner when the user viewing the superimposed image shifts the line of sight from the far side to the near side. It is an object of the present invention to provide a display device, display control method, and program capable of reducing

上記目的を達成するため、本発明の第1の観点に係る表示装置は、
使用者の眼に対応して設けられ、前記使用者に風景と重なって視認される重畳画像を表示する表示手段と、
前記重畳画像の表示制御を行う表示制御手段と、
前記使用者の注視距離を推定し、推定した前記注視距離が所定距離よりも近い近距離であるか否かを判別する注視距離判別手段と、を備え、
前記表示制御手段は、前記注視距離判別手段が前記近距離であると判別すると、前記重畳画像のうち所定領域以外の部分に表示していたコンテンツを視認困難とするか消去する。
In order to achieve the above object, a display device according to a first aspect of the present invention is:
Display means provided corresponding to the user's eyes and displaying a superimposed image that is viewed by the user as being superimposed on the landscape;
Display control means for controlling display of the superimposed image;
Fixation distance determination means for estimating the fixation distance of the user and determining whether the estimated fixation distance is a short distance closer than a predetermined distance;
The display control means, when judging that the gaze distance judging means is at the short distance, makes the content displayed in the portion other than the predetermined area in the superimposed image visually difficult or erased.

上記目的を達成するため、本発明の第2の観点に係る表示制御方法は、
使用者の眼に対応して設けられる表示手段に、前記使用者に風景と重なって視認される重畳画像を表示させる表示制御方法であって、
前記使用者の注視距離を推定するステップと、
推定した前記注視距離が所定距離よりも近い近距離である場合に、前記重畳画像のうち所定領域以外の部分に表示していたコンテンツを視認困難とするか消去するステップと、を備える。
In order to achieve the above object, a display control method according to a second aspect of the present invention is:
A display control method for displaying a superimposed image that is viewed by the user in an overlapping manner with a landscape on display means provided corresponding to the user's eyes,
Estimating the gaze distance of the user;
If the estimated gaze distance is a short distance closer than a predetermined distance, it is difficult to visually recognize or delete the content displayed in a portion other than the predetermined region in the superimposed image.

上記目的を達成するため、本発明の第3の観点に係るプログラムは、
使用者の眼に対応して設けられる表示手段に、前記使用者に風景と重なって視認される重畳画像を表示させるためのプログラムであって、
コンピュータに、
前記使用者の注視距離を推定し、推定した前記注視距離が所定距離よりも近い近距離であるか否かを判別する処理と、
前記近距離であると判別されたことに応じて、前記重畳画像のうち所定領域以外の部分に表示していたコンテンツを視認困難とするか消去する処理と、
を実行させる。
In order to achieve the above object, a program according to a third aspect of the present invention is
A program for displaying on a display means provided corresponding to a user's eyes a superimposed image that is viewed by the user in an overlapping manner with a landscape,
On the computer
A process of estimating the gaze distance of the user and determining whether the estimated gaze distance is a short distance closer than a predetermined distance;
Processing for making it difficult to visually recognize or delete the content displayed in the portion other than the predetermined area in the superimposed image in accordance with the determination that the short distance is determined;
Run

本発明によれば、重畳画像を視認する使用者が遠方から近方に視線を移した場合に、重畳画像内のコンテンツがずれて視認されることの煩わしさを低減できる。   According to the present invention, it is possible to reduce the inconvenience of the content in the superimposed image being misaligned and viewed when the user who views the superimposed image changes the line of sight from a distance to a near position.

本発明の第1実施形態に係る表示装置を示す図であり、画像光生成装置の概略斜視図を含む図である。It is a figure which shows the display apparatus based on 1st Embodiment of this invention, and is a figure containing the schematic perspective view of an image light production | generation apparatus. 表示装置のブロック図である。It is a block diagram of a display. 第1表示部や画像光の経路を説明するための図である。It is a figure for demonstrating the path | route of a 1st display part and image light. 注視距離に応じた重畳画像の認識上のサイズ変化特性を説明するための図である。It is a figure for demonstrating the size change characteristic on recognition of the superimposition image according to the gaze distance. 認識上のサイズ変化特性により生じる問題を説明するための図である。It is a figure for demonstrating the problem which arises by the size change characteristic on recognition. (a)は注視距離と輻輳角の関係等を示す図であり、(b)は動きデータに基づき算出する仰角を説明するための図である。(A) is a figure which shows the relationship between a gaze distance and a convergence angle etc., (b) is a figure for demonstrating the elevation angle calculated based on motion data. 第1実施形態に係る重畳画像を示す図であり、(a)は近方用形態を示し、(b)及び(c)は遠方用形態を示す図である。It is a figure which shows the superimposed image which concerns on 1st Embodiment, (a) shows the form for near, and (b) and (c) is a figure which shows the form for distance. (a)は表示形態切替処理の一例を示すフローチャートであり、(b)は注視距離推定処理の一例を示すフローチャートである。(A) is a flowchart which shows an example of a display mode switching process, (b) is a flowchart which shows an example of a gaze distance estimation process. (a)及び(b)は、第2実施形態に係る重畳画像の遠方用形態を示す図である。(A) And (b) is a figure which shows the form for distant use of the superimposed image which concerns on 2nd Embodiment. (a)〜(c)は、第2実施形態に係る重畳画像の近方用形態の生成手順を説明するための図である。(A)-(c) is a figure for demonstrating the production | generation procedure of the near form of the superimposition image which concerns on 2nd Embodiment. (a)〜(d)は、第3実施形態に係る重畳画像内に表示される注視位置誘導画像を説明するための図である。(A)-(d) is a figure for demonstrating the gaze position induction | guidance | derivation image displayed in the superimposed image which concerns on 3rd Embodiment.

本発明の一実施形態に係る表示装置を、図面を参照して説明する。   A display device according to an embodiment of the present invention will be described with reference to the drawings.

(第1実施形態)
第1実施形態に係る表示装置100は、図1に示すように、画像光生成装置1と、画像光生成装置1の動作を制御する制御装置2と、を備える。表示装置100は、使用者に風景と重なって視認される重畳画像を虚像V(図3参照)として表示するヘッドマウントディスプレイ(HMD:Head Mounted Display)として構成されている。この実施形態の表示装置100は、使用者が車両を運転する際に、図5に示す車内3にて使用される。
First Embodiment
As shown in FIG. 1, the display device 100 according to the first embodiment includes an image light generation device 1 and a control device 2 that controls the operation of the image light generation device 1. The display device 100 is configured as a head mounted display (HMD: Head Mounted Display) that displays a superimposed image that is viewed by the user as being superimposed on a landscape as a virtual image V (see FIG. 3). The display device 100 of this embodiment is used in the vehicle interior 3 shown in FIG. 5 when the user drives the vehicle.

画像光生成装置1は、図1〜図3に示すように、第1表示部10と、第2表示部20と、フレーム30と、フレーム30に配設された内カメラ31、モーションセンサ32、及び外カメラ33と、を備える。   As shown in FIGS. 1 to 3, the image light generation device 1 includes a first display unit 10, a second display unit 20, a frame 30, and an inner camera 31 and a motion sensor 32 disposed on the frame 30. And an outside camera 33.

画像光生成装置1は、図1に示すように眼鏡状に形成され、フレーム30を介して使用者の頭部に装着され使用される。フレーム30は、大別して、第1表示部10及び第2表示部20を保持するリム30aと、使用者の側頭部や耳上方にかけられるテンプル30bとから構成されている。   The image light generating device 1 is formed in the shape of glasses as shown in FIG. 1, and is mounted on the head of the user via the frame 30 and used. The frame 30 is roughly divided into a rim 30a for holding the first display unit 10 and the second display unit 20, and a temple 30b applied to the side of the user and the upper side of the ear.

第1表示部10、第2表示部20は、図2に示すように、使用者の眼Eに対応して設けられる。具体的には、第1表示部10は使用者の右眼E1に対応して設けられ、第2表示部20は使用者の左眼E2に対応して設けられている。第1表示部10は、画像光L1を生成及び射出することで、右眼E1で視認される虚像V1を表示する。また、第2表示部20は、画像光L2を生成及び射出することで、左眼E2で視認される虚像V2を表示する。なお、虚像V1と虚像V2とは基本的に同様の画像を示すため、以下では、特に断りがない限りにおいては、両者を区別なく虚像V(あるいは重畳画像)とも呼ぶ。また、同様に、画像光L1と画像光L2とを区別なく画像光Lとも呼ぶ。   The first display unit 10 and the second display unit 20 are provided corresponding to the eye E of the user, as shown in FIG. Specifically, the first display unit 10 is provided corresponding to the right eye E1 of the user, and the second display unit 20 is provided corresponding to the left eye E2 of the user. The first display unit 10 displays a virtual image V1 visually recognized by the right eye E1 by generating and emitting the image light L1. Further, the second display unit 20 generates a virtual image V2 to be viewed by the left eye E2 by generating and emitting the image light L2. In addition, since the virtual image V1 and the virtual image V2 basically indicate the same image, hereinafter, unless otherwise specified, both are also referred to as a virtual image V (or a superimposed image) without distinction. Similarly, the image light L1 and the image light L2 are also referred to as the image light L without distinction.

画像光生成装置1は、使用者に、第1表示部10及び第2表示部20を透かして風景(実景)を視認させるとともに、使用者から見て第1表示部10及び第2表示部20の前方に虚像Vを表示させる。   The image light generation device 1 allows the user to see the scenery (real scenery) through the first display unit 10 and the second display unit 20 and to visually recognize the scenery (real scenery), and to observe the user from the first display unit 10 and the second display unit 20. The virtual image V is displayed in front of.

第1表示部10は、表示素子11と、導光装置12と、を備える。また、第2表示部20は、表示素子21と、導光装置22と、を備える。なお、画像光生成装置1は、概ね左右対称に形成されており、第1表示部10と第2表示部20とは同様に構成されている。そのため、以下では、第2表示部20の構成の具体的説明を省略して、主に第1表示部10について説明する。   The first display unit 10 includes a display element 11 and a light guide device 12. In addition, the second display unit 20 includes a display element 21 and a light guide device 22. The image light generating device 1 is formed to be substantially symmetrical in the left-right direction, and the first display unit 10 and the second display unit 20 are configured in the same manner. Therefore, in the following, the first display unit 10 will be mainly described, with a specific description of the configuration of the second display unit 20 omitted.

表示素子11は、例えば、フルカラーのTFT(Thin Film Transistor)型の液晶表示パネルやバックライトから構成され、複数の点灯画素の組み合わせにより画像を表示する。つまり、表示素子11は、当該画像を表す画像光L(L1)を射出する。バックライトは、液晶表示パネルを背後から照明するものであり、例えば、LED(Light Emitting Diode)や導光体などから構成されている。表示素子11は、制御装置2の制御により、図3に示す駆動部11aを介して駆動される。駆動部11aは、例えば、液晶表示パネルが有する複数の画素の各々の透過/不透過状態を画像信号に応じて切り替える液晶用ドライバや、LEDを駆動する光源ドライバなどから構成されている。   The display element 11 includes, for example, a full color TFT (Thin Film Transistor) type liquid crystal display panel or a backlight, and displays an image by a combination of a plurality of lighting pixels. That is, the display element 11 emits the image light L (L1) representing the image. The backlight illuminates the liquid crystal display panel from behind, and is configured of, for example, a light emitting diode (LED) or a light guide. The display element 11 is driven by the control of the control device 2 via the drive unit 11a shown in FIG. The driving unit 11a includes, for example, a liquid crystal driver that switches the transmission / non-transmission state of each of the plurality of pixels of the liquid crystal display panel according to an image signal, a light source driver that drives an LED, and the like.

なお、表示素子11は、画像光Lを射出することができるものであればよく、有機EL(Electro-Luminescence)パネルや、DMD(Digital Micromirror Device)やLCOS(Liquid Crystal On Silicon)などの反射型表示デバイスを用いたプロジェクタから構成されてもよい。   The display device 11 may be any device capable of emitting the image light L, and a reflective type such as an organic EL (Electro-Luminescence) panel, a DMD (Digital Micromirror Device), or an LCOS (Liquid Crystal On Silicon). The projector may be configured of a display device.

導光装置12は、図3に示すように、鏡筒部120と、導光部121と、透過部122と、を有する。鏡筒部120は、表示素子11が射出した画像光Lを透過させる、図示しない光学素子(例えば、複数のレンズからなる)を収容する。鏡筒部120内に位置する光学素子は、導光部121と協動して、導光部121の内部に重畳画像(虚像V)の中間像を形成する。鏡筒部120は、例えば、フレーム30におけるリム30aとテンプル30bとの連結部近傍に設けられている。   As illustrated in FIG. 3, the light guide device 12 includes a barrel unit 120, a light guide unit 121, and a transmission unit 122. The barrel unit 120 accommodates an optical element (for example, composed of a plurality of lenses) (not shown) that transmits the image light L emitted by the display element 11. The optical element located in the lens barrel 120 cooperates with the light guide 121 to form an intermediate image of the superimposed image (virtual image V) inside the light guide 121. The barrel unit 120 is provided, for example, in the vicinity of a connection portion between the rim 30 a and the temple 30 b in the frame 30.

導光部121と透過部122は、透光性樹脂により形成され、図2に示すように、使用者が画像光生成装置1を装着すると当該使用者の右眼E1前方に位置し、眼鏡で言う右眼用のレンズに相当する形状を有する。   The light guiding portion 121 and the transmitting portion 122 are formed of a translucent resin, and as shown in FIG. 2, when the user wears the image light generating device 1, they are positioned in front of the right eye E1 of the user and It has a shape corresponding to a lens for the right eye.

導光部121は、鏡筒部120内の光学素子を透過した画像光Lを受け、内部にて導くものである。導光部121には、当該光学素子の光軸に沿う画像光Lを、使用者の眼Eの前方に向かって反射させる反射面121aが形成されている。反射面121aで反射した画像光Lは、導光部121内でさらに複数回反射しつつ導光される。導光部121は、このような導光機能と、使用者に風景を透かして視認させる透視機能とを有する。透過部122は、導光部121と接合され、導光部121の透視機能を補助するものである。導光部121と透過部122との間には、ハーフミラー層123が形成されている。ハーフミラー層123の透過率を調整することで、透視される風景に対する虚像Vの表示見栄えが調整される。   The light guiding portion 121 receives the image light L transmitted through the optical element in the lens barrel portion 120 and guides the light L inside. The light guiding portion 121 is formed with a reflecting surface 121 a that reflects the image light L along the optical axis of the optical element toward the front of the eye E of the user. The image light L reflected by the reflective surface 121 a is guided while being reflected a plurality of times in the light guide portion 121. The light guide portion 121 has such a light guide function and a see-through function for allowing the user to see through the scenery. The transmitting unit 122 is joined to the light guiding unit 121 and assists the fluoroscopic function of the light guiding unit 121. A half mirror layer 123 is formed between the light guide portion 121 and the transmission portion 122. By adjusting the transmittance of the half mirror layer 123, the display appearance of the virtual image V with respect to the scene to be seen through is adjusted.

ここで、図3を参照して、画像光Lの光路について簡潔に説明する。なお、図2に点線で表した画像光Lは、模式的に示したものである。
第1表示部10において、表示素子11が導光装置12に向かって射出した画像光L(L1)は、鏡筒部120内の光学素子を透過することで収束されて、導光部121に入射する。導光部121に入射した画像光Lは、反射面121aで反射した後に、さらに複数回反射してからハーフミラー層123に入射する。なお、複数回の反射の過程において導光部121中に中間像が形成される。ハーフミラー層123に入射した画像光Lの一部は、ハーフミラー層123で反射した後に導光部121から射出され、使用者の右眼E1に到達する。これにより、使用者は、導光部121及び透過部122を介した前方に、画像光Lに基づく虚像V(V1)を視認する。つまり、使用者は、表示素子11が表示した画像を虚像Vとして視認する。なお、同様に、第2表示部20において、表示素子21が導光装置22に向かって射出した画像光L(L2)は、使用者の左眼E2に到達し、虚像V(V2)として視認される。
Here, the optical path of the image light L will be briefly described with reference to FIG. The image light L represented by a dotted line in FIG. 2 is schematically shown.
In the first display unit 10, the image light L (L1) emitted from the display element 11 toward the light guiding device 12 is converged by passing through the optical element in the lens barrel 120, and is transmitted to the light guiding unit 121. It will be incident. The image light L incident on the light guiding portion 121 is reflected by the reflecting surface 121 a, and is further reflected a plurality of times before entering the half mirror layer 123. In addition, an intermediate image is formed in the light guide portion 121 in the process of a plurality of reflections. A part of the image light L incident on the half mirror layer 123 is reflected by the half mirror layer 123 and then emitted from the light guide 121 to reach the right eye E1 of the user. Thereby, the user visually recognizes a virtual image V (V1) based on the image light L in front of the light guide 121 and the transmission unit 122. That is, the user visually recognizes the image displayed by the display element 11 as the virtual image V. Similarly, in the second display unit 20, the image light L (L2) emitted by the display element 21 toward the light guiding device 22 reaches the user's left eye E2 and is visually recognized as a virtual image V (V2). Be done.

図2に戻って、内カメラ31は、使用者の眼球に関する情報を取得するための構成であり、制御装置2の制御により使用者の顔(主に眼E)を撮像する。内カメラ31は、例えば、リム30aにおける内側(使用者の顔と対向する位置)に設けられている。内カメラ31は、右眼E1と左眼E2の各々に対応して設けられている。なお、内カメラ31は、1つの眼を複数の方向から撮像するために、当該1つの眼に対して複数設けられていることが好ましい。例えば、内カメラ31は、右眼E1を互いに異なる方向から撮像する2つのカメラと、左眼E2を互いに異なる方向から撮像する2つのカメラとの計4つのカメラから構成することができる。内カメラ31は、撮像した右眼E1と左眼E2を含む撮像画像のデータ(以下、内側撮像データD1と言う)を制御装置2へと供給する。   Returning to FIG. 2, the inner camera 31 is configured to acquire information on the eyeballs of the user, and images the face (mainly the eye E) of the user under the control of the control device 2. The inner camera 31 is provided, for example, on the inner side of the rim 30a (a position facing the user's face). The inner camera 31 is provided corresponding to each of the right eye E1 and the left eye E2. In addition, in order to image one eye from a plurality of directions, it is preferable that a plurality of inner cameras 31 be provided for the one eye. For example, the inner camera 31 can be configured by four cameras in total: two cameras that capture the right eye E1 from different directions and two cameras that capture the left eye E2 from different directions. The inner camera 31 supplies data of a captured image including the captured right eye E1 and the left eye E2 (hereinafter, referred to as inner captured data D1) to the control device 2.

モーションセンサ32は、画像光生成装置1の動きや向き、つまり画像光生成装置1を装着した使用者の顔の動きや向きを検出する。モーションセンサ32は、例えば、加速度センサ、ジャイロセンサ及び地磁気センサのうち1つ又は複数の組み合わせからなり、検出結果を示すデータ(以下、動きデータD2と言う)を制御装置2へと供給する。   The motion sensor 32 detects the movement and orientation of the image light generation device 1, that is, the movement and orientation of the face of the user wearing the image light generation device 1. The motion sensor 32 includes, for example, one or more of an acceleration sensor, a gyro sensor, and a geomagnetic sensor, and supplies data (hereinafter referred to as motion data D2) indicating a detection result to the control device 2.

外カメラ33は、使用者が視認する風景に関する情報を取得するための構成であり、制御装置2の制御により使用者が導光装置12、22を透かして見る風景を撮像する。外カメラ33は、例えばステレオカメラとして構成され、図1に示すように、リム30aの外側における左右端部の各々に設けられている。外カメラ33は、撮像した撮像画像のデータ(以下、外側撮像データと言う)を制御装置2へと供給する。   The outside camera 33 is a configuration for acquiring information related to a landscape visually recognized by the user, and controls the control device 2 to capture an image of the scenery seen through the light guiding devices 12 and 22 by the user. The outer camera 33 is configured, for example, as a stereo camera, and as shown in FIG. 1, is provided at each of left and right end portions on the outer side of the rim 30a. The outer camera 33 supplies data of the captured image (hereinafter, referred to as outer captured data) to the control device 2.

制御装置2は、例えば、使用者が画像光生成装置1の各種操作を行うコントローラとして構成され、図示しないインターフェース(I/F)を介して、画像光生成装置1と無線又は有線により通信を行う。無線通信としては、Bluetooth(登録商標)、UWB(Ultra Wide Band)、Z−Wave、ZigBeeなどの規格に準拠した方式を用いることができる。また、有線通信としては、USB(Universal Serial Bus)などの公知の方式を用いることができる。なお、制御装置2は、画像光生成装置1に組み込まれていてもよい。   The control device 2 is configured, for example, as a controller that allows the user to perform various operations of the image light generation device 1, and communicates with the image light generation device 1 wirelessly or by wire via an interface (I / F) not shown. . As wireless communication, a method based on standards such as Bluetooth (registered trademark), UWB (Ultra Wide Band), Z-Wave, and ZigBee can be used. Further, as wired communication, a known method such as USB (Universal Serial Bus) can be used. The control device 2 may be incorporated in the image light generating device 1.

制御装置2は、制御部40と、通信部50とを備える。また、制御装置2は、図示しない構成として、動作電力を供給する電源や、使用者の操作を受け付ける操作部や、画像光生成装置1と通信を行うためのインターフェースなどを備える。   The control device 2 includes a control unit 40 and a communication unit 50. In addition, the control device 2 includes a power supply that supplies operating power, an operation unit that receives an operation of a user, an interface for communicating with the image light generation device 1, and the like as a configuration not shown.

通信部50は、表示装置100の外部装置と有線又は無線により通信を行うものであり、例えば、有線用のインターフェースや、アンテナ及び高周波回路等を有する無線通信用モジュールを含んで構成されている。利用可能な有線又は無線の通信方式は、前述と同様である。   The communication unit 50 communicates with an external device of the display device 100 in a wired or wireless manner, and includes, for example, a wired interface, a wireless communication module having an antenna, a high frequency circuit, and the like. The available wired or wireless communication schemes are the same as described above.

通信部50は、使用者が搭乗する車両に搭載された車載装置200と通信を行い、当該車両に関する各種情報(以下、車両情報と言う)を受信する。車両情報は、車両自体の情報だけでなく車外の情報も含む。この実施形態における虚像Vは、主に車両情報を使用者に報知するために表示される。車載装置200は、例えば、車両の各部を制御するECU(Electronic Control Unit)、カーナビゲーション装置、複合計器などから構成されている。通信部50は、車両情報として、車速データD3や、現在の自車位置及び決定した案内経路に関するナビゲーションデータなどを車載装置200から受信する。また、通信部50は、車載装置200から虚像Vとして表示させる画像データの少なくとも一部を受信してもよい。また、通信部50は、携帯端末300と通信を行い、当該携帯端末300によるコンテンツデータ(画像データ、音声データ等)を受信してもよい。例えば、当該コンテンツデータは、ナビゲーション機能を有する携帯端末300からのナビゲーションデータを含んでいてもよい。   The communication unit 50 communicates with the in-vehicle device 200 mounted on a vehicle on which the user boarding, and receives various information (hereinafter referred to as vehicle information) regarding the vehicle. Vehicle information includes not only information on the vehicle itself but also information on the outside of the vehicle. The virtual image V in this embodiment is displayed mainly to notify the user of the vehicle information. The in-vehicle device 200 is configured of, for example, an electronic control unit (ECU) that controls each part of the vehicle, a car navigation device, a complex instrument, and the like. The communication unit 50 receives, as vehicle information, vehicle speed data D3 and navigation data regarding the current vehicle position and the determined guide route from the in-vehicle apparatus 200. Further, the communication unit 50 may receive at least a part of the image data to be displayed as the virtual image V from the in-vehicle apparatus 200. The communication unit 50 may communicate with the mobile terminal 300 and receive content data (image data, audio data, etc.) by the mobile terminal 300. For example, the content data may include navigation data from a portable terminal 300 having a navigation function.

制御部40は、CPU(Central Processing Unit)41と、記憶部42と、図示しない表示制御部(グラフィックコントローラ)と、を備える。なお、制御部40の一部は、ASIC(Application Specific Integrated Circuit)などの専用回路によって構成されていてもよい。   The control unit 40 includes a central processing unit (CPU) 41, a storage unit 42, and a display control unit (graphic controller) not shown. Note that a part of the control unit 40 may be configured by a dedicated circuit such as an application specific integrated circuit (ASIC).

記憶部42は、制御メモリとしてのROM(Read Only Memory)及びRAM(Random Access Memory)や、ビデオメモリとして画像データを記憶する不揮発性メモリなどから構成されている。ROMは、動作プログラム(後述の表示形態切替処理を実行するためのプログラムPGなど)や固定データを予め記憶する。RAMは、各種の演算結果などを一時的に記憶する。例えば、RAMには、後述の表示形態切替処理における判別結果や決定結果を示すデータなどが記憶される。   The storage unit 42 includes a ROM (Read Only Memory) and a RAM (Random Access Memory) as a control memory, and a non-volatile memory for storing image data as a video memory. The ROM stores in advance an operation program (a program PG or the like for executing a display mode switching process described later) and fixed data. The RAM temporarily stores various calculation results and the like. For example, the RAM stores data indicating the determination result or the determination result in the display mode switching process described later.

CPU41は、記憶部42のROMから読み出した動作プログラムや固定データを用いて、表示装置100の全体動作を制御するための処理を実行する。このときには、CPU41がROMから固定データを読み出す固定データ読出動作や、CPU41が記憶部42のRAMに各種データを書き込んで一時記憶させるデータ書込動作、CPU41がRAMに一時記憶されている各種データを読み出すデータ読出動作、CPU41が画像光生成装置1や、車載装置200などの外部装置と通信するための送受信動作などが行われる。   The CPU 41 executes processing for controlling the overall operation of the display device 100 using the operation program and fixed data read from the ROM of the storage unit 42. At this time, a fixed data read operation in which the CPU 41 reads fixed data from the ROM, a data write operation in which the CPU 41 writes various data in the RAM of the storage unit 42 and temporarily stores them, and the various data temporarily stored in the RAM by the CPU 41 A data read operation for reading out, a transmission / reception operation for the CPU 41 to communicate with the image light generating device 1 and an external device such as the on-vehicle device 200 are performed.

また、CPU41は、表示制御部を介して、ビデオメモリに記憶された画像(映像)データに基づき、画像光生成装置1(第1表示部10、第2表示部20)の表示制御(画像光Lの生成制御)を行う。つまり、CPU41は、表示制御部を介して、虚像Vとして視認される重畳画像の表示制御を行う。また、CPU41は、外カメラ33から取得した外側撮像データに基づいて、風景内に実在する対象物OB(図6参照)までの距離などを含む奥行き情報を算出する。CPU41は、算出した奥行き情報に応じて、対象物OBに重畳表示するコンテンツ画像(各種報知を行うための画像)の位置やサイズを制御する。コンテンツ画像は、各種報知を行うための画像であり、後述する車速画像C1、経路案内画像C2、時刻画像C3などである。コンテンツ画像は、表示可能領域である重畳画像(虚像V)に含まれる画像である。なお、以下では、所定の対象物OBに重畳表示されるコンテンツ画像を「AR(Augmented Reality)表示」と呼び、当該所定の対象物OBを「AR対象」とも呼ぶ。   In addition, the CPU 41 controls display (image light) of the image light generation device 1 (first display unit 10, second display unit 20) based on image (video) data stored in the video memory via the display control unit. Control the generation of L). That is, the CPU 41 performs display control of the superimposed image visually recognized as the virtual image V through the display control unit. Further, based on the outside imaging data acquired from the outside camera 33, the CPU 41 calculates depth information including the distance to the object OB (see FIG. 6) existing in the landscape. The CPU 41 controls the position and the size of the content image (image for performing various types of notification) to be superimposed and displayed on the object OB according to the calculated depth information. The content image is an image for performing various notifications, and includes a vehicle speed image C1, a route guidance image C2, and a time image C3 described later. The content image is an image included in the superimposed image (virtual image V) which is a displayable area. Hereinafter, the content image superimposed and displayed on the predetermined object OB will be referred to as “AR (Augmented Reality) display”, and the predetermined object OB will also be referred to as “AR object”.

ここで、上記の課題で述べたように、HMDとして構成される表示装置100は、使用者にとっては自身の注視位置(注視距離G)に応じて重畳画像のサイズが変化したように感じるという特性がある。当該特性により使用者は、例えば図4に示すように注視距離Gが所定値Pから、2倍の2Pとなると、重畳画像のサイズが概ね2倍となったように認識する。このように、使用者の認識上では、注視距離Gに概ね比例して重畳画像のサイズが変化する。   Here, as described in the above task, the display device 100 configured as the HMD has a characteristic that the user feels that the size of the superimposed image has changed according to the gaze position (gaze distance G) of the user. There is. With this characteristic, the user recognizes that the size of the superimposed image is approximately doubled, for example, as shown in FIG. Thus, in recognition of the user, the size of the superimposed image changes in proportion to the gaze distance G.

上記の特性により、図5に示すように、車両を運転中に重畳画像(虚像V)を視認している使用者が、近方位置P1から遠方位置P2に視線を移動させると、重畳画像内に含まれる所定のコンテンツ画像C(図5の例では「40km/h」を示す画像)が急に大きくなったように感じ、視界を妨げたり、煩雑さを感じさせたりしてしまい、状況に応じた適切な表示を行うことができなくなる場合がある。なお、図5では、風景に重畳される重畳画像の理解を容易にするため、車両のフロントガラス4を透かして視認される風景として走行車線5を描いている。使用者が注視する対象物OBは、注視位置に応じて、車両のダッシュボード6近傍であったり、走行車線5であったり、走行車線5内の先行車7であったりする。   Due to the above-mentioned characteristics, as shown in FIG. 5, when the user viewing the superimposed image (virtual image V) while driving the vehicle moves the sight line from the near position P1 to the far position P2, It seems that the predetermined content image C (image showing “40 km / h” in the example of FIG. 5) included in the image suddenly becomes large, obstructing the visual field or making the user feel complicated. In some cases, it may not be possible to make an appropriate display accordingly. In FIG. 5, in order to facilitate understanding of the superimposed image superimposed on the landscape, the traveling lane 5 is depicted as a landscape visually recognized through the windshield 4 of the vehicle. The object OB to be gazed by the user may be in the vicinity of the dashboard 6 of the vehicle, the driving lane 5, or the leading vehicle 7 in the driving lane 5, depending on the gaze position.

この実施形態では、状況に応じた適切な表示を行うために、使用者の注視位置が遠方か近方かに応じて、重畳画像の表示形態を切り替える。まず、使用者の注視距離Gが遠方か近方かの判別手法を説明する。一例として、下記(i)〜(iii)のようにして注視距離Gが判別される。   In this embodiment, the display form of the superimposed image is switched according to whether the gaze position of the user is far or near, in order to appropriately display according to the situation. First, a method of determining whether the user's gaze distance G is far or near will be described. As an example, the gaze distance G is determined as in the following (i) to (iii).

(i)CPU41は、内カメラ31から取得した内側撮像データD1に基づいて、使用者の眼Eから注視している対象物OBまでの距離である注視距離Gを推定する。例えば、CPU41は、内側撮像データD1に含まれる右眼E1と左眼E2の各々の画像に対して公知の画像処理を実行し、図6(a)に示す、使用者の右眼E1及び左眼E2の瞳孔間距離Wと、輻輳角αとを算出する。そして、三角関数を用い、算出した瞳孔間距離W及び輻輳角αから注視距離Gを算出(推定)する。なお、注視距離Gを算出する手法は任意であり、公知の手法を適宜使用することができる。例えば、フレーム30に眼電位センサを設け、測定した眼電位と内側撮像データD1との少なくともいずれかを用いて、注視距離Gを算出してもよい。また、数式によらず、推定される注視距離Gと輻輳角αなどが対応付けられたテーブルデータを参照して、推定される注視距離Gを取得してもよい。注視距離Gの推定に用いられる数式やテーブルデータは、予め記憶部42のROMに格納しておけばよい。CPU41は、このように算出した注視距離Gが、予めROM内に記憶した設定距離以上である場合に使用者が遠方を見ていると判別し、設定距離未満である場合に使用者が近方を見ていると判別する。 (I) The CPU 41 estimates a gaze distance G, which is the distance from the user's eye E to the object OB being gazed, based on the inside imaging data D1 acquired from the inner camera 31. For example, the CPU 41 executes known image processing on the images of the right eye E1 and the left eye E2 included in the inside imaging data D1, and shown in FIG. 6A, the right eye E1 and the left of the user. The interpupillary distance W of the eye E2 and the convergence angle α are calculated. Then, using the trigonometric function, the gaze distance G is calculated (estimated) from the calculated inter-pupil distance W and the convergence angle α. In addition, the method of calculating the gaze distance G is arbitrary, and a well-known method can be used suitably. For example, an eye potential sensor may be provided in the frame 30, and the gaze distance G may be calculated using at least one of the measured eye potential and the inner imaging data D1. Further, the estimated gaze distance G may be acquired by referring to table data in which the estimated gaze distance G and the convergence angle α are associated with each other without using the equation. Formulas and table data used to estimate the gaze distance G may be stored in the ROM of the storage unit 42 in advance. The CPU 41 determines that the user is looking at a distance when the gaze distance G calculated in this manner is equal to or greater than the set distance stored in advance in the ROM, and the user is closer when the gaze distance G is less than the set distance. Determine that you are looking at

(ii)また、CPU41は、モーションセンサ32から取得した動きデータD2に基づいて、使用者の顔向きに関する情報を公知の手法により算出する。この実施形態では一例として、動きデータD2に基づき、図6(b)に示すように、使用者が水平方向を見た場合を基準とした仰角θを算出する。なお、図6(b)では、水平方向に沿う軸をX軸、鉛直方向に沿う軸をY軸としている。CPU41は、このように算出した仰角θが、予めROM内に記憶した設定角度β以上である場合に使用者が遠方を見ていると判別し、設定角度β未満である場合に使用者が近方を見ていると判別する。 (Ii) Further, based on the motion data D2 acquired from the motion sensor 32, the CPU 41 calculates information on the face orientation of the user by a known method. In this embodiment, as an example, based on the motion data D2, as shown in FIG. 6B, the elevation angle θ is calculated based on the case where the user looks in the horizontal direction. In FIG. 6B, the axis along the horizontal direction is taken as the X axis, and the axis along the vertical direction is taken as the Y axis. The CPU 41 determines that the user is looking at a distance when the elevation angle θ calculated in this manner is equal to or greater than the set angle β stored in advance in the ROM, and the user is closer if the angle is less than the set angle β. Determine that you are looking at

(iii)また、CPU41は、通信部50を介して車載装置200から取得した車速データD3が示す車速が、予めROM内に記憶した設定速度以上である場合に使用者が遠方を見ていると判別し、設定速度未満である場合に使用者が近方を見ていると判別する。当該判別手法は、車速が高いほど運転者は遠方を見るという性質を利用したものである。 (Iii) In addition, if the user is looking at a distance when the vehicle speed indicated by the vehicle speed data D3 acquired from the in-vehicle apparatus 200 via the communication unit 50 is equal to or higher than the set speed stored in advance in the ROM. If it is determined that the speed is less than the set speed, it is determined that the user is looking close. The determination method utilizes the property that the driver looks farther as the vehicle speed is higher.

第1実施形態では、上記のように注視距離Gが遠方か近方かを判別し、遠方と判別した場合には、重畳画像の表示形態を近方用から遠方用へと切り替える。   In the first embodiment, as described above, it is determined whether the gaze distance G is far or near, and when it is determined that the gaze distance G is far, the display form of the superimposed image is switched from near use to far use.

近方用形態は、虚像V(重畳画像)とともに視認する対象物OBが比較的近い場合(例えば、対象物OBがダッシュボード6や、ダッシュボード6近傍から見える走行車線5などである場合)に適した表示形態である。例えば、近方用形態では、図7(a)に示すように、虚像Vの表示領域内における下方中央部に車速画像C1を、下方右側に経路案内画像C2を、上方右側に時刻画像C3の各種コンテンツ画像を表示する。   In the near mode, when the object OB to be viewed with the virtual image V (superimposed image) is relatively close (for example, when the object OB is the dashboard 6 or the traveling lane 5 seen from the vicinity of the dashboard 6) It is a suitable display form. For example, in the near mode, as shown in FIG. 7A, the vehicle speed image C1 is at the lower center in the display area of the virtual image V, the route guidance image C2 is at the lower right, and the time image C3 is at the upper right. Display various content images.

遠方用形態は、虚像Vとともに視認する対象物OBが比較的遠い場合(例えば、対象物OBが走行車線5や、先行車7などである場合)に適した表示形態である。例えば、遠方用形態では、図7(b)に示すように、近方用形態における車速画像C1を縮小表示するとともに、虚像Vの表示領域内における上方左側に移動させる。また、近方用形態における経路案内画像C2を虚像Vの表示領域内における下方中央部に移動させる。また、近方用形態において表示していた時刻画像C3を消去する。なお、遠方用形態では、時刻画像C3を完全に消去せずに、近方用形態の時よりも表示輝度を低下させたり、彩度を低下させたりして視認困難としてもよい。このような遠方用形態により、運転中の視野に適した表示を実現することができる。   The distant form is a display form suitable for the case where the object OB to be viewed together with the virtual image V is relatively far (for example, when the object OB is the traveling lane 5 or the leading vehicle 7). For example, in the far-end mode, as shown in FIG. 7B, the vehicle speed image C1 in the near-end mode is displayed in a reduced size and moved upward to the left in the display area of the virtual image V. Further, the route guidance image C2 in the near mode is moved to the lower central portion in the display area of the virtual image V. Further, the time image C3 displayed in the near mode is deleted. In the far-end mode, the display image may be lowered or the saturation may be lowered compared to the near-end mode without completely erasing the time image C3 to make visibility difficult. With such a far-field configuration, it is possible to realize a display suitable for the visual field during driving.

なお、遠方用形態において、近方用形態では表示されない遠方用コンテンツを表示したり、近方用形態において表示されていたコンテンツを近方用とは異なるデザインで表示したりしてもよい。例えば、図7(c)に示すように、遠方用形態では、カーナビゲーション装置で設定した目的地を示す目的地画像C4を表示したり、車速画像C1を近方用とは異なるデザインで表示したりしてもよい。   In the far-end mode, far-end contents not displayed in the near-end mode may be displayed, or contents displayed in the near-end mode may be displayed in a design different from that for the near-end mode. For example, as shown in FIG. 7C, in the far-field type, the destination image C4 indicating the destination set by the car navigation device is displayed, or the vehicle speed image C1 is displayed in a design different from that for near. You may

表示装置100の構成や重畳画像の説明は以上である。続いて、制御装置2の制御部40(CPU41)により実行される表示形態切替処理の一例を、図8(a)、(b)を参照して説明する。表示形態切替処理は、表示装置100の動作中に所定の制御周期で実行される。なお、表示形態切替処理の開始時は、後述の遠方用フラグがオフ状態となっており、近方用形態における重畳画像(虚像V)を表示するものとする。   The configuration of the display device 100 and the superimposed image have been described above. Subsequently, an example of the display mode switching process executed by the control unit 40 (CPU 41) of the control device 2 will be described with reference to FIGS. 8 (a) and 8 (b). The display mode switching process is performed in a predetermined control cycle while the display device 100 is in operation. At the start of the display mode switching process, the distance flag described later is in the OFF state, and the superimposed image (virtual image V) in the near mode is displayed.

図8(a)に示す表示形態切替処理を開始すると、まず、制御部40は、内カメラ31から内側撮像データD1を取得し、モーションセンサ32から動きデータD2を取得し、車載装置200から車速データD3を取得する(ステップS1)。   When the display mode switching process shown in FIG. 8A is started, first, the control unit 40 acquires the inside imaging data D1 from the inner camera 31, acquires the movement data D2 from the motion sensor 32, and the vehicle speed from the in-vehicle device 200. Data D3 is acquired (step S1).

続いて、制御部40は、注視距離推定処理を実行し(ステップS2)、図8(b)に示すステップS21の処理へ移行する。ステップS21では、取得した内側撮像データD1に基づいて注視距離Gを算出し、算出した注視距離Gが予めROM内に記憶した設定距離以上であるか否かを判別する。算出した注視距離Gが設定距離以上の場合(ステップS21;Yes)、制御部40は、推定される注視距離Gが遠方であることを示す遠方用フラグをオン状態にセットする(ステップS24)。遠方用フラグは、RAM内のフラグ格納領域に記憶される。   Subsequently, the control unit 40 executes gaze distance estimation processing (step S2), and shifts to the processing of step S21 shown in FIG. 8 (b). In step S21, the gaze distance G is calculated based on the acquired inside imaging data D1, and it is determined whether the calculated gaze distance G is equal to or greater than the set distance stored in advance in the ROM. If the calculated gaze distance G is equal to or greater than the set distance (step S21; Yes), the control unit 40 sets a far flag indicating that the estimated gaze distance G is far (step S24). The flag for distance is stored in a flag storage area in the RAM.

ステップS21で算出した注視距離Gが設定距離未満の場合(ステップS21;No)、制御部40は、取得した動きデータD2に基づいて、使用者の顔向き角度を示す仰角θを算出し、算出した仰角θが予めROM内に記憶した設定角度β以上であるか否かを判別する(ステップS22)。算出した仰角θが設定角度β以上の場合(ステップS22;Yes)、制御部40は、遠方用フラグをオン状態にセットする(ステップS24)。   If the gaze distance G calculated in step S21 is less than the set distance (step S21; No), the control unit 40 calculates and calculates the elevation angle θ indicating the face orientation angle of the user based on the acquired motion data D2 It is determined whether or not the elevation angle θ is equal to or greater than the set angle β stored in advance in the ROM (step S22). If the calculated elevation angle θ is equal to or greater than the set angle β (step S22; Yes), the control unit 40 sets the distance flag to the on state (step S24).

ステップS22で算出した仰角θが設定角度β未満の場合(ステップS22;No)、制御部40は、取得した車速データD3が示す車速が予めROM内に記憶した設定速度以上であるか否かを判別する(ステップS23)。車速が設定速度以上の場合(ステップS23;Yes)、制御部40は、遠方用フラグをオン状態にセットする(ステップS24)。つまり、ステップS21、S22、S23のいずれでYesとなった場合も遠方用フラグがオン状態となり、推定した注視距離Gが所定距離よりも遠い遠距離であることを示すことになる。
一方で、車速が設定速度未満の場合(ステップS23;No)、制御部40は、遠方用フラグをオフ状態にクリアする(ステップS25)。
If the elevation angle θ calculated in step S22 is less than the set angle β (step S22; No), the control unit 40 determines whether the vehicle speed indicated by the acquired vehicle speed data D3 is equal to or greater than the set speed stored in advance in the ROM. It discriminates (step S23). If the vehicle speed is equal to or higher than the set speed (step S23; Yes), the control unit 40 sets the distance flag to the on state (step S24). That is, the flag for distance is also in the on state when any of the steps S21, S22, and S23 is Yes, which indicates that the estimated gaze distance G is far from the predetermined distance.
On the other hand, when the vehicle speed is less than the set speed (step S23; No), the control unit 40 clears the distance flag to the off state (step S25).

以上の注視距離推定処理を実行すると(ステップS2)、制御部40は、推定される注視距離Gが遠方であるか否かを判別する(ステップS3)。制御部40は、遠方用フラグがオン状態である場合、推定される注視距離Gが遠方であると判別し(ステップS3;Yes)、遠方用フラグがオフ状態である場合、推定される注視距離Gが近方であると判別する(ステップS3;No)。   When the gaze distance estimation process described above is executed (step S2), the control unit 40 determines whether the gaze distance G to be estimated is far (step S3). The control unit 40 determines that the estimated gaze distance G is far when the distance flag is in the on state (step S3; Yes), and the estimated gaze distance when the distance flag is in the off state. It is determined that G is close (step S3; No).

注視距離Gが遠方である場合(ステップS3;Yes)、制御部40は、画像光生成装置1を表示制御し、重畳画像を遠方用形態で表示する(ステップS4)。例えば、図7(a)に示す近方用形態で表示されていた場合には、制御部40は、重畳画像を近方用形態から、図7(b)又は図7(c)に示す遠方用形態に切り替える表示制御を行う。   If the gaze distance G is far (step S3; Yes), the control unit 40 controls the display of the image light generation device 1 and displays the superimposed image in the far form (step S4). For example, when displayed in the near form shown in FIG. 7 (a), the control unit 40 displays the superimposed image from the near use form as shown in FIG. 7 (b) or FIG. 7 (c). Perform display control to switch to the application form.

一方、注視距離Gが近方である場合(ステップS3;No)、制御部40は、画像光生成装置1を表示制御し、重畳画像を近方用形態で表示する(ステップS5)。例えば、図7(a)に示す近方用形態で表示されていた場合には、当該近方用形態での表示を継続する。また、図7(b)又は図7(c)に示す遠方用形態に切り替えられていた場合には、制御部40は、重畳画像を遠方用形態から、図7(a)に示す近方用形態へと戻す(切り替える)表示制御を行う。制御部40は、例えば、ユーザによる停止操作を受け付けるまで、以上の表示形態切替処理を継続して実行する。第1実施形態の説明は以上である。   On the other hand, when the gaze distance G is near (step S3; No), the control unit 40 controls the display of the image light generation device 1 and displays the superimposed image in the near form (step S5). For example, when it is displayed in the near mode shown in FIG. 7A, the display in the near mode is continued. When the mode is switched to the distant mode shown in FIG. 7 (b) or FIG. 7 (c), the control unit 40 changes the superimposed image from the distant mode to the near mode shown in FIG. 7 (a). Perform display control to switch back to the form (switch). For example, the control unit 40 continuously executes the display mode switching process described above until receiving a stop operation by the user. The description of the first embodiment is as described above.

ここからは、重畳画像の近方用及び遠方用形態が、第1実施形態と異なる他の実施形態について説明する。なお、以下の実施形態は、第1実施形態と表示装置100の構成については同様であり、主に画像処理が異なる。したがって、以下では、第1実施形態と同様の各構成については第1実施形態と同一の符号を用いて説明するとともに、第1実施形態と異なる点を中心に説明する。   From here, other embodiments in which the near and far forms of the superimposed image are different from the first embodiment will be described. Note that the following embodiments are the same as the first embodiment and the configuration of the display apparatus 100, and mainly differ in image processing. Therefore, in the following, each configuration similar to that of the first embodiment will be described using the same reference numeral as that of the first embodiment, and points different from the first embodiment will be mainly described.

(第2実施形態)
第2実施形態では、遠方用形態として、図9(a)に示すような重畳画像VF(以下、遠方用画像VFとも言う)が、表示形態切替処理の開始時に表示される。図9(a)に示す遠方用画像VFは、その表示領域内に、経路案内画像C5と、警告画像C6とを表示している。同図では、経路案内画像C5としての矢印表示が分岐路左側の車線に重畳され、左折を促す例を示している。また、警告画像C6は、例えば先行車7の存在を強調するためのものであり、実景として見える先行車7に重畳した位置に表示される。
Second Embodiment
In the second embodiment, a superimposed image VF (hereinafter, also referred to as a distant image VF) as shown in FIG. 9A is displayed at the start of the display mode switching process as the distant mode. The distant image VF shown in FIG. 9A displays a route guidance image C5 and a warning image C6 in the display area. In the figure, the arrow display as the route guidance image C5 is superimposed on the lane on the left side of the branch road, and an example in which a left turn is urged is shown. Further, the warning image C6 is, for example, for emphasizing the presence of the leading vehicle 7, and is displayed at a position superimposed on the leading vehicle 7 viewed as a real view.

使用者が注視位置を遠方用画像VFに適した遠方から近方に変化させると、図4を参照して説明した特性により、遠方時よりも小さいサイズの画像として認識する。そうすると、図9(b)に示すように、経路案内画像C5や警告画像C6が実際に重畳させたい対象からずれてしまう場合があり、運転の妨げとなってしまう。つまり、使用者が注視位置を遠方から近方に変化させると、AR対象に対してのAR表示のずれ(以下、「ARずれ」と言う)が生じる場合がある。   When the user changes the gaze position from a distance to a near position suitable for the distance image VF, it is recognized as an image of a size smaller than that at the time of the distance due to the characteristics described with reference to FIG. Then, as shown in FIG. 9B, the route guidance image C5 and the warning image C6 may be deviated from an object to be actually superimposed, which hinders driving. That is, when the user changes the gaze position from a distance to a near position, a shift of the AR display with respect to the AR target (hereinafter, referred to as “AR shift”) may occur.

このような問題を解消すべく、第2実施形態では、近方と判別した場合には、重畳画像の表示形態を遠方用画像VFから、遠方用画像VFに画像処理を施して作成される近方用の重畳画像VN(以下、近方用画像VNとも言う)へと切り替える。近方用画像VNの作成手順について、図10(a)〜(c)を参照して説明する。   In order to solve such a problem, in the second embodiment, when it is determined that the image is near, the display mode of the superimposed image is generated from the image VF for distance and the image VF for distance is generated. The image is switched to the superimposed image VN for the user (hereinafter, also referred to as a near image VN). The procedure for creating the near direction image VN will be described with reference to FIGS. 10 (a) to 10 (c).

近方用画像VNを作成する際には、制御部40は、まず、近方視認時の認識画像サイズSnを算出する。例えば、制御部40は、前述のように内カメラ31から取得した内側撮像データD1に基づいて、使用者の近方視認時の注視距離Gnを算出する。なお、後述するように、近方視認時の注視距離Gnは、ステップS21でNoと判別される場合の注視距離として取得できる。制御部40は、ROM内に、遠方用画像VFの設定画像サイズS0と基準注視距離G0とを示すデータを予め記憶しており、当該データに基づき、例えば、Sn=(Gn/G0)・S0の式により近方時の認識画像サイズSnを算出する。図10(a)では、点線で示す画像のサイズがSnに相当する。なお、制御部40は、Snをこのように随時算出しなくともよい。例えば、想定される画像サイズとしてSnを予めROM内に記憶しておき、制御部40は、ROMからSnを取得してもよい。   When creating the near direction image VN, the control unit 40 first calculates the recognized image size Sn in the near view. For example, the control unit 40 calculates the gaze distance Gn at the time of the near vision of the user based on the inside imaging data D1 acquired from the inner camera 31 as described above. As described later, the gaze distance Gn at the time of near vision can be acquired as the gaze distance when it is determined No in step S21. The control unit 40 previously stores data indicating the set image size S0 of the image VF for distance and the reference gaze distance G0 in the ROM, and based on the data, for example, Sn = (Gn / G0) · S0 The recognition image size Sn at the near time is calculated by the following equation. In FIG. 10A, the size of the image indicated by the dotted line corresponds to Sn. The control unit 40 does not have to calculate Sn at this time as needed. For example, Sn may be stored in advance in the ROM as an assumed image size, and the control unit 40 may obtain Sn from the ROM.

続いて、制御部40は、算出又は取得したSnに基づき、図10(b)に示すように、現在表示している遠方用画像VFと、近方視認時の認識画像サイズSnの画像との差分領域VDを抽出する。   Subsequently, based on the calculated or acquired Sn, as shown in FIG. 10 (b), the control unit 40 displays the distant image VF currently displayed and the image of the recognition image size Sn at the time of near vision. The difference area VD is extracted.

続いて、制御部40は、図10(c)に示すように、遠方用画像VFから差分領域VDを削除して、近方用画像VNを生成し、画像光生成装置1に表示させる。なお、図10(c)では、削除された部分を点線で表現している。このようにすることで、注視位置が遠方から近方に移った場合に、ARずれが発生した画像(経路案内画像C5と、警告画像C6)が視認不能になるため、運転の妨げとなる表示を抑制することができる。なお、表示形態切替処理により、使用者の注視位置が遠方に戻った場合は、遠方用画像VFに切り替わるため、再び、経路案内画像C5や警告画像C6などのAR表示を適切に視認できる。   Subsequently, as shown in FIG. 10C, the control unit 40 deletes the difference area VD from the image for distance VF, generates the image for near direction VN, and causes the image light generation device 1 to display the image for near. In FIG. 10 (c), the deleted part is represented by a dotted line. In this way, when the gaze position shifts from a distance to a near position, the image (route guidance image C5 and the warning image C6) in which the AR shift has occurred becomes unviewable, and thus the display becomes an obstacle to driving. Can be suppressed. When the user's gaze position returns to the distant place by the display mode switching processing, the display switches to the distant image VF, so that the AR display such as the route guidance image C5 or the warning image C6 can be appropriately viewed again.

また、制御部40は、近方用画像VNにおいて、図10(c)に示すように、差分領域VDに表示されていたコンテンツ(経路案内画像C5と、警告画像C6)の方向へと使用者の視線を誘導する態様の誘導画像C7を表示してもよい。こうすれば、近方用画像VNを視認している使用者に、より遠方を見ればAR表示が存在することを報知することができるため、ユーザフレンドリである。   Further, as shown in FIG. 10C, in the near image VN, the control unit 40 causes the user to move in the direction of the content (the route guidance image C5 and the warning image C6) displayed in the difference area VD. A guidance image C7 may be displayed in a manner of guiding the gaze of the subject. This makes it possible to notify the user viewing the near image VN that the AR display is present if looking further from the distance, which is user friendly.

続いて、第2実施形態に係る表示形態切替処理の一例を、図8(a)、(b)を参照して説明する。第2実施形態では、表示形態切替処理の開始時は、遠方用フラグがオン状態となっており、遠方用形態における重畳画像(遠方用画像VF)を表示するものとする。   Subsequently, an example of the display mode switching process according to the second embodiment will be described with reference to FIGS. 8 (a) and 8 (b). In the second embodiment, when the display mode switching process is started, the distance flag is in the on state, and the superimposed image (image for distance VF) in the mode for distance is displayed.

制御部40は、図8(a)に示す表示形態切替処理を開始すると、第1実施形態と同様に、各種データを取得し(ステップS1)、続いて、注視距離推定処理(ステップS2)を図8(b)に示す処理手順に従って実行する。   When the display mode switching process shown in FIG. 8A is started, the control unit 40 acquires various data (step S1) as in the first embodiment, and then the gaze distance estimation process (step S2) is performed. It executes according to the processing procedure shown in FIG.

続いて、制御部40は、遠方用フラグを参照し、推定される注視距離Gが遠方であるか否かを判別する(ステップS3)。推定される注視距離Gが遠方でない場合(ステップS3;No)、つまり近方である場合、重畳画像を近方用形態で表示する(ステップS5)。ここで、制御部40は、例えば、遠方用フラグをオフ状態にクリアする(ステップS25)直前に、ステップS21で算出した注視距離を近方視認時の注視距離Gnとし、前述のように、近方時の認識画像サイズSnを算出する。そして、制御部40は、算出した認識画像サイズSnに基づき、図10(b)に示す差分領域VDを抽出し、遠方用画像VFから差分領域VDを削除して、図10(c)に示す近方用画像VNを生成し、画像光生成装置1に表示させる。また、近方用画像VNの表示制御において、制御部40は、差分領域VDに表示されていたコンテンツ(経路案内画像C5と、警告画像C6)の方向へと使用者の視線を誘導する誘導画像C7を近方用画像VN内に表示させる。これにより、例えば、重畳画像として、図10(a)に示す遠方用画像VFが表示されていた場合には、図10(c)に示す近方用画像VNに切り替わる。   Subsequently, the control unit 40 refers to the flag for distance and determines whether the gaze distance G estimated is distant (step S3). If the gaze distance G to be estimated is not far (step S3; No), that is, if it is near, the superimposed image is displayed in the near form (step S5). Here, for example, immediately before clearing the distance flag to the off state (step S25), the control unit 40 sets the gaze distance calculated in step S21 as the gaze distance Gn at the time of near vision, as described above. The size of the recognized image Sn is calculated. Then, the control unit 40 extracts the difference area VD shown in FIG. 10B based on the calculated recognition image size Sn, deletes the difference area VD from the image for distance VF, and displays the difference area VD as shown in FIG. The near image VN is generated and displayed on the image light generating device 1. Further, in the display control of the near image VN, the control unit 40 guides the user's gaze in the direction of the content (the route guidance image C5 and the warning image C6) displayed in the difference area VD. C7 is displayed in the near image VN. Thereby, for example, when the image for distance VF shown in FIG. 10A is displayed as the superimposed image, the image is switched to the image for near VN shown in FIG.

一方、推定される注視距離Gが遠方である場合(ステップS3;Yes)、重畳画像を遠方用形態で表示する(ステップS4)。例えば、図10(a)に示す遠方用画像VFが表示されていた場合には、そのまま表示を継続する。また、図10(c)に示す近方用画像VNが表示されていた場合には、制御部40は、近方用画像VNを、図10(a)に示す遠方用画像VFへと戻す(切り替える)表示制御を行う。第2実施形態の説明は以上である。   On the other hand, when the gaze distance G to be estimated is far (step S3; Yes), the superimposed image is displayed in the form for distance (step S4). For example, when the image for distance VF shown in FIG. 10A is displayed, the display is continued as it is. When the near image VN shown in FIG. 10C is displayed, the control unit 40 returns the near image VN to the far image VF shown in FIG. Perform display control. The description of the second embodiment is as described above.

(第3実施形態)
第3実施形態では、使用者が注視位置を遠方から近方に変化させた場合に生じるARずれを、第2実施形態とは異なる近方用画像を用いることによって解消する。第3実施形態では、遠方用形態として、第2実施形態と同様の図9(a)に示す遠方用画像VFが、表示形態切替処理の開始時に表示される。そして、所定の近方と判別した場合には、重畳画像の表示形態を遠方用画像VFから、遠方用画像VFに注視位置誘導画像INを付加表示した形態の近方用画像VMへと切り替える。
Third Embodiment
In the third embodiment, the AR shift that occurs when the user changes the gaze position from near to far is resolved by using a near image that is different from the second embodiment. In the third embodiment, a far-field image VF shown in FIG. 9A similar to that of the second embodiment is displayed at the start of the display mode switching process as the far-field mode. Then, when it is determined that the predetermined proximity is determined, the display mode of the superimposed image is switched from the image VF for distance to the image VM for near direction VM in which the gaze position induced image IN is additionally displayed on the image VF for distance.

注視位置誘導画像INは、遠方用画像VFに応じて設定された設定注視位置へと誘導する態様で表示される。具体的には、注視位置誘導画像INは、図11(a)、(b)に示すように、右眼用の虚像V1内に表示される右眼用画像M1と、左眼用の虚像V2内に表示される左眼用画像M2とから構成される視差画像であり、右眼用画像M1と左眼用画像M2との視差によって、使用者の注視位置を設定注視位置へと誘導する。設定注視位置は、例えば、前記のようにROMに予め記憶された、遠方用画像VFの基準注視距離G0であり、遠方用画像VFにより適切にAR表示するための位置として定められている。   The gaze position induced image IN is displayed in such a manner as to guide to a set gaze position set according to the distance image VF. Specifically, as shown in FIGS. 11A and 11B, the gaze position induction image IN includes the image M1 for the right eye displayed in the virtual image V1 for the right eye and the virtual image V2 for the left eye. The parallax image is configured of the left-eye image M2 displayed inside, and the gaze position of the user is guided to the set gaze position by the parallax between the right-eye image M1 and the left-eye image M2. The set gaze position is, for example, the reference gaze distance G0 of the distance image VF stored in advance in the ROM as described above, and is determined as a position for performing AR display more appropriately by the distance image VF.

制御部40は、右眼用画像M1と左眼用画像M2とに視差を生じさせて、使用者から見て、遠方における設定注視位置に注視位置誘導画像INが表示されるように、右眼用画像M1及び左眼用画像M2の表示制御を行う。例えば、制御部40は、内側撮像データD1に基づいて使用者の右眼E1及び左眼E2の瞳孔間距離Wを算出し、算出した瞳孔間距離Wと基準注視距離G0とから三角関数を用いて、設定注視位置を規定する輻輳角αを算出する。そして、制御部40は、算出した輻輳角αに基づき、設定注視位置に注視位置誘導画像INが表示されるように右眼用画像M1と左眼用画像M2とに視差を生じさせる。なお、視差画像の表示態様や生成手法は任意であり、公知の画像処理法を適宜用いることができる。   The control unit 40 generates a parallax between the right-eye image M1 and the left-eye image M2 so that the gaze-position-guided image IN is displayed at the set gaze position at a distance when viewed from the user. Display control of the image M1 for left eye and the image M2 for left eye is performed. For example, the control unit 40 calculates the inter-pupil distance W of the user's right eye E1 and left eye E2 based on the inside imaging data D1, and uses a trigonometric function from the calculated inter-pupil distance W and the reference gaze distance G0. Then, the convergence angle α that defines the set gaze position is calculated. Then, based on the calculated convergence angle α, the control unit 40 generates parallax between the right-eye image M1 and the left-eye image M2 so that the gaze position induced image IN is displayed at the set gaze position. In addition, the display aspect and the production | generation method of a parallax image are arbitrary, and a well-known image processing method can be used suitably.

また、注視位置誘導画像INは、図11(a)及び(b)に示すような視差画像に限られず、動画態様によって使用者の注視位置を設定注視位置へと誘導してもよい。例えば、注視位置誘導画像INは、図11(c)に示すように点滅表示するアイコン画像であったり、図11(d)に示すように移動表示するアイコン画像であったりしてもよい。点滅表示の場合は、例えば、設定注視位置(基準注視距離G0)に対しての使用者の注視距離Gに応じ、点滅間隔を変化させるといったことが可能である。なお、使用者の注視距離Gは、前述のように内側撮像データD1に基づいて算出できる。また、移動表示の場合は、使用者が視線を上げるようにアイコンを移動させればよい。この場合、アイコンの移動量を、前述のように算出可能な注視距離Gや仰角θに応じて変化させることもできる。   Also, the gaze position induction image IN is not limited to the parallax images as shown in FIGS. 11A and 11B, and the gaze position of the user may be guided to the set gaze position by the moving image mode. For example, the gaze position induction image IN may be an icon image that blinks and displays as shown in FIG. 11C, or an icon image that moves and displays as shown in FIG. In the case of blinking display, for example, it is possible to change the blinking interval according to the gaze distance G of the user with respect to the set gaze position (reference gaze distance G0). The gaze distance G of the user can be calculated based on the inside imaging data D1 as described above. In addition, in the case of moving display, the icon may be moved so that the user raises the line of sight. In this case, the movement amount of the icon can also be changed according to the gaze distance G and the elevation angle θ that can be calculated as described above.

以上のように近方用画像VMにおいて注視位置誘導画像INを表示することで、使用者の注視位置を適切な位置に誘導し、復帰させることができる。続いて、第3実施形態に係る表示形態切替処理の一例を、図8(a)、(b)を参照して説明する。第3実施形態では、表示形態切替処理の開始時は、遠方用フラグがオン状態となっており、遠方用画像VFを表示するものとする。   As described above, by displaying the gaze position guidance image IN in the near image VM, it is possible to guide the user's gaze position to an appropriate position and restore it. Subsequently, an example of the display mode switching process according to the third embodiment will be described with reference to FIGS. 8 (a) and 8 (b). In the third embodiment, when the display mode switching process is started, the distance flag is in the on state, and the distance image VF is displayed.

制御部40は、図8(a)に示す表示形態切替処理を開始すると、第1及び第2実施形態と同様に、ステップS1からステップS3の処理を実行する。推定される注視距離Gが遠方でない場合(ステップS3;No)、つまり近方である場合、重畳画像を近方用形態で表示する(ステップS5)。これにより、例えば、重畳画像として、図10(a)に示す遠方用画像VFが表示されていた場合には、図11(a)及び(b)に示すように注視位置誘導画像INが表示された近方用画像VMに切り替わる。なお、近方用画像VMは、図11(c)や図11(d)に示す態様であってもよい。   When the display mode switching process shown in FIG. 8A is started, the control unit 40 executes the processes from step S1 to step S3 as in the first and second embodiments. If the gaze distance G to be estimated is not far (step S3; No), that is, if it is near, the superimposed image is displayed in the near form (step S5). Thereby, for example, when the image for distance VF shown in FIG. 10A is displayed as a superimposed image, a gaze position induced image IN is displayed as shown in FIGS. 11A and 11B. The image is switched to the near side image VM. The near image VM may be in the form shown in FIG. 11 (c) or 11 (d).

一方、推定される注視距離Gが遠方である場合(ステップS3;Yes)、重畳画像を遠方用形態で表示する(ステップS4)。例えば、図10(a)に示す遠方用画像VFが表示されていた場合には、そのまま表示を継続する。また、図11(a)及び(b)などに示す近方用画像VMが表示されていた場合には、制御部40は、近方用画像VMを、図10(a)に示す遠方用画像VFへと戻す(切り替える)表示制御を行う。第3実施形態の説明は以上である。   On the other hand, when the gaze distance G to be estimated is far (step S3; Yes), the superimposed image is displayed in the form for distance (step S4). For example, when the image for distance VF shown in FIG. 10A is displayed, the display is continued as it is. When the near image VM shown in FIGS. 11A and 11B is displayed, the control unit 40 displays the near image VM as shown in FIG. 10A. Perform display control to switch back to VF. The description of the third embodiment is as described above.

なお、本発明は以上の実施形態及び図面によって限定されるものではない。本発明の要旨を変更しない範囲で、適宜、変更(構成要素の削除も含む)を加えることが可能である。   The present invention is not limited by the above embodiment and the drawings. Changes (including deletion of components) can be made as appropriate without changing the scope of the present invention.

(変形例)
以上では、表示装置100がHMDで構成され、画像光生成装置1が使用者の頭部に装着される例を示したが、これに限られない。画像光生成装置1は、使用者の頭の動きに追従することができれば、使用者に装着されるものでなくともよく、例えば、画像光生成装置1が車内天井から吊り下げられていたり、運転座席に固定されていたりする構成であってもよい。また、表示装置100は、車両以外の乗り物(航空機、船舶など)の搭乗時に使用されるものであってもよいし、乗り物の搭乗時でなく使用者の歩行時に使用されるものであってもよい。
(Modification)
Although the display apparatus 100 is comprised by HMD above and the example which mounts the image light generating apparatus 1 on a user's head was shown above, it is not restricted to this. The image light generating device 1 may not be worn by the user as long as it can follow the movement of the head of the user. For example, the image light generating device 1 may be suspended from the ceiling in the car, driving It may be fixed to the seat. In addition, the display device 100 may be used when boarding a vehicle other than a vehicle (aircraft, ship, etc.), or may be used when the user walks, not when boarding the vehicle. Good.

以上では、画像光生成装置1が、右眼E1、左眼E2の各々に対応する第1表示部10及び第2表示部20を備える例を示したが、第3実施形態で述べた視差画像としての注視位置誘導画像IN(図11(a)及び(b)参照)を表示する場合を除き、第1表示部10と第2表示部20のいずれか一方のみ備える構成としてもよい。   In the above, an example in which the image light generation device 1 includes the first display unit 10 and the second display unit 20 corresponding to each of the right eye E1 and the left eye E2 has been described, but the parallax image described in the third embodiment The configuration may be such that only one of the first display unit 10 and the second display unit 20 is provided except in the case where the gaze position induction image IN (see FIGS. 11A and 11B) is displayed.

以上では、図8(b)に示す注視距離推定処理において、顔向き角度を示す仰角θや車速が閾値以上の場合に、遠方用フラグをオン状態とする、つまり、間接的に注視距離Gを推定する例を示したが、仰角θや車速と、推定される注視距離Gとが関連づけられたテーブルデータを予めROMに格納しておき、制御部40は、当該テーブルデータを参照して仰角θや車速に応じた、推定の注視距離Gを求めてもよい。また、使用者の顔向きに関する情報(仰角θなど)を内側撮像データD1に基づき求めてもよい。当該情報は、例えば、内側撮像データD1が示す撮像画像に対してパターンマッチングなどの公知の画像処理を実行することで求めることができる。また、注視距離Gの推定や算出に用いるカメラやセンサは、画像光生成装置1が備えるものに限られない。例えば、制御部40は、使用者が搭乗する車内に設けられるカメラや赤外線センサから情報を取得し、当該情報に基づいて注視距離Gを推定してもよい。また、前方対象物を検出する構成も、画像光生成装置1が備える外カメラ33に限られない。例えば、制御部40は、使用者が搭乗する車両に設けられるカメラや、ソナー、超音波センサ、ミリ波レーダなどの前方対象物検出手段から情報を取得し、前方対象物を検出してもよい。   In the fixation distance estimation process shown in FIG. 8B, the distance flag is turned on if the elevation angle θ indicating the face direction angle or the vehicle speed is equal to or greater than the threshold value, that is, the fixation distance G is indirectly Although an example of estimation is shown, table data in which the elevation angle θ and the vehicle speed are associated with the estimated gaze distance G is stored in advance in the ROM, and the control unit 40 refers to the table data to determine the elevation angle θ. An estimated gaze distance G may be obtained in accordance with the vehicle speed. Further, information on the face orientation of the user (such as elevation angle θ) may be obtained based on the inside imaging data D1. The said information can be calculated | required by performing well-known image processing, such as pattern matching, with respect to the captured image which inner side imaging data D1 shows, for example. Moreover, the camera and sensor used for estimation and calculation of the gaze distance G are not limited to those provided in the image light generating device 1. For example, the control unit 40 may acquire information from a camera or an infrared sensor provided in a car on which the user boarded, and estimate the gaze distance G based on the information. Further, the configuration for detecting the front object is not limited to the outside camera 33 provided in the image light generating device 1. For example, the control unit 40 may detect information from a camera provided in a vehicle on which the user boarded, information from front object detection means such as a sonar, ultrasonic sensor, millimeter wave radar, etc., and detect the front object. .

以上では、注視距離推定処理において、ステップS21、S22、S23のいずれかでYesとなった場合に注視距離Gが遠方であると推定し、ステップS21、S22、S23の全てがNoとなった場合に注視距離Gが近方であると推定する例を示したが、注視距離Gの推定手法はこれに限定されず任意である。例えば、ステップS21、S22、S23のうち複数でYesとなった場合に注視距離Gが遠方であると推定してもよい。また、例えば、内側撮像データD1、動きデータD2、車速データD3などから推定される注視距離Gを複数算出し、算出した複数の注視距離に重み付けを考慮して所定の演算(例えば、注視距離Gの推定精度に応じた重み付け平均)を行うことで、遠方か近方かの判別対象となる注視距離Gを算出してもよい。   In the above, in the fixation distance estimation process, when the determination in any of steps S21, S22, and S23 is Yes, it is estimated that the fixation distance G is far and all of steps S21, S22, and S23 become No. Although the example which presumes that gaze distance G is near was shown to, the estimation method of gaze distance G is not limited to this, but it is arbitrary. For example, the gaze distance G may be estimated to be far if a plurality of steps S21, S22, and S23 result in Yes. Further, for example, a plurality of gaze distances G estimated from the inner imaging data D1, the motion data D2, the vehicle speed data D3 and the like are calculated, and weighting is taken into consideration to the calculated plurality of gaze distances. By performing weighted averaging according to the estimation accuracy of {circle around (1)}, the gaze distance G to be determined as distant or near may be calculated.

第1実施形態では、表示形態切替処理において近方用形態の重畳画像がデフォルトとして表示されるものとしたが、遠方用形態の重畳画像がデフォルトとして表示されてもよい。
また、第2実施形態では、遠方用画像VFから差分領域VDを削除して、近方用画像VNを生成する例を示したが、これに限られない。例えば、抽出した差分領域VDに存在するコンテンツ画像(経路案内画像C5や警告画像C6)を特定し、当該特定したコンテンツ画像を非表示にした態様を近方用画像VNとしてもよい。また、当該特定したコンテンツ画像を、遠方用形態のときと比べて視認困難(例えば、遠方用形態のときと比べて表示輝度を低下させたり、彩度を低下させたりすること等)とした態様を近方用画像VNとしてもよい。
また、第3実施形態では、注視距離Gが近方であると推定された場合に注視位置誘導画像INが表示されるものとしたが、これに限られない。例えば、重畳画像内に注視位置誘導画像INを常時表示してもよい。
In the first embodiment, the superimposed image of the near mode is displayed as the default in the display mode switching process, but the superimposed image of the far mode may be displayed as the default.
In the second embodiment, the difference area VD is deleted from the distance image VF to generate the near image VN. However, the present invention is not limited to this. For example, a content image (a route guidance image C5 or a warning image C6) existing in the extracted difference area VD may be specified, and a mode in which the specified content image is not displayed may be set as the near image VN. In addition, an aspect in which it is difficult to visually recognize the specified content image (for example, the display luminance is reduced or the saturation is reduced as compared to the case of the distant mode) as compared to the distant mode. As the near image VN.
In the third embodiment, the gaze position induced image IN is displayed when the gaze distance G is estimated to be near, but the present invention is not limited to this. For example, the gaze position induced image IN may be constantly displayed in the superimposed image.

また、第1〜第3実施形態の画像制御を組み合わせて実行してもよい。例えば、第1又は第2実施形態における重畳画像内に、第3実施形態で説明した注視位置誘導画像INを表示してもよい。また、注視距離Gが遠方か近方かの判別基準となる閾値の設定も任意である。第1〜第3実施形態の各々で当該閾値を異ならせてもよい。また、重畳画像を近方用形態と遠方用形態の一方から他方へと切り替える際、急に切り替わることの違和感を低減するため、切替直前の画像をフェードアウトさせ、切替後の画像をフェードインさせるなどのエフェクトを施しても良い。また、推定される注視距離Gを「近方」と「遠方」の2段階だけでなく、注視距離Gの判別基準となる閾値を複数設けることで、「近方」、近方より遠い「標準時」、標準時より遠い「遠方」といったように3段階以上の複数段階に区分してもよい。こうした場合、これら複数段階のうち、所定段階と、当該所定段階よりも遠い段階とで、第1〜第3実施形態と同様の処理で重畳画像の切替を実行すればよい。例えば、推定される注視距離Gを「近方」、「標準時」、「遠方」と3段階に区分した場合、「近方」の際に第1実施形態に係る図7(a)に示す画像を表示し、「遠方」の際に第1実施形態に係る図7(b)又は(c)に示す画像を表示し、「標準時」の際に第1実施形態に係る図7(b)又は(c)に示す画像から、第2実施形態で説明した差分領域VDを削除した画像を表示する、といった組合せも可能である。   Further, the image control of the first to third embodiments may be combined and executed. For example, the gaze position guidance image IN described in the third embodiment may be displayed in the superimposed image in the first or second embodiment. In addition, setting of a threshold serving as a determination reference of whether the fixation distance G is far or near is arbitrary. The threshold may be different in each of the first to third embodiments. In addition, when switching the superimposed image from one to the other of the near mode and the far mode, the image immediately before the switching is faded out and the image after the switching is faded in order to reduce the discomfort of switching suddenly. You may give the effect of. Also, by setting a plurality of threshold values to be the discrimination reference of the gaze distance G in addition to the two steps of "near" and "far" the gaze distance G to be estimated, "near", far from near "standard time It may be divided into a plurality of three or more stages such as "far" from standard time. In such a case, the switching of the superimposed image may be performed in the same process as in the first to third embodiments in a predetermined stage and a stage farther than the predetermined stage among the plurality of stages. For example, when the gaze distance G to be estimated is divided into three stages of “near”, “standard time”, and “far”, the image shown in FIG. 7A according to the first embodiment in the case of “near”. Is displayed, and the image shown in FIG. 7 (b) or (c) according to the first embodiment is displayed when "far", and FIG. 7 (b) according to the first embodiment or during "standard time" A combination of displaying the image obtained by deleting the difference area VD described in the second embodiment from the image shown in (c) is also possible.

また、AR表示としてのコンテンツ画像の種別や形態は、以上で例示した経路案内画像C2、C5や、目的地画像C4や、警告画像C6に限られず、任意である。また、AR対象としての対象物OBの種別も任意である。また、重畳画像を表示するための画像データは、予め記憶部42に用意されたものであってもよいし、車載装置200や携帯端末300などの外部装置から通信により取得可能であってもよい。   Further, the type and form of the content image as AR display are not limited to the route guidance images C2 and C5, the destination image C4 and the warning image C6 exemplified above, and are arbitrary. Further, the type of the object OB as an AR target is also arbitrary. In addition, image data for displaying a superimposed image may be prepared in advance in storage unit 42, or may be obtainable by communication from an external device such as in-vehicle device 200 or portable terminal 300. .

また、表示形態切替処理を実行するための動作プログラム(プログラムPG)は、予め記憶部72のROMに記憶されているものとしたが、着脱自在の記録媒体により配布・提供されてもよい。また、プログラムPGは、表示装置100と接続された他の機器からダウンロードされるものであってもよい。また、表示装置100は、他の機器と電気通信ネットワークなどを介して各種データの交換を行うことによりプログラムPGに従う各処理を実行してもよい。   Although the operation program (program PG) for executing the display mode switching process is stored in advance in the ROM of the storage unit 72, it may be distributed and provided by a removable recording medium. The program PG may be downloaded from another device connected to the display device 100. In addition, the display device 100 may execute each processing according to the program PG by exchanging various data with other devices via a telecommunication network or the like.

(1)以上に説明した第1実施形態に係る表示装置100は、使用者の眼Eに対応して設けられ、使用者に風景と重なって視認される重畳画像(虚像V)を表示する画像光生成装置1(表示手段の一例)と、制御部40と、を備える。制御部40は、重畳画像の表示制御を行う表示制御手段と、使用者の注視距離Gを推定し、推定した注視距離Gが所定距離よりも遠い遠距離であるか否かを判別する注視距離判別手段と、を機能として備える。表示制御手段は、注視距離判別手段が遠距離であると判別すると、重畳画像を遠方用形態に切り替え、遠方用形態(例えば、図7(b)や(c)に示す形態)では、切り替え前の重畳画像(例えば、図7(a)に示す近方用形態)内に表示していた所定コンテンツ(例えば、車速画像C1、経路案内画像C2)を縮小して表示するか、切り替え前とは異なる位置に表示するかの少なくともいずれかの表示制御を行う。
また、第1実施形態に係る表示装置100による表示制御手法は、使用者の注視距離Gを推定するステップと、推定した注視距離Gが所定距離よりも遠い遠距離である場合に、重畳画像を遠方用形態に切り替え、遠方用形態では、切り替え前の重畳画像内に表示していた所定コンテンツを縮小して表示するか、切り替え前とは異なる位置に表示するかの少なくともいずれかの表示制御を行うステップと、を備える。
また、第1実施形態に係るプログラムPGは、コンピュータ(制御部40)に、使用者の注視距離Gを推定し、推定した注視距離Gが所定距離よりも遠い遠距離であるか否かを判別する処理と、遠距離であると判別されたことに応じて重畳画像を遠方用形態に切り替え、遠方用形態では、切り替え前の重畳画像内に表示していた所定コンテンツを縮小して表示するか、切り替え前とは異なる位置に表示するかの少なくともいずれかの表示制御を行う処理と、を実行させる。
(1) The display device 100 according to the first embodiment described above is provided corresponding to the eye E of the user, and is an image that displays a superimposed image (virtual image V) that is viewed by the user in an overlapping manner with the landscape. A light generation device 1 (an example of a display unit) and a control unit 40 are provided. The control unit 40 estimates the gaze distance G of the user by the display control means for performing display control of the superimposed image, and the gaze distance for determining whether the gaze distance G estimated is a far distance greater than a predetermined distance. A determination means is provided as a function. If the display control means determines that the gaze distance determination means is a long distance, the display control means switches the superimposed image to the far form, and in the far form (for example, the form shown in FIG. 7 (b) or (c)) The predetermined content (for example, the vehicle speed image C1 and the route guidance image C2) displayed in the superimposed image of (for example, the near form shown in FIG. At least one of display control is performed to display at different positions.
In addition, the display control method by the display device 100 according to the first embodiment includes a step of estimating the gaze distance G of the user, and a superimposed image when the estimated gaze distance G is longer than a predetermined distance. Switching to the far-end mode, and in the far-end mode, at least one of display control of whether the predetermined content displayed in the superimposed image before switching is reduced and displayed or displayed at a different position from before switching And performing.
In addition, the program PG according to the first embodiment causes the computer (the control unit 40) to estimate the gaze distance G of the user and determine whether the estimated gaze distance G is longer than a predetermined distance. Whether the superimposed image is switched to the distant form according to the process to be performed and that it is determined to be distant, and in the distant form, the predetermined content displayed in the superimposed image before switching is reduced and displayed And a process of performing display control at least one of displaying at a position different from that before switching.

このようにしたので、前述のように、重畳画像を視認する使用者が近方から遠方に視線を移した場合に、風景の認識を妨げることを抑制できる。   Since it did in this way, as mentioned above, when the user who visually recognizes a superimposition image changes eyes | visual_axis from nearness to distantly, it can suppress suppressing recognition of a landscape.

また、表示制御手段は、遠方用形態では、切り替え前の重畳画像内に表示していた特定コンテンツ(例えば、時刻画像C3)を視認困難とするか消去してもよい。
また、表示制御手段は、遠方用形態では、切り替え前の重畳画像内に表示していなかった遠方用コンテンツ(例えば、目的地画像C4)を表示してもよい。
このようにすることで、状況に応じた適切な表示を行うことができ、ユーザフレンドリである。
Further, the display control means may make the specific content (for example, the time image C3) displayed in the superimposed image before switching difficult to view or delete in the mode for distance use.
Further, the display control means may display, in the distant form, the distant content (for example, the destination image C4) which has not been displayed in the superimposed image before switching.
By doing this, it is possible to perform appropriate display depending on the situation, and it is user-friendly.

(2)以上に説明した第2実施形態に係る表示装置100は、画像光生成装置1(表示手段の一例)と、制御部40と、を備える。制御部40は、重畳画像の表示制御を行う表示制御手段と、使用者の注視距離Gを推定し、推定した注視距離Gが所定距離よりも近い近距離であるか否かを判別する注視距離判別手段と、を機能として備える。表示制御手段は、注視距離判別手段が近距離であると判別すると、重畳画像のうち所定領域以外の部分(例えば、図10(b)に示す差分領域VDに対応する部分)に表示していたコンテンツ(例えは、経路案内画像C5や警告画像C6)を視認困難とするか消去する。
また、第2実施形態に係る表示装置100による表示制御方法は、使用者の注視距離Gを推定するステップと、推定した注視距離Gが所定距離よりも近い近距離である場合に、重畳画像のうち所定領域以外の部分に表示していたコンテンツを視認困難とするか消去するステップと、を備える。
また、第2実施形態に係るプログラムPGは、コンピュータ(制御部40)に、使用者の注視距離Gを推定し、推定した注視距離Gが所定距離よりも近い近距離であるか否かを判別する処理と、近距離であると判別されたことに応じて、重畳画像のうち所定領域以外の部分に表示していたコンテンツを視認困難とするか消去する処理と、を実行させる。
(2) The display device 100 according to the second embodiment described above includes the image light generation device 1 (an example of the display unit) and the control unit 40. The control unit 40 estimates the gaze distance G of the user by the display control means that performs display control of the superimposed image, and the gaze distance for determining whether the gaze distance G estimated is a short distance closer than a predetermined distance. A determination means is provided as a function. When the display control means determines that the gaze distance determination means is at a short distance, the display control means displays the superimposed image in a portion other than the predetermined region (for example, a portion corresponding to the difference region VD shown in FIG. The content (for example, the route guidance image C5 or the warning image C6) is made difficult to visually recognize or deleted.
In the display control method by the display device 100 according to the second embodiment, in the step of estimating the gaze distance G of the user, and in the case where the estimated gaze distance G is a short distance closer than a predetermined distance, Making it difficult to visually recognize or erase the content displayed in a portion other than the predetermined region;
In addition, the program PG according to the second embodiment causes the computer (control unit 40) to estimate the gaze distance G of the user, and determine whether the estimated gaze distance G is closer than a predetermined distance. In accordance with the determination of the short distance and the determination of the short distance, a process of making it difficult to visually recognize or delete the content displayed in the portion other than the predetermined area in the superimposed image is executed.

このようにしたので、前述のように、重畳画像を視認する使用者が遠方から近方に視線を移した場合に、重畳画像内のコンテンツがずれて視認されることの煩わしさ(ARずれによる煩わしさ)を低減できる。   Since it did in this way, as above-mentioned, when the user who visually recognizes a superimposition image changes eyes | visual_axis from a distance from a distance, the troublesomeness of the content in a superimposition image being misaligned and being visually recognized (AR shift | offset | difference) Can be reduced.

また、表示制御手段は、注視距離判別手段が近距離であると判別すると、重畳画像のうち所定領域以外の部分(差分領域VD)を消去してもよい。
また、表示制御手段は、注視距離判別手段が近距離であると判別すると、重畳画像のうち所定領域内(近方用画像VN内)に誘導画像C7を表示し、誘導画像C7は、所定領域以外の部分に表示していたコンテンツ(例えば、経路案内画像C5や警告画像C6)の方向へと使用者の視線を誘導する態様で表示されるようにしてもよい。こうすれば、使用者に、より遠方を見ればAR表示が存在することを報知することができるため、ユーザフレンドリである。
In addition, the display control means may delete a portion (difference area VD) other than the predetermined area in the superimposed image when it is determined that the gaze distance determination means is at a short distance.
Further, the display control means displays the guidance image C7 in a predetermined area (in the near image VN) of the superimposed image when the gaze distance judgment means judges that the distance is short distance, and the guidance image C7 has a predetermined area It may be displayed in such a manner that the line of sight of the user is guided in the direction of the content (for example, the route guidance image C5 or the warning image C6) displayed in other parts. In this way, the user can be informed that the AR display is present if looking further away, which is user-friendly.

(3)以上に説明した第3実施形態に係る表示装置100は、画像光生成装置1(表示手段の一例)と、制御部40と、を備える。制御部40は、重畳画像の表示制御を行う表示制御手段を機能として備える。表示制御手段は、使用者の注視位置を、重畳画像に応じて設定された設定注視位置へと誘導する注視位置誘導画像IN(図11(a)〜(d)参照)を重畳画像内に表示する。
また、第3実施形態に係る表示装置100による表示制御方法では、使用者の注視位置を、重畳画像に応じて設定された設定注視位置へと誘導する注視位置誘導画像を重畳画像内に表示する。
また、第3実施形態に係るプログラムPGは、コンピュータ(制御部40)に、使用者の注視位置を、重畳画像に応じて設定された設定注視位置へと誘導する注視位置誘導画像を重畳画像内に表示する処理を実行させる。
(3) The display device 100 according to the third embodiment described above includes the image light generation device 1 (an example of the display unit) and the control unit 40. The control unit 40 has a display control unit that controls display of a superimposed image as a function. The display control means displays a gaze position induction image IN (see FIGS. 11A to 11D) for guiding the user's gaze position to the set gaze position set according to the superimposed image in the superimposed image. Do.
Further, in the display control method by the display device 100 according to the third embodiment, a gaze position induction image for guiding the gaze position of the user to the set gaze position set according to the superimposed image is displayed in the superimposed image .
In addition, the program PG according to the third embodiment causes the computer (control unit 40) to superimpose a gaze position induction image for guiding the gaze position of the user to the set gaze position set according to the superimposed image in the superimposed image. Execute the process to be displayed on.

このようにしたので、重畳画像を視認する使用者の注視位置が変化した場合でも、重畳画像に応じた適切な注視位置へと誘導することができる   Since it did in this way, even when the gaze position of the user who visually recognizes a superimposition image changes, it can guide to the suitable gaze position according to a superimposition image

重畳画像は、使用者の左眼E2と右眼E1のそれぞれに対応して表示され、注視位置誘導画像INは、左眼用画像M2と、右眼用画像M1とを含み、左眼用画像M2と右眼用画像M1との視差によって、使用者の注視位置を設定注視位置へと誘導してもよい。
また、注視位置誘導画像INは、動画態様によって使用者の注視位置を設定注視位置へと誘導してもよい。
The superimposed image is displayed corresponding to each of the left eye E2 and the right eye E1 of the user, and the gaze position guidance image IN includes the image M2 for the left eye and the image M1 for the right eye, and is an image for the left eye The gaze position of the user may be guided to the set gaze position by the parallax between M2 and the right-eye image M1.
In addition, the gaze position guidance image IN may guide the user's gaze position to the set gaze position by the moving image mode.

また、制御部40は、使用者の注視距離Gを推定し、推定した注視距離Gが所定距離よりも近い近距離であるか否かを判別する注視距離判別手段を機能としてさらに備え、表示制御手段は、注視距離判別手段が近距離であると判別すると、注視位置誘導画像INを表示してもよい。こうすれば、重畳画像を視認する使用者が遠方から近方に視線を移した場合に発生し易いARずれを、重畳画像に応じた適切な注視位置へと誘導することで、いち早く解消できる   In addition, the control unit 40 further includes a gaze distance determination unit that estimates the gaze distance G of the user and determines whether the estimated gaze distance G is a short distance closer than a predetermined distance, as a function of display control The means may display the gaze position induced image IN when it is determined that the gaze distance determination means is at a short distance. In this way, it is possible to quickly eliminate the AR shift that is likely to occur when the user viewing the superimposed image shifts the line of sight from a distance to a near position, by guiding it to the appropriate gaze position according to the superimposed image.

また、第1〜第3実施形態のいずれにおいても、表示装置100は、車両の搭乗時に使用され、注視距離判別手段は、使用者の顔を撮像した撮像画像を示す情報(例えば内側撮像データD1)と、使用者の顔向きを示す情報(例えば動きデータD2)と、車両から取得した車両情報(例えば車速データD3)との少なくともいずれかに基づいて、使用者の注視距離Gを推定すればよい。   Further, in any of the first to third embodiments, the display device 100 is used when the vehicle is on board, and the gaze distance determination unit is information (for example, the inside imaging data D1) indicating a captured image obtained by capturing the user's face. If the gaze distance G of the user is estimated on the basis of at least one of information indicating the face orientation of the user (for example, motion data D2) and vehicle information (for example, vehicle speed data D3) acquired from the vehicle Good.

以上の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略した。   In the above description, in order to facilitate understanding of the present invention, the description of known technical matters is appropriately omitted.

100…表示装置
1…画像光生成装置
10…第1表示部
11…表示素子、11a…駆動部
12…導光装置、120…鏡筒部、121…導光部、121a…反射面
122…透過部、123…ハーフミラー層
20…第2表示部、21…表示素子、22…導光装置
30…フレーム、30a…リム、30b…テンプル
31…内カメラ、D1…内側撮像データ
32…モーションセンサ、D2…動きデータ
33…外カメラ
2…制御装置
40…制御部、41…CPU、42…記憶部、PG…プログラム
50…通信部
200…車載装置、D3…車速データ
300…携帯端末
3…車内、4…フロントガラス、5…走行車線、6…ダッシュボード、7…先行車
E…眼、E1…右眼、E2…左眼
L、L1、L2…画像光
V、V1、V2…虚像
OB…対象物
C1…車速画像、C2…経路案内画像、C3…時刻画像、C4…目的地画像
C5…経路案内画像、C6…警告画像、C7…誘導画像
VF…遠方用画像、VN…近方用画像
VM…近方用画像、M1…右眼用画像、M2…左眼用画像、IN…注視位置誘導画像
DESCRIPTION OF SYMBOLS 100 ... Display apparatus 1 ... Image light generation apparatus 10 ... 1st display part 11 ... Display element, 11a ... Drive part 12 ... Light guide apparatus, 120 ... Lens-barrel part, 121 ... Light guide part, 121a ... Reflection surface 122 ... Transmission Part 123 123 Half mirror layer 20 Second display part 21 Display element 22 Light guiding device 30 Frame 30a Rim 30b Temple 31 Camera inside D1, inside image data 32 Motion sensor D2: Motion data 33: Outside camera 2 ... Control device 40: Control unit, 41: CPU, 42: Storage unit, PG: Program 50: Communication unit 200: On-vehicle device, D3: Vehicle speed data 300: Mobile terminal 3. In car, Reference Signs List 4 windshield 5 driving lane 6 dashboard 7 leading vehicle E eye E 1 right eye E 2 left eye L left L 1 L 2 image light V, V 1, V 2 virtual image OB target C1 ... vehicle speed image, C2 ... route guidance image, C3 ... time image, C4 ... destination image C5 ... route guidance image, C6 ... warning image, C7 ... guidance image VF ... distance image, VN ... near image VM ... Near image, M1 ... right eye image, M2 ... left eye image, IN ... gaze position guidance image

Claims (6)

使用者の眼に対応して設けられ、前記使用者に風景と重なって視認される重畳画像を表示する表示手段と、
前記重畳画像の表示制御を行う表示制御手段と、
前記使用者の注視距離を推定し、推定した前記注視距離が所定距離よりも近い近距離であるか否かを判別する注視距離判別手段と、を備え、
前記表示制御手段は、前記注視距離判別手段が前記近距離であると判別すると、前記重畳画像のうち所定領域以外の部分に表示していたコンテンツを視認困難とするか消去する、
ことを特徴とする表示装置。
Display means provided corresponding to the user's eyes and displaying a superimposed image that is viewed by the user as being superimposed on the landscape;
Display control means for controlling display of the superimposed image;
Fixation distance determination means for estimating the fixation distance of the user and determining whether the estimated fixation distance is a short distance closer than a predetermined distance;
The display control means makes the content displayed in a portion other than the predetermined area in the superimposed image visually difficult or erased when the gaze distance determination means determines that the short distance is the short distance.
A display device characterized by
前記表示制御手段は、前記注視距離判別手段が前記近距離であると判別すると、前記重畳画像のうち前記所定領域以外の部分を消去する、
ことを特徴とする請求項1に記載の表示装置。
The display control means erases a portion other than the predetermined area in the superimposed image when the gaze distance determining means determines that the short distance is the short distance.
The display device according to claim 1,
前記表示制御手段は、前記注視距離判別手段が前記近距離であると判別すると、前記重畳画像のうち前記所定領域内に誘導画像を表示し、
前記誘導画像は、前記所定領域以外の部分に表示していたコンテンツの方向へと前記使用者の視線を誘導する態様で表示される、
ことを特徴とする請求項1又は2に記載の表示装置。
The display control means displays the guidance image in the predetermined area of the superimposed image when the gaze distance determination means determines that the short distance is the short distance,
The guidance image is displayed in such a manner as to guide the user's line of sight in the direction of the content displayed in the part other than the predetermined area.
The display device according to claim 1 or 2, characterized in that:
車両の搭乗時に使用され、
前記注視距離判別手段は、前記使用者の顔を撮像した撮像画像を示す情報と、前記使用者の顔向きを示す情報と、前記車両から取得した車両情報との少なくともいずれかに基づいて、前記使用者の注視距離を推定する、
ことを特徴とする請求項1乃至3のいずれか1項に記載の表示装置。
Used when boarding a vehicle,
The gaze distance determination means is based on at least one of information indicating a captured image obtained by capturing the face of the user, information indicating a face orientation of the user, and vehicle information acquired from the vehicle. Estimate the gaze distance of the user,
The display device according to any one of claims 1 to 3, characterized in that:
使用者の眼に対応して設けられる表示手段に、前記使用者に風景と重なって視認される重畳画像を表示させる表示制御方法であって、
前記使用者の注視距離を推定するステップと、
推定した前記注視距離が所定距離よりも近い近距離である場合に、前記重畳画像のうち所定領域以外の部分に表示していたコンテンツを視認困難とするか消去するステップと、を備える表示制御方法。
A display control method for displaying a superimposed image that is viewed by the user in an overlapping manner with a landscape on display means provided corresponding to the user's eyes,
Estimating the gaze distance of the user;
Displaying the content displayed in a portion other than the predetermined area in the superimposed image as being difficult to view or deleting the superimposed image when the estimated gaze distance is a short distance closer than the predetermined distance .
使用者の眼に対応して設けられる表示手段に、前記使用者に風景と重なって視認される重畳画像を表示させるためのプログラムであって、
コンピュータに、
前記使用者の注視距離を推定し、推定した前記注視距離が所定距離よりも近い近距離であるか否かを判別する処理と、
前記近距離であると判別されたことに応じて、前記重畳画像のうち所定領域以外の部分に表示していたコンテンツを視認困難とするか消去する処理と、
を実行させるプログラム。
A program for displaying on a display means provided corresponding to a user's eyes a superimposed image that is viewed by the user in an overlapping manner with a landscape,
On the computer
A process of estimating the gaze distance of the user and determining whether the estimated gaze distance is a short distance closer than a predetermined distance;
Processing for making it difficult to visually recognize or delete the content displayed in the portion other than the predetermined area in the superimposed image in accordance with the determination that the short distance is determined;
A program that runs
JP2017189144A 2017-09-28 2017-09-28 Display, display control method, and program Pending JP2019066564A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017189144A JP2019066564A (en) 2017-09-28 2017-09-28 Display, display control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017189144A JP2019066564A (en) 2017-09-28 2017-09-28 Display, display control method, and program

Publications (1)

Publication Number Publication Date
JP2019066564A true JP2019066564A (en) 2019-04-25

Family

ID=66337804

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017189144A Pending JP2019066564A (en) 2017-09-28 2017-09-28 Display, display control method, and program

Country Status (1)

Country Link
JP (1) JP2019066564A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020203046A1 (en) 2019-03-29 2020-10-08 古河機械金属株式会社 Lithium nitride composition for sulfide-based inorganic solid electrolyte material
JPWO2021230049A1 (en) * 2020-05-12 2021-11-18

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020203046A1 (en) 2019-03-29 2020-10-08 古河機械金属株式会社 Lithium nitride composition for sulfide-based inorganic solid electrolyte material
JPWO2021230049A1 (en) * 2020-05-12 2021-11-18

Similar Documents

Publication Publication Date Title
US9977241B2 (en) Head-mounted display device, control method for head-mounted display device, and computer program
US9898868B2 (en) Display device, method of controlling the same, and program
US7952808B2 (en) Display system for vehicle and display method
US10725300B2 (en) Display device, control method for display device, and program
JP6413207B2 (en) Vehicle display device
US10250860B2 (en) Electronic apparatus and image display method
JP2017211366A (en) Mobile body system and information display device
JP2015114757A (en) Information processing apparatus, information processing method, and program
JPWO2015136874A1 (en) Display control device, display device, display control program, display control method, and recording medium
WO2005043218A1 (en) Image display device
JP2016082462A (en) Head-mounted display device, control method therefor, and computer program
JP2015221651A (en) Display device
KR20180016027A (en) A display apparatus for car and method for controlling the display apparatus thereof
CN114489332A (en) Display method and system of AR-HUD output information
JP2019066564A (en) Display, display control method, and program
JP2004101197A (en) Mobile type positional information transmitting device and navigation method
JP2019066562A (en) Display, display control method, and program
JP7126115B2 (en) DISPLAY SYSTEM, MOVING OBJECT AND DESIGN METHOD
JP2018041011A (en) Display device
JP2019068143A (en) Display unit, display control method and program
CN111086518B (en) Display method and device, vehicle-mounted head-up display equipment and storage medium
JP2016165973A (en) Image generation device and head-up display
JP2018207207A (en) Head-up display device
US11187910B2 (en) Head-up display device for adjusting display distances of virtual images
JP2019064422A (en) Head-up display device