JP6972789B2 - Head-up display device - Google Patents

Head-up display device Download PDF

Info

Publication number
JP6972789B2
JP6972789B2 JP2017167183A JP2017167183A JP6972789B2 JP 6972789 B2 JP6972789 B2 JP 6972789B2 JP 2017167183 A JP2017167183 A JP 2017167183A JP 2017167183 A JP2017167183 A JP 2017167183A JP 6972789 B2 JP6972789 B2 JP 6972789B2
Authority
JP
Japan
Prior art keywords
virtual image
range
display
gaze
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017167183A
Other languages
Japanese (ja)
Other versions
JP2019043312A (en
Inventor
貴生人 川手
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2017167183A priority Critical patent/JP6972789B2/en
Publication of JP2019043312A publication Critical patent/JP2019043312A/en
Application granted granted Critical
Publication of JP6972789B2 publication Critical patent/JP6972789B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、車両で使用され、車両の前景に虚像を重畳して視認させるヘッドアップディスプレイ装置に関する。 The present invention relates to a head-up display device used in a vehicle and superimposing a virtual image on the foreground of the vehicle for visual recognition.

特許文献1に開示されているヘッドアップディスプレイ装置は、前景に存在する対象物(実オブジェクト)と異なる位置に、対象物に関する表示情報を表示し、かつ表示情報と対象物との間に線を表示する。これにより、前景に存在する対象物が遠く、視認者から見て小さい場合であっても、対象物の位置と対象物に関する情報を視認者に認識させることができる。 The head-up display device disclosed in Patent Document 1 displays display information about an object at a position different from an object (real object) existing in the foreground, and creates a line between the display information and the object. indicate. As a result, even when the object existing in the foreground is far away and small when viewed from the viewer, the viewer can recognize the position of the object and the information about the object.

特開2005−69776号公報Japanese Unexamined Patent Publication No. 2005-69767

しかしながら、表示情報が視線から外れている場合、対象物の位置、対象物に関する情報を視認者に認識させることができないばかりか、対象物の存在も認識させることができないおそれがある。 However, when the displayed information is out of the line of sight, not only the position of the object and the information about the object cannot be recognized by the viewer, but also the existence of the object may not be recognized.

本発明は、上記の問題点に鑑みてなされたものであり、前景に存在する実オブジェクトの存在を認識しやすいヘッドアップディスプレイ装置を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a head-up display device that can easily recognize the existence of a real object existing in the foreground.

本発明は、前記課題を解決するため、以下の手段を採用した。
本発明のヘッドアップディスプレイ装置は、前景に存在する実オブジェクトから離れた位置に配置され、実オブジェクトの存在を報知する第1の虚像と、第1の虚像と実オブジェクトの位置とを結ぶ線状の第2の虚像と、を表示し、視認者の注視範囲が、実オブジェクト又は第1の虚像から離れていた場合、第1の虚像を注視範囲に近づけることで、実オブジェクトの存在を認識させやすくする、ことをその要旨とする。
In the present invention, the following means are adopted in order to solve the above-mentioned problems.
The head-up display device of the present invention is arranged at a position away from the real object existing in the foreground, and is a linear image connecting the first virtual image notifying the existence of the real object and the position of the first virtual image and the real object. When the viewer's gaze range is far from the real object or the first virtual image, the first virtual image is brought closer to the gaze range to recognize the existence of the real object. The gist is to make it easier.

本発明のヘッドアップディスプレイ装置の第1の態様は、車両の前景に虚像(V)を重畳して表示可能なヘッドアップディスプレイ装置であって、前記前景に存在する実オブジェクト(300)から離れた位置に配置され、前記実オブジェクト(300)の存在を報知する第1の虚像(V1)と、前記第1の虚像(V1)と前記実オブジェクト(300)の位置とを結ぶ線状の第2の虚像(V2)と、を表示させる表示制御部(20)と、視認者の注視範囲(GZ)を取得する注視情報取得部(40)と、を備え、前記表示制御部(20)は、前記実オブジェクト(300)又は前記第1の虚像(V1)上に、前記注視情報取得部(40)が取得した前記注視範囲(GZ)及び前記注視範囲(GZ)を囲む周辺範囲(GZa)がないことを少なくとも含む第1の条件を満たした場合、前記第1の虚像(V1)を前記注視範囲(GZ)に近づけて表示する移動処理(S7)を実行する、ものである。 The first aspect of the head-up display device of the present invention is a head-up display device capable of superimposing a virtual image (V) on the foreground of a vehicle and displaying it, and is separated from a real object (300) existing in the foreground. A linear second virtual image (V1) arranged at a position and notifying the existence of the real object (300) and connecting the position of the first virtual image (V1) and the real object (300). The display control unit (20) includes a display control unit (20) for displaying the virtual image (V2) of the above, and a gaze information acquisition unit (40) for acquiring the gaze range (GZ) of the viewer. On the real object (300) or the first virtual image (V1), the gaze range (GZ) acquired by the gaze information acquisition unit (40) and the peripheral range (GZa) surrounding the gaze range (GZ) are When the first condition including at least the absence is satisfied, the movement process (S7) for displaying the first virtual image (V1) closer to the gaze range (GZ) is executed.

第1の態様によれば、視認者の注視範囲を囲む周辺範囲が、実オブジェクト又は実オブジェクトを報知する第1の虚像上にない場合(言い換えると、注視範囲と、実オブジェクト又は実オブジェクトを報知する第1の虚像とが所定の距離以上離れている場合)、視認者が実オブジェクトを認識できない(あるいは認識しづらい)状態であると判定し、第1の虚像を注視範囲に近づける処理(移動処理)を実行する。『第1の虚像を注視範囲に近づける』とは、第1の虚像V1を注視範囲の周辺の所定の範囲(周辺範囲)まで近づけること、第1の虚像を元々表示されていた位置から予め定められた又は所定のパラメータで算出された距離だけ注視範囲に近づけること、実オブジェクトの位置を基準として第1の虚像が配置される左右方向の位置を、注視範囲が位置する方に変えること、変えることで、第1の虚像を注視範囲に近づけること、のうち少なくとも1つを含む。これにより、第1の虚像が視認者の視線に入りやすくなるため、第1の虚像が認識しやすくなる。なお、第1の虚像と実オブジェクトとを結ぶ第2の虚像を表示するため、第1の虚像から第2の虚像に沿って視線を移動させることで実オブジェクトの位置も認識しやすくすることができる。 According to the first aspect, when the peripheral range surrounding the gaze range of the viewer is not on the real object or the first virtual image for notifying the real object (in other words, the gaze range and the real object or the real object are notified. When the first virtual image is separated from the first virtual image by a predetermined distance or more), it is determined that the viewer cannot recognize (or is difficult to recognize) the real object, and the process (movement) of bringing the first virtual image closer to the gaze range. Process) is executed. "Making the first virtual image closer to the gaze range" means bringing the first virtual image V1 closer to a predetermined range (peripheral range) around the gaze range, and predetermining the first virtual image from the originally displayed position. Move closer to the gaze range by the distance calculated by the gaze range or by a predetermined parameter, change the position in the left-right direction where the first virtual image is placed with respect to the position of the real object, and change it to the one where the gaze range is located. This includes at least one of bringing the first virtual image closer to the gaze range. This makes it easier for the first virtual image to enter the line of sight of the viewer, making it easier for the first virtual image to be recognized. Since the second virtual image connecting the first virtual image and the real object is displayed, the position of the real object can be easily recognized by moving the line of sight from the first virtual image along the second virtual image. can.

また、第1の態様に従属する第2の態様では、前記表示制御部(20)は、前記移動処理(S7)後の前記第1の虚像(V1)の表示位置を、前記移動処理(S7)前の前記第1の虚像(V1)の表示位置と前記注視情報取得部(40)が取得した前記注視範囲(GZ)との間に設定してもよい。 Further, in the second aspect, which is dependent on the first aspect, the display control unit (20) sets the display position of the first virtual image (V1) after the movement process (S7) to the move process (S7). ) May be set between the display position of the first virtual image (V1) before and the gaze range (GZ) acquired by the gaze information acquisition unit (40).

第2の態様では、第1の虚像が元々表示されていた位置に最も近い注視範囲の端部よりも、左右方向において、第1の虚像が元々表示されていた位置に近い位置まで、第1の虚像を近づける。具体的に例えば、注視範囲が第1の虚像の右方向に離れて位置する場合(すなわち、注視範囲の左側に第1の虚像が配置される場合)、移動処理後の第1の虚像の表示位置を、注視範囲の左端より左側に設定する。これによって、最短あるいは最短に近い距離の移動で、第1の虚像を、注視範囲の近傍に接近させることが可能となる。よって、第1の虚像の移動に伴う煩わしさを軽減することができる。 In the second aspect, the first position is closer to the position where the first virtual image was originally displayed in the left-right direction than the end of the gaze range closest to the position where the first virtual image was originally displayed. Bring the virtual image of. Specifically, for example, when the gaze range is located far to the right of the first virtual image (that is, when the first virtual image is placed on the left side of the gaze range), the display of the first virtual image after the movement process is displayed. Set the position to the left of the left edge of the gaze range. This makes it possible to bring the first virtual image closer to the vicinity of the gaze range by moving the shortest or near the shortest distance. Therefore, it is possible to reduce the annoyance associated with the movement of the first virtual image.

また、第1又は第2の態様に従属する第3の態様では、前記表示制御部(20)は、前記注視情報取得部(40)が取得した前記注視範囲(GZ)と前記実オブジェクト(300)の位置との間の距離が所定の閾値未満である場合、前記第1の虚像(V1)を非表示にしてもよい。 Further, in the third aspect, which is dependent on the first or second aspect, the display control unit (20) has the gaze range (GZ) acquired by the gaze information acquisition unit (40) and the real object (300). ) Is less than a predetermined threshold value, the first virtual image (V1) may be hidden.

第3の態様では、注視範囲と、実オブジェクトとが所定の閾値未満である場合、視認者が実オブジェクトを認識したと判定し、実オブジェクトを報知する目的である第1の虚像を非表示にする。これによって、視認者が実オブジェクトを認識した後でも、第1の虚像が表示され続ける煩わしさを軽減することができる。 In the third aspect, when the gaze range and the real object are less than a predetermined threshold value, it is determined that the viewer has recognized the real object, and the first virtual image for the purpose of notifying the real object is hidden. do. This makes it possible to reduce the annoyance that the first virtual image continues to be displayed even after the viewer recognizes the real object.

また、第1乃至3のいずれかに従属する第4の態様では、前記表示制御部(20)は、前記移動処理(S7)を実行する際、前記第2の虚像(V2)の少なくとも一部の視認性を、前記移動処理(S7)を実行する前と比べて、低下させてもよい。 Further, in the fourth aspect dependent on any one of the first to the third, when the display control unit (20) executes the movement process (S7), at least a part of the second virtual image (V2). The visibility of the above may be reduced as compared with that before the movement process (S7) is executed.

第4の態様では、第1の虚像を通常の位置から注視範囲に近づけた位置に移動させる場合に、第1の虚像に連結される第2の虚像の視認性を低下させることで、第2の虚像により前景の視認性が低下することを抑制することが可能となる。特に、頻繁に視認者が視認する範囲に重なる第2の虚像の一部の視認性を少なくとも低下させることで、車両運行を妨げない表示が可能となる。 In the fourth aspect, when the first virtual image is moved from a normal position to a position closer to the gaze range, the visibility of the second virtual image connected to the first virtual image is reduced, thereby reducing the visibility of the second virtual image. It is possible to suppress the deterioration of the visibility of the foreground due to the virtual image of. In particular, by at least reducing the visibility of a part of the second virtual image that overlaps with the range frequently seen by the viewer, it is possible to display the vehicle without interfering with the operation of the vehicle.

また、第1乃至4の態様に従属する第5の態様では、前記表示制御部(20)は、前記移動処理(S7)の前後それぞれにおける前記第1の虚像(V1)の表示位置を予め定めた特定表示範囲(102)内に設定してもよい。 Further, in the fifth aspect, which is dependent on the first to fourth aspects, the display control unit (20) predetermines the display position of the first virtual image (V1) before and after the movement process (S7). It may be set within the specific display range (102).

第5の態様では、第1の虚像が表示される位置を特定表示範囲内に限定することになり、これによって、第1の虚像V1の移動範囲が狭くなるため、移動範囲が自由である場合と比べて、視認者の視線が散漫になりにくい。 In the fifth aspect, the position where the first virtual image is displayed is limited to the specific display range, which narrows the movement range of the first virtual image V1, so that the movement range is free. Compared to this, the line of sight of the viewer is less likely to be distracted.

また、第5の態様に従属する第6の態様では、前記表示制御部(20)は、前記特定表示範囲(102)を、前記ヘッドアップディスプレイ装置が前記表示可能な表示可能範囲(101)の上下方向の中央より上側の位置に、左右方向が上下方向より長くなるように設定してもよい。 Further, in the sixth aspect, which is subordinate to the fifth aspect, the display control unit (20) displays the specific display range (102) in the displayable range (101) that the head-up display device can display. The position above the center in the vertical direction may be set so that the horizontal direction is longer than the vertical direction.

また第6の態様では、第1の虚像の移動は、上下方向が抑えられ、概ね左右方向となるため、移動方向が上下左右方向で自由である場合と比べて、視認者の視線が散漫になりにくい。 Further, in the sixth aspect, the movement of the first virtual image is suppressed in the vertical direction and is generally in the horizontal direction, so that the line of sight of the viewer is distracted as compared with the case where the movement direction is free in the vertical and horizontal directions. It's hard to become.

また、第1乃至6の態様に従属する第7の態様では、前記ヘッドアップディスプレイ装置は、視認者から見て上下左右方向にそれぞれ辺を有する実質的に矩形の範囲であり、前記虚像(V)を表示可能な表示可能範囲(101)を有し、前記表示制御部(20)は、前記表示可能範囲(101)外に前記注視情報取得部(40)が取得した前記注視範囲(GZ)がある場合、前記注視範囲(GZ)に最も近い前記表示可能範囲(101)の前記辺の近傍に前記第1の虚像(V1)を表示させてもよい。 Further, in the seventh aspect, which is dependent on the first to sixth aspects, the head-up display device is a substantially rectangular range having sides in the vertical and horizontal directions when viewed from the viewer, and the virtual image (V). The display control unit (20) has a displayable range (101) capable of displaying), and the display control unit (20) has the gaze range (GZ) acquired by the gaze information acquisition unit (40) outside the displayable range (101). If there is, the first virtual image (V1) may be displayed in the vicinity of the side of the displayable range (101) closest to the gaze range (GZ).

第7の態様では、視認者の注視範囲が、ヘッドアップディスプレイ装置の表示可能範囲外であっても、視認者の注視範囲に近い位置に第一の虚像を移動させることが可能となる。 In the seventh aspect, even if the gaze range of the viewer is outside the displayable range of the head-up display device, the first virtual image can be moved to a position close to the gaze range of the viewer.

また、第1乃至7の態様に従属する第8の態様では、前記表示制御部(20)は、第2の虚像(V2)の一端が指示する実オブジェクト(300)の位置、又は実オブジェクト(300)近傍に表示される第3の虚像(V3)上に、注視範囲(GZ)がある場合、前記第1の虚像(V1)の視認性を低下させてもよい。 Further, in the eighth aspect subordinate to the first to seventh aspects, the display control unit (20) is the position of the real object (300) designated by one end of the second virtual image (V2), or the real object ( 300) If there is a gaze range (GZ) on the third virtual image (V3) displayed in the vicinity, the visibility of the first virtual image (V1) may be reduced.

第8の態様では、注視範囲が、実オブジェクトの位置又はその近傍に表示される第3の虚像にある場合、視認者が実オブジェクトを認識したと判定し、実オブジェクトを報知する目的である第1の虚像の視認性を低下させる(非表示も含む)。これによって、視認者が実オブジェクトを認識した後でも、第1の虚像が表示され続ける煩わしさを軽減することができる。 In the eighth aspect, when the gaze range is in the position of the real object or a third virtual image displayed in the vicinity thereof, it is determined that the viewer has recognized the real object, and the purpose is to notify the real object. It reduces the visibility of the virtual image of 1 (including non-display). This makes it possible to reduce the annoyance that the first virtual image continues to be displayed even after the viewer recognizes the real object.

また、第8の態様に従属する第9の態様では、前記表示制御部(20)は、前記第1の虚像(V1)を、前記実オブジェクト(300)に近づけながら徐々に視認性を低下させてもよい。 Further, in the ninth aspect, which is subordinate to the eighth aspect, the display control unit (20) gradually reduces the visibility while bringing the first virtual image (V1) closer to the real object (300). You may.

第9の態様では、視認性が低下しながら第1の虚像が徐々に実オブジェクトに接近していくので、より視認者の視線を実オブジェクトが存在する位置に向けることができるため、実オブジェクトを認識させることができる。 In the ninth aspect, since the first virtual image gradually approaches the real object while the visibility is lowered, the line of sight of the viewer can be directed to the position where the real object exists, so that the real object is displayed. Can be recognized.

本発明の実施形態に係るヘッドアップディスプレイ装置の構成を機能的に示すブロック図である。It is a block diagram which functionally shows the structure of the head-up display device which concerns on embodiment of this invention. 上記実施形態のヘッドアップディスプレイ装置が表示する虚像の例を示す図である。It is a figure which shows the example of the virtual image displayed by the head-up display device of the said embodiment. 上記実施形態のヘッドアップディスプレイ装置の動作を示すフローチャートである。It is a flowchart which shows the operation of the head-up display device of the said embodiment. 上記実施形態に係るヘッドアップディスプレイ装置が表示する虚像の推移を説明する図である。It is a figure explaining the transition of the virtual image displayed by the head-up display device which concerns on the said embodiment.

以下、本発明に係る実施形態について図面を参照して説明する。なお、本発明は下記の実施形態(図面の内容も含む。)によって限定されるものではない。下記の実施形態に変更(構成要素の削除も含む)を加えることができるのはもちろんである。また、以下の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略する。 Hereinafter, embodiments according to the present invention will be described with reference to the drawings. The present invention is not limited to the following embodiments (including the contents of the drawings). Of course, changes (including deletion of components) can be made to the following embodiments. Further, in the following description, in order to facilitate understanding of the present invention, description of known technical matters will be omitted as appropriate.

図1は、本実施形態におけるヘッドアップディスプレイ装置(以下、HUD装置と呼ぶ)100の全体構成を示す模式図である。同図に示すように、HUD装置100は、虚像Vを表示する画像表示部10、画像表示部10の表示を制御する表示制御部20、オブジェクト情報取得部30、注視情報取得部40、及び車両状態取得部50によって構成される。 FIG. 1 is a schematic diagram showing an overall configuration of a head-up display device (hereinafter referred to as a HUD device) 100 in the present embodiment. As shown in the figure, the HUD device 100 includes an image display unit 10 that displays a virtual image V, a display control unit 20 that controls the display of the image display unit 10, an object information acquisition unit 30, a gaze information acquisition unit 40, and a vehicle. It is composed of a state acquisition unit 50.

画像表示部10は、虚像Vを視認者に視認させる表示光を出射するものであり、例えば、図2に示すように、表示光を車両のウインドシールドガラスWSやコンバイナなどの被投影部に投影することで、被投影部を介して視認される車両の前景200に重ねて虚像Vを視認させる。なお、画像表示部10は、表示可能範囲101内に虚像Vを表示することができる。画像表示部10は、後述する表示制御部20から画像データを取得し、この取得した画像データを表示光に変換して出力する。 The image display unit 10 emits display light that makes the virtual image V visible to the viewer. For example, as shown in FIG. 2, the display light is projected onto a projected unit such as a windshield glass WS or a combiner of a vehicle. By doing so, the virtual image V is visually recognized by superimposing it on the foreground 200 of the vehicle that is visually recognized through the projected portion. The image display unit 10 can display the virtual image V within the displayable range 101. The image display unit 10 acquires image data from the display control unit 20 described later, converts the acquired image data into display light, and outputs the image data.

表示制御部20は、入出力インターフェース(オブジェクト情報取得部30、注視情報取得部40、車両状態取得部50、及び通信インターフェース70)を介して、外部機器(前方検出部31、視線検出部41、位置検出部51、方角検出部52、姿勢検出部53、及びクラウドサーバー(外部サーバー)500及び車両ECU600)と通信可能に連結されている。入出力インターフェースは、例えば、USBポート、シリアルポート、パラレルポート、OBDII、及び/又は他の任意の適切な有線通信ポートなどの有線通信機能を含むことができる。車両からのデータケーブルは、通信インターフェース70を介して、表示制御部20に連結される。なお、他の実施形態では、入出力インターフェースは、例えば、Bluetooth(登録商標)通信プロトコル、IEEE802.11プロトコル、IEEE802.16プロトコル、共有無線アクセスプロトコル、ワイヤレスUSBプロトコル、及び/又は他の任意の適切な無線電信技術を用いた無線通信インターフェースを含むことができる。HUD装置100は、外部機器から入出力インターフェースを介して、各種情報、及び虚像Vの元となる画像要素データを取得し、表示制御部20が定めた位置に虚像Vを表示する。なお、画像要素データの一部又は全部は、後述する表示制御部20の記憶部22に記憶され、表示制御部20は、前方検出部31、クラウドサーバー500、及び車両ECU600などから得られる情報に応じて、記憶部22に記憶された画像要素データを読み出して虚像Vを表示する形態であってもよい。 The display control unit 20 has an external device (front detection unit 31, line-of-sight detection unit 41,) via an input / output interface (object information acquisition unit 30, gaze information acquisition unit 40, vehicle state acquisition unit 50, and communication interface 70). It is communicably connected to the position detection unit 51, the direction detection unit 52, the attitude detection unit 53, and the cloud server (external server) 500 and the vehicle ECU 600). The input / output interface can include wired communication functions such as, for example, a USB port, a serial port, a parallel port, an OBDII, and / or any other suitable wired communication port. The data cable from the vehicle is connected to the display control unit 20 via the communication interface 70. In other embodiments, the input / output interface may be, for example, a Bluetooth® communication protocol, an IEEE 802.11 protocol, an 802.16 protocol, a shared wireless access protocol, a wireless USB protocol, and / or any other suitable. It can include a wireless communication interface using various wireless communication technologies. The HUD device 100 acquires various information and image element data that is the source of the virtual image V from an external device via an input / output interface, and displays the virtual image V at a position determined by the display control unit 20. A part or all of the image element data is stored in the storage unit 22 of the display control unit 20 described later, and the display control unit 20 is used as information obtained from the front detection unit 31, the cloud server 500, the vehicle ECU 600, and the like. Accordingly, the image element data stored in the storage unit 22 may be read out and the virtual image V may be displayed.

オブジェクト情報取得部30は、前景200に存在する特定の実オブジェクト300の位置情報を含むデータ(オブジェクト情報)を取得する入力インターフェースであり、例えば、車両に搭載されたカメラやセンサなどからなる前方検出部31からオブジェクト情報を取得し、表示制御部20に出力する。 The object information acquisition unit 30 is an input interface for acquiring data (object information) including position information of a specific real object 300 existing in the foreground 200, and is, for example, a front detection including a camera or a sensor mounted on a vehicle. The object information is acquired from the unit 31 and output to the display control unit 20.

また、オブジェクト情報取得部30は、前方検出部31が前景200を観測し、図示しない解析部で解析した結果である前景200上の実オブジェクト300の種類を識別した種類情報を取得してもよい。実オブジェクト300の種類とは、例えば、障害物、道路標識、路面、及び、建物などであるが、前景200に存在し、識別可能であればこれらに限定されない。すなわち、オブジェクト情報取得部30は、オブジェクト情報(実オブジェクト300の位置情報、種類情報)を取得し、表示制御部20に出力可能である。 Further, the object information acquisition unit 30 may acquire type information that identifies the type of the real object 300 on the foreground 200, which is the result of the front detection unit 31 observing the foreground 200 and analyzing it by an analysis unit (not shown). .. The type of the real object 300 is, for example, an obstacle, a road sign, a road surface, a building, or the like, but is not limited to these as long as it exists in the foreground 200 and can be identified. That is, the object information acquisition unit 30 can acquire object information (position information and type information of the actual object 300) and output it to the display control unit 20.

(オブジェクト情報取得部の他の例)
また、他の例としては、外部機器と通信可能な通信インターフェース70が、オブジェクト情報取得部30として機能してもよい。言い換えると、通信インターフェース70が、車両に設けられた図示しないナビゲーションシステムやクラウドサーバー500や車両ECU600からオブジェクト情報を取得してもよい。例えば、図示しないナビゲーションシステムやクラウドサーバー500や車両ECU600は、地図情報とともに、道路や建物等の実オブジェクト300の位置情報、種類情報等を記憶しており、表示制御部20は、後述する車両又はHUD装置100の位置情報及び方角情報を、通信インターフェース70を介して、ナビゲーションシステム又は/及びクラウドサーバー500又は/及び車両ECU600に出力し、ナビゲーションシステム又は/及びクラウドサーバー500又は/及び車両ECU600は、入力した車両又はHUD装置100の位置情報、方角情報に基づき、車両の前景200に存在する実オブジェクト300の位置情報、種類情報を含むオブジェクト情報を通信インターフェース70に出力する。
(Other examples of object information acquisition section)
Further, as another example, the communication interface 70 capable of communicating with an external device may function as the object information acquisition unit 30. In other words, the communication interface 70 may acquire object information from a navigation system (not shown), a cloud server 500, or a vehicle ECU 600 provided in the vehicle. For example, a navigation system, a cloud server 500, or a vehicle ECU 600 (not shown) stores map information as well as position information, type information, and the like of an actual object 300 such as a road or a building, and the display control unit 20 stores a vehicle or a vehicle described later. The position information and direction information of the HUD device 100 are output to the navigation system and / and the cloud server 500 and / and the vehicle ECU 600 via the communication interface 70, and the navigation system and / and the cloud server 500 and / and the vehicle ECU 600 Based on the input position information and direction information of the vehicle or the HUD device 100, the object information including the position information and the type information of the real object 300 existing in the foreground 200 of the vehicle is output to the communication interface 70.

注視情報取得部40は、視認者が注視している範囲(注視範囲GZ)に関する注視情報を取得する入力インターフェースであり、例えば、車両に搭載されたカメラなどからなる視線検出部41から注視範囲GZを取得し、表示制御部20に出力する。視認者の注視範囲GZは、視認者が目視(注視)している領域であり、目視点(注視点)を含み、人が通常注視可能とされる一定範囲である。なお、視認者の注視範囲GZの設定方法は、これに限定されるものではなく、視線検出部41は、例えば、特開2015−126451号公報に記載されているように、所定の時間(例えば、1秒)内に測定される複数の目視点(注視点)を含む矩形領域を、注視範囲GZに設定してもよい。 The gaze information acquisition unit 40 is an input interface for acquiring gaze information regarding the range (gaze range GZ) that the viewer is gazing at. Is acquired and output to the display control unit 20. The gaze range GZ of the viewer is a region where the viewer is visually (gaze), includes an eye viewpoint (gaze point), and is a certain range in which a person can normally gaze. The method of setting the gaze range GZ of the viewer is not limited to this, and the line-of-sight detection unit 41 can be used for a predetermined time (for example, as described in Japanese Patent Application Laid-Open No. 2015-126451). A rectangular area including a plurality of eye viewpoints (gaze points) measured within 1 second) may be set in the gaze range GZ.

車両状態取得部50は、車両の状態(位置、方角、姿勢)に関する情報を取得する。車両状態取得部50は、GNSS(全地球航法衛星システム)等からなる位置検出部51により検出された車両又はHUD装置100の位置情報を取得し、方角センサからなる方角検出部52により検出された車両又はHUD装置100の向きを示す方角情報を取得し、ハイトセンサや加速度センサからなる姿勢検出部53により検出された車両の路面からの高さ又は/及び路面に対する角度を示す姿勢情報を取得し、表示制御部20に出力する。 The vehicle state acquisition unit 50 acquires information regarding the state (position, direction, posture) of the vehicle. The vehicle state acquisition unit 50 acquires the position information of the vehicle or the HUD device 100 detected by the position detection unit 51 composed of GNSS (Global Navigation Satellite System) or the like, and is detected by the direction detection unit 52 composed of the direction sensor. The direction information indicating the direction of the vehicle or the HUD device 100 is acquired, and the attitude information indicating the height from the road surface and / or the angle with respect to the road surface of the vehicle detected by the attitude detection unit 53 including the height sensor and the acceleration sensor is acquired. , Is output to the display control unit 20.

表示制御部20は、外部データベース(クラウドサーバー500又は/及び車両ECU600)から入力するあるいは記憶部22から読み出した画像要素データが示す画像要素(第1の虚像V1、第2の虚像V2、及び第3の虚像V3の元となる画像)の配置(表示位置)を調整する表示位置調整部21と、画像要素データを記憶する記憶部22と、後述する移動処理の要否を判定する表示移動判定部23と、を備える。 The display control unit 20 has image elements (first virtual image V1, second virtual image V2, and first virtual image V1, second virtual image V2, and second virtual image V1) indicated by image element data input from an external database (cloud server 500 and / and vehicle ECU 600) or read from a storage unit 22. A display position adjusting unit 21 that adjusts the arrangement (display position) of the image that is the source of the virtual image V3 of 3), a storage unit 22 that stores image element data, and a display movement determination that determines the necessity of movement processing described later. A unit 23 is provided.

表示制御部20は、位置情報取得部50が取得した車両又はHUD装置100の位置情報、及び方角情報取得部60が取得した車両又はHUD装置100の方角情報を、通信インターフェース70を介して、クラウドサーバー500又は/及び車両ECU600に出力する。続いて、クラウドサーバー500と車両ECU600は、入力した車両又はHUD装置100の位置情報、方角情報に基づき、HUD装置100に表示させる虚像Vの画像要素データを、通信インターフェース70を介して、表示制御部20に出力する。なお、他の例としては、クラウドサーバー500と車両ECU600は、入力した車両又はHUD装置100の位置情報、方角情報に基づき、HUD装置100に表示させるべき虚像Vを指示する指示データを、通信インターフェース70を介して、表示制御部20に出力し、表示制御部20は、入力した指示データに基づき、記憶部22に記憶された画像要素データを読み出してもよい。また、他の例としては、クラウドサーバー500と車両ECU600は、車両又はHUD装置100の位置情報、方角情報とは異なる他の情報に基づき、虚像Vの画像要素データ又は表示させるべき虚像Vを指示する指示データを、表示制御部20に出力してもよい。なお、表示制御部20は、オブジェクト情報取得部30が取得した実オブジェクト300のオブジェクト情報に基づき、記憶部22に記憶された画像要素データを読み出してもよく、あるいは、オブジェクト情報を、通信インターフェース70を介して、クラウドサーバー500又は/及び車両ECU600に出力し、クラウドサーバー500と車両ECU600が、入力したオブジェクト情報に基づき、HUD装置100に表示させる虚像Vの画像要素データを、通信インターフェース70を介して、表示制御部20に出力してもよい。 The display control unit 20 transmits the position information of the vehicle or the HUD device 100 acquired by the position information acquisition unit 50 and the direction information of the vehicle or the HUD device 100 acquired by the direction information acquisition unit 60 to the cloud via the communication interface 70. Output to the server 500 and / and the vehicle ECU 600. Subsequently, the cloud server 500 and the vehicle ECU 600 control the display of the image element data of the virtual image V to be displayed on the HUD device 100 based on the input position information and direction information of the vehicle or the HUD device 100 via the communication interface 70. Output to unit 20. As another example, the cloud server 500 and the vehicle ECU 600 provide instruction data indicating the virtual image V to be displayed on the HUD device 100 based on the input position information and direction information of the vehicle or the HUD device 100 as a communication interface. It may be output to the display control unit 20 via the 70, and the display control unit 20 may read out the image element data stored in the storage unit 22 based on the input instruction data. Further, as another example, the cloud server 500 and the vehicle ECU 600 indicate the image element data of the virtual image V or the virtual image V to be displayed based on other information different from the position information and the direction information of the vehicle or the HUD device 100. The instruction data to be output may be output to the display control unit 20. The display control unit 20 may read the image element data stored in the storage unit 22 based on the object information of the real object 300 acquired by the object information acquisition unit 30, or may use the object information as the communication interface 70. The image element data of the virtual image V to be output to the cloud server 500 and / and the vehicle ECU 600 and displayed on the HUD device 100 by the cloud server 500 and the vehicle ECU 600 based on the input object information is transmitted via the communication interface 70. It may be output to the display control unit 20.

次に、図2を用いて、HUD装置100が表示する虚像Vを説明するとともに、表示制御部20(表示位置調整部21)の表示位置調整方法について説明する。表示位置調整部21は、前景200内の特定の実オブジェクト300に関連する第1の虚像V1、第2の虚像V2、及び第3の虚像V3の表示位置を設定する。表示位置調整部21は、オブジェクト情報取得部30が取得した実オブジェクト300の位置情報に基づき、画像要素を配置(表示可能範囲101内での表示位置を決定)し、具体的には、実オブジェクト300から離れた位置に第1の虚像V1を配置し、第1の虚像V1と第1の虚像V1が関連する実オブジェクト300が存在する位置とを連結する位置に線状の第2の虚像V2を配置し、実オブジェクト300に重畳する位置あるいは実オブジェクト300の近傍に第3の虚像V3を配置する。図2の例では、実オブジェクト300は、人物301と、駐車場302であり、表示位置調整部21は、人物301に対して、実オブジェクト300(人物301)から離れた位置に、注意を促すエクスクラメーションマークを表示する第1の虚像V1と、第1の虚像V1と人物301との間を結ぶ直線状の第2の虚像V2と、人物301を囲むように配置される第3の虚像V3と、そして、駐車場302に対して、実オブジェクト300(駐車場302)から離れた位置に、駐車場を示す『P』を表示する第1の虚像V1と、第1の虚像V1と駐車場302が存在する位置との間を結ぶ直線状の第2の虚像V2と、を表示する画像データを生成する。また、表示制御部20(表示位置調整部21)は、注視範囲GZに近付くように、虚像V(第1の虚像V1、第2の虚像V2)を移動させることができる。具体的には、表示制御部20(表示位置調整部21)は、後述する表示移動判定部23が虚像Vの移動(移動処理)が必要と判定した場合、第1の虚像V1を、注視範囲GZを囲む領域である周辺範囲GZa内に移動させる。言い換えると、表示制御部20(表示位置調整部21)は、視認者の注視範囲GZが実オブジェクト300又は第1の虚像V1から離れていた場合、第1の虚像V1を注視範囲GZに近づける。 Next, the virtual image V displayed by the HUD device 100 will be described with reference to FIG. 2, and the display position adjusting method of the display control unit 20 (display position adjusting unit 21) will be described. The display position adjusting unit 21 sets the display positions of the first virtual image V1, the second virtual image V2, and the third virtual image V3 related to the specific real object 300 in the foreground 200. The display position adjusting unit 21 arranges image elements (determines the display position within the displayable range 101) based on the position information of the real object 300 acquired by the object information acquisition unit 30, and specifically, the real object. A first virtual image V1 is placed at a position away from 300, and a linear second virtual image V2 is connected to a position where the first virtual image V1 and the real object 300 to which the first virtual image V1 is associated exist. Is arranged, and the third virtual image V3 is arranged at a position superimposed on the real object 300 or in the vicinity of the real object 300. In the example of FIG. 2, the real object 300 is a person 301 and a parking lot 302, and the display position adjusting unit 21 calls attention to the person 301 at a position away from the real object 300 (person 301). A first virtual image V1 displaying an exclamation mark, a linear second virtual image V2 connecting the first virtual image V1 and the person 301, and a third virtual image arranged so as to surround the person 301. A first virtual image V1 and a first virtual image V1 that display a "P" indicating a parking lot at a position away from the real object 300 (parking lot 302) with respect to V3 and the parking lot 302. Image data for displaying a linear second virtual image V2 connecting to and from the position where the vehicle field 302 exists is generated. Further, the display control unit 20 (display position adjustment unit 21) can move the virtual image V (first virtual image V1, second virtual image V2) so as to approach the gaze range GZ. Specifically, when the display control unit 20 (display position adjustment unit 21) determines that the display movement determination unit 23, which will be described later, needs to move the virtual image V (movement processing), the display control unit 20 looks at the first virtual image V1 in the gaze range. It is moved into the peripheral range GZa, which is the area surrounding the GZ. In other words, the display control unit 20 (display position adjustment unit 21) brings the first virtual image V1 closer to the gaze range GZ when the gaze range GZ of the viewer is away from the real object 300 or the first virtual image V1.

表示移動判定部23は、注視情報取得部40が取得した注視範囲GZ、画像表示部10が既に表示している画像要素(虚像V)の座標系、及びオブジェクト情報取得部30が取得した実オブジェクト300の位置情報(オブジェクト情報)などを入力し、注視範囲GZを囲む領域である周辺範囲GZa内に第1の虚像V1又は実オブジェクト300が含まれるかを判定し、含まれていなければ、第1の虚像V1を移動させる判定結果を表示位置調整部21に出力する。例えば、表示移動判定部23は、図4に示すように、前景200を左右方向に5分割、上下方向に5分割したグリッド座標系400を有しており、注視情報取得部40が取得した注視範囲GZが属するグリッド領域(グリッド線で囲まれた領域)周辺のグリッド領域を周辺範囲GZaに設定する。なお、周辺範囲GZaの設定方法は、これに限定されるものではなく、周辺範囲GZaは、注視範囲GZを中心とする予め設定された矩形状の領域に設定されてもよい。なお、周辺範囲GZaに対して、注視範囲GZが偏心した位置に配置されてもよい。 The display movement determination unit 23 includes the gaze range GZ acquired by the gaze information acquisition unit 40, the coordinate system of the image element (virtual image V) already displayed by the image display unit 10, and the real object acquired by the object information acquisition unit 30. The position information (object information) of the 300 is input, and it is determined whether the first virtual image V1 or the real object 300 is included in the peripheral range GZa which is the area surrounding the gaze range GZ. The determination result of moving the virtual image V1 of 1 is output to the display position adjusting unit 21. For example, as shown in FIG. 4, the display movement determination unit 23 has a grid coordinate system 400 in which the foreground 200 is divided into five in the left-right direction and five in the vertical direction, and the gaze information acquisition unit 40 has acquired the gaze. The grid area around the grid area (the area surrounded by the grid lines) to which the range GZ belongs is set to the peripheral range GZa. The method of setting the peripheral range GZa is not limited to this, and the peripheral range GZa may be set in a preset rectangular area centered on the gaze range GZ. The gaze range GZ may be arranged at a position eccentric with respect to the peripheral range GZa.

次に、この本実施形態の特徴部分に係わるHUD装置100の処理について、図3に示すフローチャートを用いて説明する。なお、本処理は、車両又はHUD装置100が起動され、かつ、表示可能範囲101内に特定の実オブジェクト300が位置する際に繰り返し実行される。 Next, the processing of the HUD apparatus 100 related to the characteristic portion of this embodiment will be described with reference to the flowchart shown in FIG. This process is repeatedly executed when the vehicle or the HUD device 100 is activated and the specific real object 300 is located within the displayable range 101.

まず、ステップS1において、表示制御部20は、オブジェクト情報取得部30を介して、実オブジェクト300の位置情報を少なくとも含むオブジェクト情報を取得する。これらオブジェクト情報は、カメラやセンサなどからなる前方検出部31が前景200から特定の実オブジェクト300を検出することで生成される、又は、車両の位置情報、方角情報に基づき、クラウドサーバー500又は/及び車両ECU600により生成される。 First, in step S1, the display control unit 20 acquires object information including at least the position information of the real object 300 via the object information acquisition unit 30. These object information is generated when the front detection unit 31 including a camera, a sensor, or the like detects a specific real object 300 from the foreground 200, or the cloud server 500 or / / based on the vehicle position information and direction information. And generated by the vehicle ECU 600.

ステップS2において、表示制御部20は、ステップS1にて入力した実オブジェクト300の位置が、HUD装置100の表示可能範囲101内に含まれるかを判定する。表示制御部20は、ステップS1で取得した実オブジェクト300の位置情報に基づき、表示可能範囲101内のどの位置に実オブジェクト300が位置するかを把握する。なお、視認者のアイポイントによって、HUD装置100の表示可能範囲101における実オブジェクト300の位置が異なるため、視認者のアイポイントを推定して、このアイポイントから表示可能範囲101を注視したときの実オブジェクト300の位置を特定するとよい。例えば、運転席に着座する視認者の体格、体形、運転姿勢、及び標準的な視線方向等に基づいて標準的なアイポイントを推定してもよいし、さらに、運転席のシートスライド位置、リクライニング角度等を検出し、これら検出したデータを用いて標準的なアイポイントを補正してもよい。そして、この推定したアイポイントと実オブジェクト300との相対的な位置関係から、表示可能範囲101における実オブジェクト300の位置を把握してもよい。 In step S2, the display control unit 20 determines whether the position of the real object 300 input in step S1 is included in the displayable range 101 of the HUD device 100. The display control unit 20 grasps at which position within the displayable range 101 the real object 300 is located, based on the position information of the real object 300 acquired in step S1. Since the position of the real object 300 in the displayable range 101 of the HUD device 100 differs depending on the eye point of the viewer, the eye point of the viewer is estimated and the displayable range 101 is gazed from this eye point. The position of the real object 300 may be specified. For example, a standard eye point may be estimated based on the physique, body shape, driving posture, standard line-of-sight direction, etc. of the viewer sitting in the driver's seat, and further, the seat slide position of the driver's seat, reclining, etc. The angle and the like may be detected, and the standard eye point may be corrected using the detected data. Then, the position of the real object 300 in the displayable range 101 may be grasped from the relative positional relationship between the estimated eye point and the real object 300.

HUD装置100の表示可能範囲101内に実オブジェクト300の位置が含まれる場合(ステップS2でYES)、ステップS3において、表示制御部20は、表示可能範囲101内に実オブジェクト300の存在を強調する虚像Vを表示する。図4(a)に示すように、表示制御部20は、前景200の特定の実オブジェクト300である人物301に対して、実オブジェクト300(人物301)から離れた位置に配置される第1の虚像V1と、第1の虚像V1と人物301との間を結ぶ直線状の第2の虚像V2と、人物301を囲む第3の虚像V3を表示させ、そして、駐車場302に対して、実オブジェクト300(駐車場302)から離れた位置に配置される第1の虚像V1と、第1の虚像V1と駐車場302が存在する位置との間を結ぶ直線状の第2の虚像V2と、を表示させる。第2の虚像V2は、一端が第1の虚像V1であり、他端が実オブジェクト300の位置を示すものであり、第3の虚像V3は、実オブジェクト300の位置に表示されなくてもよい。 When the position of the real object 300 is included in the displayable range 101 of the HUD device 100 (YES in step S2), in step S3, the display control unit 20 emphasizes the existence of the real object 300 in the displayable range 101. Display the virtual image V. As shown in FIG. 4A, the display control unit 20 is first arranged at a position away from the real object 300 (person 301) with respect to the person 301 which is the specific real object 300 of the foreground 200. A linear second virtual image V2 connecting the virtual image V1 and the first virtual image V1 and the person 301, and a third virtual image V3 surrounding the person 301 are displayed, and the parking lot 302 is actually displayed. A first virtual image V1 arranged at a position away from the object 300 (parking lot 302), a linear second virtual image V2 connecting the first virtual image V1 and the position where the parking lot 302 exists, and the like. Is displayed. The second virtual image V2 has one end of the first virtual image V1 and the other end of the position of the real object 300, and the third virtual image V3 does not have to be displayed at the position of the real object 300. ..

なお、ステップS3における虚像Vの表示に際して、表示制御部20は、実オブジェクト300との距離に関する情報を、位置情報取得部50又は及び通信インターフェース70を介して車両ECU600から取得し、実オブジェクト300との距離が所定の閾値未満であった場合、実オブジェクト300の存在を強調する第1の虚像V1及び第1の虚像V1と実オブジェクト300とを結ぶ第2の虚像V2の表示を不要と判断し、第1の虚像V1及び第2の虚像V2を非表示としてもよい。但し、表示制御部20は、実オブジェクト300との距離が所定の閾値未満であった場合であっても、後述するステップS7の移動処理中であれば、第1の虚像V1及び第2の虚像V2の非表示を保留としてもよい。 When displaying the virtual image V in step S3, the display control unit 20 acquires information regarding the distance from the real object 300 from the vehicle ECU 600 via the position information acquisition unit 50 or the communication interface 70, and obtains the information from the vehicle ECU 600 with the real object 300. If the distance is less than a predetermined threshold, it is determined that the display of the first virtual image V1 that emphasizes the existence of the real object 300 and the second virtual image V2 that connects the first virtual image V1 and the real object 300 is unnecessary. , The first virtual image V1 and the second virtual image V2 may be hidden. However, even if the distance to the real object 300 is less than a predetermined threshold value, the display control unit 20 may use the first virtual image V1 and the second virtual image as long as it is in the process of moving in step S7, which will be described later. The hiding of V2 may be put on hold.

ステップS4において、表示制御部20は、注視情報取得部40を介して、視線検出部41から視認者の注視範囲GZを取得し、取得した注視範囲GZを中心とする矩形状の領域を周辺範囲GZaとする(ステップS5)。 In step S4, the display control unit 20 acquires the gaze range GZ of the viewer from the line-of-sight detection unit 41 via the gaze information acquisition unit 40, and the rectangular region centered on the acquired gaze range GZ is the peripheral range. Let it be GZa (step S5).

ステップS6において、表示制御部20(表示移動判定部23)は、周辺範囲GZaに、虚像Vが含まれていないか判定する。表示制御部20(表示位置調整部21)は、表示移動判定部23が周辺範囲GZa内に第1の虚像V1が含まれていると判定した場合(ステップS6でNO)、第1の虚像V1又は第1の虚像V1が指示する実オブジェクト300を視認者が認識できていると判定し、ステップS7の第1の虚像V1の移動処理を実行することなく、すなわち、第1の虚像V1の表示位置を変更することなく処理を終了する。 In step S6, the display control unit 20 (display movement determination unit 23) determines whether or not the peripheral range GZa includes the virtual image V. When the display control unit 20 (display position adjustment unit 21) determines that the display movement determination unit 23 includes the first virtual image V1 in the peripheral range GZa (NO in step S6), the first virtual image V1. Alternatively, it is determined that the viewer can recognize the real object 300 designated by the first virtual image V1, and the movement process of the first virtual image V1 in step S7 is not executed, that is, the display of the first virtual image V1. The process ends without changing the position.

一方、表示制御部20(表示位置調整部21)は、表示移動判定部23が周辺範囲GZa内に第1の虚像V1が含まれていないと判定した場合(ステップS6でYES)、第1の虚像V1が指示する実オブジェクト300を視認者が認識できていないと判定し、ステップS7の第1の虚像V1の移動処理を実行する。ステップS7では、表示制御部20(表示位置調整部21)は、第1の虚像V1を、視認者の注視範囲GZ付近の周辺範囲GZaに向けて徐々に移動させる。具体的には、所定の時間(例えば3秒)以内に、第1の虚像V1が元々表示されていた位置から周辺範囲GZa内まで移動させる。なお、ステップS7では、表示制御部20(表示位置調整部21)は、第1の虚像V1を、視認者の注視範囲GZ付近の周辺範囲GZaに瞬時に移動させてもよい。 On the other hand, when the display control unit 20 (display position adjustment unit 21) determines that the display movement determination unit 23 does not include the first virtual image V1 in the peripheral range GZa (YES in step S6), the first It is determined that the viewer cannot recognize the real object 300 instructed by the virtual image V1, and the movement process of the first virtual image V1 in step S7 is executed. In step S7, the display control unit 20 (display position adjustment unit 21) gradually moves the first virtual image V1 toward the peripheral range GZa near the gaze range GZ of the viewer. Specifically, within a predetermined time (for example, 3 seconds), the first virtual image V1 is moved from the originally displayed position to the peripheral range GZa. In step S7, the display control unit 20 (display position adjustment unit 21) may instantaneously move the first virtual image V1 to the peripheral range GZa near the gaze range GZ of the viewer.

なお、表示制御部20(表示位置調整部21)は、注視範囲GZ内に、第2の虚像V2が一端で指示する実オブジェクト300の位置あるいは実オブジェクト300近傍に表示される第3の虚像V3が所定時間(例えば、3秒)以上含まれていた場合、視認者が実オブジェクト300を認識できていると判定し、第1の虚像V1及び第2の虚像V2を非表示としてもよい。 The display control unit 20 (display position adjustment unit 21) displays the position of the real object 300 designated by the second virtual image V2 at one end or the vicinity of the real object 300 in the gaze range GZ. Is included for a predetermined time (for example, 3 seconds) or more, it may be determined that the viewer can recognize the real object 300, and the first virtual image V1 and the second virtual image V2 may be hidden.

次に、図4を参照し、注視範囲GZの変化に伴う虚像Vの推移を説明する。図4(a)は、図3のステップS1、S2を実行した後、表示制御部20(表示位置調整部21)がステップS3を実行し、表示可能範囲101に存在する実オブジェクト300(人物301、及び駐車場302)に対して虚像Vを表示した例を示す。なお、車両走行に伴い、表示可能範囲101内における実オブジェクト300の位置は連続的に変化するため、表示制御部20は、実オブジェクト300の位置を指示する第2の虚像V2の一端の位置、及び実オブジェクト300と重畳する位置あるいは実オブジェクト300の近傍に表示される第3の虚像V3の位置を、実オブジェクト300の位置変化に応じて変化させる。一方、表示制御部20は、図3のステップS7を実行する以外、実オブジェクト300の位置変化に依らず、第1の虚像V1の位置を固定とすることが好ましい。これにより、第2の虚像V2の一端又は/及び第3の虚像V3により、実オブジェクト300の位置を確認することができ、かつ視認者に注意を促す第1の虚像V1を視認しやすくすることができる。 Next, with reference to FIG. 4, the transition of the virtual image V with the change of the gaze range GZ will be described. In FIG. 4A, after executing steps S1 and S2 in FIG. 3, the display control unit 20 (display position adjusting unit 21) executes step S3, and the real object 300 (person 301) existing in the displayable range 101. , And an example of displaying the virtual image V for the parking lot 302). Since the position of the real object 300 in the displayable range 101 continuously changes as the vehicle travels, the display control unit 20 determines the position of one end of the second virtual image V2 that indicates the position of the real object 300. And the position of the third virtual image V3 displayed on the superposition with the real object 300 or in the vicinity of the real object 300 is changed according to the position change of the real object 300. On the other hand, it is preferable that the display control unit 20 fixes the position of the first virtual image V1 regardless of the position change of the real object 300, except for executing step S7 in FIG. As a result, the position of the real object 300 can be confirmed by one end of the second virtual image V2 and / and the third virtual image V3, and the first virtual image V1 that calls attention to the viewer can be easily visually recognized. Can be done.

図4(b)は、ステップS4で取得された視認者の注視範囲GZと、ステップS5で決定された周辺範囲GZaと、視認者が視認する虚像Vとの位置関係を示す図である。図4(b)の状態において、表示制御部20(表示移動判定部23)が、ステップS6の周辺範囲GZa内に虚像Vがないかを判定した場合、周辺範囲GZa内に人物301に対して表示される第1の虚像V1がないと判定し(ステップS6でYES)、ステップS7に移行する。 FIG. 4B is a diagram showing the positional relationship between the gaze range GZ of the viewer acquired in step S4, the peripheral range GZa determined in step S5, and the virtual image V visually recognized by the viewer. In the state of FIG. 4B, when the display control unit 20 (display movement determination unit 23) determines whether or not there is a virtual image V in the peripheral range GZa in step S6, the display control unit 20 with respect to the person 301 in the peripheral range GZa. It is determined that there is no first virtual image V1 to be displayed (YES in step S6), and the process proceeds to step S7.

図4(c)は、ステップS7が実行された後の虚像Vを示す図である。表示制御部20は、ステップS7の移動処理を実行すると、図4(b)に示す人物301に対して表示されていた第1の虚像V1の表示位置を、注視範囲GZ付近の周辺範囲GZaまで徐々に移動させ、第1の虚像V1の表示位置の変更に伴い、第2の虚像V2の表示位置及び形状も徐々に変化させる。なお、ステップS7の移動処理によって、複数の第1の虚像V1の表示位置が重なった場合、ステップS7の移動処理により表示位置が変更になった人物301に対して表示される第1の虚像V1を、移動処理が実行されていない駐車場302に対して表示される第1の虚像V1よりも前面側(視認者側)に配置されるように、レイヤー表示を行ってもよい。これにより、移動処理された第1の虚像V1をより視認者に強く認識させることができる。 FIG. 4C is a diagram showing a virtual image V after step S7 is executed. When the movement process of step S7 is executed, the display control unit 20 shifts the display position of the first virtual image V1 displayed for the person 301 shown in FIG. 4 (b) to the peripheral range GZa near the gaze range GZ. It is gradually moved, and the display position and shape of the second virtual image V2 are gradually changed as the display position of the first virtual image V1 is changed. When the display positions of the plurality of first virtual images V1 are overlapped by the movement process of step S7, the first virtual image V1 displayed for the person 301 whose display position is changed by the move process of step S7. May be layer-displayed so as to be arranged on the front side (viewer side) of the first virtual image V1 displayed for the parking lot 302 in which the movement process is not executed. This makes it possible for the viewer to more strongly recognize the first virtual image V1 that has been moved.

表示制御部20は、ステップS7の虚像Vの移動処理の前後において、第1の虚像V1を表示する位置を、表示可能範囲101であれば(移動処理するに際しては、表示可能範囲101であり、かつ周辺範囲GZa内であれば)、任意の位置に設定可能であるが、表示可能範囲101の上部の横長(左右方向に長い)の特定表示範囲102に限定してもよい。すなわち、図3のステップS3で第1の虚像V1が表示される位置も、ステップS7の移動処理後に第1の虚像V1が表示される位置も、特定表示範囲102内となるので、ステップS7における第1の虚像V1の移動は、上下方向が抑えられ、概ね左右方向となるため、移動方向が上下左右方向で自由である場合と比べて、視認者の視線が散漫になりにくい。
[変形例]
Before and after the movement processing of the virtual image V in step S7, the display control unit 20 sets the position where the first virtual image V1 is displayed within the displayable range 101 (when the movement processing is performed, the display control unit 20 is the displayable range 101. (And within the peripheral range GZa), it can be set at any position, but it may be limited to the horizontally long (long in the left-right direction) specific display range 102 above the displayable range 101. That is, the position where the first virtual image V1 is displayed in step S3 of FIG. 3 and the position where the first virtual image V1 is displayed after the movement process of step S7 are within the specific display range 102, so that in step S7. Since the movement of the first virtual image V1 is suppressed in the vertical direction and is generally in the horizontal direction, the line of sight of the viewer is less likely to be distracted as compared with the case where the moving direction is free in the vertical and horizontal directions.
[Modification example]

なお、本発明は、以上の実施形態及び図面によって限定されるものではない。本発明の要旨を変更しない範囲で、適宜、実施形態及び図面に変更(構成要素の削除も含む)を加えることが可能である。以下に、変形例の一例を記す。 The present invention is not limited to the above embodiments and drawings. It is possible to make changes (including deletion of components) to the embodiments and drawings as appropriate without changing the gist of the present invention. An example of the modification is described below.

上記実施形態では、第1の虚像V1を注視範囲GZの周辺の周辺範囲GZaまで移動させていたが、第1の虚像V1が注視範囲GZに近づけばいいので、第1の虚像V1が元々表示されていた位置から予め定められた又は所定のパラメータで算出された距離だけ注視範囲GZに向けて移動させてもよい。また、典型的には、実オブジェクト300の位置を基準とした左右どちらかに第1の虚像V1が表示されることになるが、実オブジェクト300の位置を基準とした第1の虚像V1が表示される位置が、注視範囲GZがある位置と左右逆方向にある場合(例えば、実オブジェクト300の位置を基準として、第1の虚像V1が左側にあり、注視範囲GZが右側にある場合)、実オブジェクト300の位置を基準として第1の虚像V1が配置される左右方向の位置を変えることで、第1の虚像V1を注視範囲GZに近づけてもよい。 In the above embodiment, the first virtual image V1 is moved to the peripheral range GZa around the gaze range GZ, but since the first virtual image V1 should be close to the gaze range GZ, the first virtual image V1 is originally displayed. It may be moved toward the gaze range GZ by a predetermined distance or a distance calculated by a predetermined parameter from the position where the position has been set. Further, typically, the first virtual image V1 is displayed on either the left or right side with respect to the position of the real object 300, but the first virtual image V1 with respect to the position of the real object 300 is displayed. When the position to be gazed is in the opposite direction to the position where the gaze range GZ is (for example, when the first virtual image V1 is on the left side and the gaze range GZ is on the right side with respect to the position of the real object 300). The first virtual image V1 may be brought closer to the gaze range GZ by changing the position in the left-right direction in which the first virtual image V1 is arranged with respect to the position of the real object 300.

本発明は、視認者に前景と重ねて虚像を視認させるヘッドアップディスプレイ装置に好適である。 The present invention is suitable for a head-up display device that allows a viewer to visually recognize a virtual image by superimposing it on the foreground.

10 :画像表示部
20 :表示制御部
21 :表示位置調整部
22 :記憶部
23 :表示移動判定部
30 :オブジェクト情報取得部
31 :前方検出部
40 :注視情報取得部
41 :視線検出部
50 :位置情報取得部
51 :位置検出部
60 :方角情報取得部
61 :方角検出部
70 :通信インターフェース(オブジェクト情報取得部)
100 :HUD装置(ヘッドアップディスプレイ装置)
101 :表示可能範囲
102 :特定表示範囲
200 :前景
300 :実オブジェクト
500 :クラウドサーバー
600 :車両ECU
GZ :注視範囲
GZa :周辺範囲
V :虚像
V1 :第1の虚像
V2 :第2の虚像
V3 :第3の虚像
WS :ウインドシールドガラス
10: Image display unit 20: Display control unit 21: Display position adjustment unit 22: Storage unit 23: Display movement determination unit 30: Object information acquisition unit 31: Front detection unit 40: Gaze information acquisition unit 41: Line-of-sight detection unit 50: Position information acquisition unit 51: Position detection unit 60: Direction information acquisition unit 61: Direction detection unit 70: Communication interface (object information acquisition unit)
100: HUD device (head-up display device)
101: Displayable range 102: Specific display range 200: Foreground 300: Real object 500: Cloud server 600: Vehicle ECU
GZ: Gaze range GZa: Peripheral range V: Virtual image V1: First virtual image V2: Second virtual image V3: Third virtual image WS: Windshield glass

Claims (8)

車両の前景に虚像(V)を重畳して表示可能なヘッドアップディスプレイ装置であって、
前記前景に存在する実オブジェクト(300)から離れた位置に配置され、前記実オブジェクト(300)の存在を報知する第1の虚像(V1)と、前記第1の虚像(V1)と前記実オブジェクト(300)の位置とを結ぶ線状の第2の虚像(V2)と、表示させる表示制御部(20)と、
視認者の注視範囲(GZ)を取得する注視情報取得部(40)と、を備え、
前記表示制御部(20)は、前記実オブジェクト(300)又は前記第1の虚像(V1)上に、前記注視情報取得部(40)が取得した前記注視範囲(GZ)及び前記注視範囲(GZ)を囲む周辺範囲(GZa)がないことを少なくとも含む第1の条件を満たした場合、前記第1の虚像(V1)を前記注視範囲(GZ)に近づけて表示し、前記第1の虚像(V1)の表示位置の変更に伴い、前記第2の虚像(V2)の表示位置及び形状を徐々に変化させる移動処理(S7)を実行
前記移動処理(S7)を実行する際、前記第2の虚像(V2)の少なくとも一部の視認性を、前記移動処理(S7)を実行する前と比べて、低下させる、
ことを特徴とするヘッドアップディスプレイ装置。
A head-up display device capable of superimposing a virtual image (V) on the foreground of a vehicle and displaying it.
A first virtual image (V1) arranged at a position away from the real object (300) existing in the foreground and notifying the existence of the real object (300), the first virtual image (V1), and the real object. A linear second virtual image (V2) connecting the position (300), a display control unit (20) to be displayed, and a display control unit (20).
A gaze information acquisition unit (40) for acquiring a gaze range (GZ) of a viewer is provided.
The display control unit (20) has the gaze range (GZ) and the gaze range (GZ) acquired by the gaze information acquisition unit (40) on the real object (300) or the first virtual image (V1). if it meets the first condition comprising at least that there is no peripheral range (Gza) surrounding), the first virtual image (V1) displayed close to the gaze range (GZ), the first virtual image ( with the change of the display position of V1), and executes the second virtual image (V2) of the display position and shape gradually alters move processing (S7),
When the movement process (S7) is executed, the visibility of at least a part of the second virtual image (V2) is lowered as compared with that before the movement process (S7) is executed.
A head-up display device characterized by that.
前記表示制御部(20)は、前記移動処理(S7)後の前記第1の虚像(V1)の表示位置を、前記移動処理(S7)前の前記第1の虚像(V1)の表示位置と前記注視情報取得部(40)が取得した前記注視範囲(GZ)との間に設定する、
ことを特徴とする請求項1に記載のヘッドアップディスプレイ装置。
The display control unit (20) sets the display position of the first virtual image (V1) after the movement process (S7) as the display position of the first virtual image (V1) before the movement process (S7). It is set between the gaze information acquisition unit (40) and the gaze range (GZ) acquired by the gaze information acquisition unit (40).
The head-up display device according to claim 1.
前記表示制御部(20)は、前記注視情報取得部(40)が取得した前記注視範囲(GZ)と前記実オブジェクト(300)の位置との間の距離が所定の閾値未満である場合、前記第1の虚像(V1)を非表示にする、
ことを特徴とする請求項1又は2に記載のヘッドアップディスプレイ装置。
When the distance between the gaze range (GZ) acquired by the gaze information acquisition unit (40) and the position of the real object (300) is less than a predetermined threshold value, the display control unit (20) may use the display control unit (20). Hide the first virtual image (V1),
The head-up display device according to claim 1 or 2.
前記表示制御部(20)は、前記移動処理(S7)の前後それぞれにおける前記第1の虚像(V1)の表示位置を予め定めた特定表示範囲(102)内に設定する、
ことを特徴とする請求項1乃至のいずれかに記載のヘッドアップディスプレイ装置。
The display control unit (20) sets the display position of the first virtual image (V1) before and after the movement process (S7) within a predetermined specific display range (102).
The head-up display device according to any one of claims 1 to 3.
前記表示制御部(20)は、前記特定表示範囲(102)を、前記ヘッドアップディスプレイ装置が前記表示可能な表示可能範囲(101)の上下方向の中央より上側の位置に、左右方向が上下方向より長くなるように設定する、
ことを特徴とする請求項に記載のヘッドアップディスプレイ装置。
The display control unit (20) positions the specific display range (102) above the center of the displayable range (101) that can be displayed by the head-up display device in the vertical direction, and the horizontal direction is the vertical direction. Set to be longer,
The head-up display device according to claim 4.
前記ヘッドアップディスプレイ装置は、視認者から見て上下左右方向にそれぞれ辺を有する実質的に矩形の範囲であり、前記虚像(V)を表示可能な表示可能範囲(101)を有し、
前記表示制御部(20)は、前記表示可能範囲(101)外に前記注視情報取得部(40)が取得した前記注視範囲(GZ)がある場合、前記注視範囲(GZ)に最も近い前記表示可能範囲(101)の前記辺の近傍に前記第1の虚像(V1)を表示させる、
ことを特徴とする請求項1乃至のいずれかに記載のヘッドアップディスプレイ装置。
The head-up display device is a substantially rectangular range having sides in each of the vertical and horizontal directions when viewed from the viewer, and has a displayable range (101) capable of displaying the virtual image (V).
When the gaze information acquisition unit (40) has acquired the gaze range (GZ) outside the displayable range (101), the display control unit (20) has the display closest to the gaze range (GZ). The first virtual image (V1) is displayed in the vicinity of the side of the possible range (101).
The head-up display device according to any one of claims 1 to 5.
前記表示制御部(20)は、第2の虚像(V2)の一端が指示する実オブジェクト(300)の位置、又は実オブジェクト(300)近傍に表示される第3の虚像(V3)上に、注視範囲(GZ)がある場合、前記第1の虚像(V1)の視認性を低下させる、
ことを特徴とする請求項1乃至のいずれかに記載のヘッドアップディスプレイ装置。
The display control unit (20) is placed on the position of the real object (300) designated by one end of the second virtual image (V2) or on the third virtual image (V3) displayed in the vicinity of the real object (300). When there is a gaze range (GZ), the visibility of the first virtual image (V1) is reduced.
The head-up display device according to any one of claims 1 to 6.
前記表示制御部(20)は、前記第1の虚像(V1)を、前記実オブジェクト(300)に近づけながら徐々に視認性を低下させる、
ことを特徴とする請求項に記載のヘッドアップディスプレイ装置。
The display control unit (20) gradually reduces the visibility of the first virtual image (V1) while bringing it closer to the real object (300).
The head-up display device according to claim 7.
JP2017167183A 2017-08-31 2017-08-31 Head-up display device Active JP6972789B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017167183A JP6972789B2 (en) 2017-08-31 2017-08-31 Head-up display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017167183A JP6972789B2 (en) 2017-08-31 2017-08-31 Head-up display device

Publications (2)

Publication Number Publication Date
JP2019043312A JP2019043312A (en) 2019-03-22
JP6972789B2 true JP6972789B2 (en) 2021-11-24

Family

ID=65815333

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017167183A Active JP6972789B2 (en) 2017-08-31 2017-08-31 Head-up display device

Country Status (1)

Country Link
JP (1) JP6972789B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114651448A (en) * 2019-11-15 2022-06-21 索尼集团公司 Information processing system, information processing method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4698002B2 (en) * 2000-07-11 2011-06-08 マツダ株式会社 Vehicle display device
JP2003291688A (en) * 2002-04-03 2003-10-15 Denso Corp Display method, driving support device and program
JP2005069776A (en) * 2003-08-21 2005-03-17 Denso Corp Display method for vehicle, and display device for vehicle
JP4480755B2 (en) * 2007-12-04 2010-06-16 カルソニックカンセイ株式会社 Head-up display device for vehicle

Also Published As

Publication number Publication date
JP2019043312A (en) 2019-03-22

Similar Documents

Publication Publication Date Title
US9756319B2 (en) Virtual see-through instrument cluster with live video
JP4323377B2 (en) Image display device
JP5874920B2 (en) Monitoring device for vehicle surroundings
JP5092776B2 (en) Gaze direction detection device and gaze direction detection method
KR101921969B1 (en) augmented reality head-up display apparatus and method for vehicles
CN111169382B (en) Driving support device, driving support system, driving support method, and program
US10489981B2 (en) Information processing device, information processing method, and program for controlling display of a virtual object
US9463743B2 (en) Vehicle information display device and vehicle information display method
JP6968676B2 (en) Display device for vehicles
CN105849791B (en) Infomation display device for vehicle and Vehicular information display methods
JP2017185988A (en) Device for vehicle, program for vehicle, and filter design program
JPWO2015136874A1 (en) Display control device, display device, display control program, display control method, and recording medium
JP4367212B2 (en) Virtual image display device and program
JP2006242859A (en) Information display device for vehicle
EP3069935B1 (en) Rearview mirror angle setting system, method, and program
WO2018100377A1 (en) Multi-dimensional display
JP2018185654A (en) Head-up display device
CN108604132B (en) Method for operating virtual reality system and virtual reality system
JP7047837B2 (en) Attention device
JP6972789B2 (en) Head-up display device
KR101209796B1 (en) Display device for vehicle with foreground penetration function and display method of the same
CN108885802B (en) Information processing apparatus, information processing method, and storage medium
JP5182499B2 (en) Vehicle information presentation device
JP6993068B2 (en) Display system
JP2015118579A (en) Line of sight detection device, and line of sight detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200618

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211018

R150 Certificate of patent or registration of utility model

Ref document number: 6972789

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150