JP2022113292A - Display control device, head-up display device, and display control method - Google Patents

Display control device, head-up display device, and display control method Download PDF

Info

Publication number
JP2022113292A
JP2022113292A JP2021009418A JP2021009418A JP2022113292A JP 2022113292 A JP2022113292 A JP 2022113292A JP 2021009418 A JP2021009418 A JP 2021009418A JP 2021009418 A JP2021009418 A JP 2021009418A JP 2022113292 A JP2022113292 A JP 2022113292A
Authority
JP
Japan
Prior art keywords
thickness
display
perspective
vanishing point
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021009418A
Other languages
Japanese (ja)
Inventor
俊輔 佐治
Shunsuke Saji
幸夫 小笠原
Yukio Ogasawara
亮 中島
Ryo Nakajima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2021009418A priority Critical patent/JP2022113292A/en
Publication of JP2022113292A publication Critical patent/JP2022113292A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instrument Panels (AREA)
  • Processing Or Creating Images (AREA)

Abstract

To display an image which makes an observer easily sense depth feeling.SOLUTION: In a head-up display device for enabling an observer to visually recognize a virtual image of an image while overlapping a front scenery, a processor performs thickness display processing of displaying the virtual image as one or a plurality of perspective virtual images with depth expression having a thickness VT in a vertical direction when viewed from the observer and gradually reducing the thickness VT so as to converge to a disappearance point VP20, and the thickness disappearance point VP20 is arranged below a disappearance point VP0 of the front scenery when viewed from the observer.SELECTED DRAWING: Figure 4

Description

本開示は、車両等の移動体で使用され、移動体の前景(車両の乗員から見た移動体の前進方向の実景)に画像を重畳して視認させる表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法等に関する。 The present disclosure relates to a display control device, a head-up display device, and a head-up display device that are used in a mobile object such as a vehicle and superimpose an image on the foreground of the mobile object (actual view in the forward direction of the mobile object seen from the vehicle occupant). It relates to a display control method and the like.

特許文献1には、車両のフロントウインドシールド等の被投影部に投射される表示光が、車両の内側にいる車両の乗員(観察者)に向けて反射されることで、観察者に、車両の前景と重なる虚像を視認させるヘッドアップディスプレイ装置(虚像表示装置の一例)が記載されている。特に、特許文献1に記載のヘッドアップディスプレイ装置は、前景の空間内の奥行きや上下左右方向の所定の位置(ここでは、前記位置をターゲット位置ということにする。)に仮想的に表示オブジェクト(虚像)を配置し、車両の姿勢の変化があった場合や観察者の目位置の変化があった場合であっても、あたかも前景のターゲット位置に表示オブジェクトが存在するかのように、ヘッドアップディスプレイ装置の内部で表示する画像を制御する。すなわち、このようなヘッドアップディスプレイ装置は、現実の風景(前景)に仮想オブジェクトを付加して表示する拡張現実を形成する。 In Patent Document 1, display light projected onto a projection target portion such as a front windshield of a vehicle is reflected toward an occupant (observer) of the vehicle inside the vehicle, so that the observer can see the vehicle. describes a head-up display device (an example of a virtual image display device) that allows a user to visually recognize a virtual image that overlaps the foreground of the image. In particular, the head-up display device described in Patent Literature 1 virtualizes a display object (a A virtual image) is placed, and even if there is a change in the attitude of the vehicle or the position of the observer's eyes, the display object will appear as if it were at the target position in the foreground. It controls the image displayed inside the display device. That is, such a head-up display device creates an augmented reality in which a virtual object is added to a real landscape (foreground) and displayed.

特許文献1の図4の例では、自車両が走行する路面から少し浮遊した位置(路面の上方向に離れた位置)に、前方を指示する矢印形状(換言すると、後方から前方に向かって延びる矢印形状)の仮想オブジェクトを表示している。このような場合、観察者は、特許文献1の図5の例のように、矢印の後端側の幅(典型的には、左右方向の幅)が、先端に向かうにつれて徐々に狭くなることで、遠近感が表現される。すなわち、矢印の後端が近傍で矢印の先端が遠方であるように知覚される。このような遠近感を生じさせる表現は、典型的には、線遠近法(透視図法)などの手法が用いられる。 In the example of FIG. 4 of Patent Document 1, an arrow pointing forward (in other words, extending from the rear to the front) is placed at a position slightly floating from the road surface on which the vehicle is traveling (a position away from the road surface in the upward direction). A virtual object in the shape of an arrow is displayed. In such a case, the observer will notice that the width at the rear end of the arrow (typically, the width in the left-right direction) gradually narrows toward the tip, as in the example of FIG. 5 of Patent Document 1. , the sense of perspective is expressed. That is, it is perceived that the trailing end of the arrow is near and the tip of the arrow is distant. A method such as a linear perspective method (perspective drawing method) is typically used to express such perspective.

特開2010-156608号公報JP 2010-156608 A

ところで、上記のようなヘッドアップディスプレイ装置は、典型的には、虚像を表示可能な領域が平面又は局面の領域(ここでは、前記領域を虚像表示領域ということにする。)であり、前記虚像表示領域は、観察者の視線に対して正対するように配置される。すなわち、自車両の左右方向から見た場合、虚像が表示される虚像表示領域と、自車両が走行する路面との間の角度は、概ね90度に設定される(虚像表示領域が路面と概ね平行となるように配置されない)。 By the way, in the head-up display device as described above, the virtual image displayable area is typically a flat or rectangular area (here, the area is referred to as a virtual image display area), and the virtual image The display area is arranged so as to face the line of sight of the observer. That is, when viewed from the lateral direction of the vehicle, the angle between the virtual image display area where the virtual image is displayed and the road surface on which the vehicle runs is set to approximately 90 degrees (the virtual image display area is approximately 90 degrees from the road surface). are not arranged parallel to each other).

図11は、自車両の走行中において、観察者が視認する、自車両のフロンウインドシールドWSを介して視認する前景及び、前記前景と重なる虚像表示領域1000に表示されるパースペクティブ画像1100の様子を示す図である。図11では、線遠近法を用いて路面に平行に配置されたように表現したパースペクティブ画像の態様を示している。ここでは、自車両の走行レーン1010の左側ラインを符号1011で示し、右側ラインを符号1012で示し、これら左側ライン1011の延長線と右側ライン1012の延長線との交点を消失点1020とする。図11のパースペクティブ画像1100は、高さ方向(Y軸方向)に厚み1120を有する矢印であり、線遠近法(一点透視法)により、厚み1120を形成する上部を通る上辺1101と下部を通る下辺1102との交点が消失点1020と一致するように表現される。より詳しく説明すると、図11のパースペクティブ画像1100は、視認者から見て、手前側であるように表現され、高さ方向(Y軸方向)に第1の厚み1121を有する第1の厚み部1111と、第1の厚み部1111より奥側であるように表現され、高さ方向(Y軸方向)に第2の厚み1122を有する第2の厚み部1112と、を含む。線遠近法(一点透視法)では、遠方に表現されるもの程、小さく(短く)描画されるため、第2の厚み1122は、第1の厚み1121より短くなる。換言すると、線遠近法(一点透視法)は、厚み1120を形成する上部を通る上辺1101と下部を通る下辺1102との高さ方向(Y軸方向)の距離を、遠くなる程、徐々に短く表現し、消失点1020でゼロにする。これにより、走行レーン1010の面に平行にパースペクティブ画像1100が配置されているように絵画的には表現することができる。 FIG. 11 shows the foreground viewed by an observer through the front windshield WS of the vehicle and a perspective image 1100 displayed in a virtual image display area 1000 overlapping the foreground while the vehicle is running. FIG. 4 is a diagram showing; FIG. 11 shows a perspective image expressed as if it were arranged parallel to the road surface using the linear perspective method. Here, the left line of the driving lane 1010 of the host vehicle is indicated by reference numeral 1011, the right line is indicated by reference numeral 1012, and the intersection of the extension of the left line 1011 and the extension of the right line 1012 is the vanishing point 1020. A perspective image 1100 in FIG. 11 is an arrow having a thickness 1120 in the height direction (Y-axis direction). The intersection point with 1102 is represented so as to coincide with the vanishing point 1020 . More specifically, the perspective image 1100 in FIG. 11 is expressed as if it is on the front side when viewed from the viewer, and has a first thickness portion 1111 having a first thickness 1121 in the height direction (Y-axis direction). , and a second thickness portion 1112 that is expressed to be deeper than the first thickness portion 1111 and has a second thickness 1122 in the height direction (Y-axis direction). In linear perspective (single-point perspective), the farther the object, the smaller (shorter) it is drawn, so the second thickness 1122 is shorter than the first thickness 1121 . In other words, in linear perspective (single-point perspective), the distance in the height direction (Y-axis direction) between the upper side 1101 passing through the upper part and the lower side 1102 passing through the lower part forming the thickness 1120 is gradually shortened as the distance increases. and zero at the vanishing point 1020. As a result, the perspective image 1100 can be represented pictorially as if it were arranged parallel to the plane of the driving lane 1010 .

しかしながら、上述したように、虚像表示領域が路面と概ね平行となるように配置されていない、すなわち、自車両が走行する路面に対して、概ね90度だけ観察者側に起き上がった虚像表示領域に、図11に示すようなパースペクティブ画像1100を表示しても、パースペクティブ画像1100の遠方端1300と走行レーン1010との間の距離が、近傍端1400と走行レーン1010との間の距離より長く、走行レーン1010の平行面に対して、パースペクティブ画像1100の遠方端1300が観察者側に起き上がったように知覚されてしまい、走行レーン1010の面に平行であるように感得することが困難となり、改善の余地があった。 However, as described above, the virtual image display area is not arranged substantially parallel to the road surface. , the distance between the far end 1300 of the perspective image 1100 and the driving lane 1010 is longer than the distance between the near end 1400 and the driving lane 1010, and the driving With respect to the plane parallel to the lane 1010, the far end 1300 of the perspective image 1100 is perceived as being raised toward the observer, making it difficult to perceive that it is parallel to the plane of the driving lane 1010. Therefore, improvement is required. There was room.

本明細書に開示される特定の実施形態の要約を以下に示す。これらの態様が、これらの特定の実施形態の概要を読者に提供するためだけに提示され、この開示の範囲を限定するものではないことを理解されたい。実際に、本開示は、以下に記載されない種々の態様を包含し得る。 A summary of certain embodiments disclosed herein follows. It should be understood that these aspects are presented only to provide the reader with an overview of these particular embodiments and are not intended to limit the scope of this disclosure. Indeed, the present disclosure may encompass various aspects not described below.

本開示の概要は、奥行き感を感得しやすい画像を表示することに関する。より、具体的には、走行レーンの面に平行であるように感得しやすい画像を表示する表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法等を提供することに関する。 An overview of the present disclosure relates to displaying an image that facilitates a sense of depth. More specifically, the present invention relates to providing a display control device, a head-up display device, a display control method, and the like that display an image that is easy to perceive as being parallel to the surface of the driving lane.

したがって、本明細書に記載される表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法等は、前記課題を解決するため、以下の手段を採用した。本実施形態は、観察者に画像の虚像を前景に重ねて視認させるヘッドアップディスプレイ装置を制御する表示制御装置であって、観察者から見て上下方向に厚みを有し、厚みが消失点に収束するように徐々に小さくする奥行き表現をつけた1つ又は複数のパースペクティブ虚像として表示する厚み表示処理を実行し、厚み消失点は、観察者から見て前景の消失点より下方に配置される、ことをその要旨とする。 Therefore, the display control device, the head-up display device, the display control method, and the like described in this specification employ the following means in order to solve the above problems. This embodiment is a display control device that controls a head-up display device that allows an observer to visually recognize a virtual image of an image superimposed on the foreground. A thickness display process is performed to display as one or more perspective virtual images with gradually decreasing depth representation so as to converge, and the thickness vanishing point is positioned below the vanishing point of the foreground as seen from the observer. , is the gist of it.

したがって、本明細書に記載される表示制御装置は、観察者に画像の虚像を前景に重ねて視認させるヘッドアップディスプレイ装置を制御する表示制御装置であって、観察者から見て上下方向に厚みを有し、厚みが消失点に収束するように徐々に小さくする奥行き表現をつけた1つ又は複数のパースペクティブ虚像として表示する厚み表示処理を実行し、厚み消失点は、観察者から見て前景の消失点より下方に配置される。 Therefore, the display control device described in this specification is a display control device that controls a head-up display device that allows the observer to visually recognize a virtual image of an image superimposed on the foreground. and performs a thickness display process for displaying one or more perspective virtual images with a depth representation that gradually decreases so that the thickness converges on the vanishing point, and the thickness vanishing point is the foreground as seen from the observer is located below the vanishing point of

図1は、車両用虚像表示システムの車両への適用例を示す図である。FIG. 1 is a diagram showing an application example of a vehicle virtual image display system to a vehicle. 図2は、ヘッドアップディスプレイ装置の構成を示す図である。FIG. 2 is a diagram showing the configuration of the head-up display device. 図3は、実景のターゲット位置に配置される仮想オブジェクトと、仮想オブジェクトが実景のターゲット位置に視認されるように虚像表示領域に表示される画像と、を概念的に示した図である。FIG. 3 is a diagram conceptually showing a virtual object placed at a target position in the real scene and an image displayed in the virtual image display area such that the virtual object is visually recognized at the target position in the real scene. 図4は、自車両の走行中において、観察者が視認する前景と、前景に重畳して表示される第1の幅表示態様の虚像の例を示す図である。FIG. 4 is a diagram showing an example of a foreground visually recognized by an observer and a virtual image of the first width display mode displayed superimposed on the foreground while the host vehicle is running. 図5は、自車両の走行中において、観察者が視認する前景と、前景に重畳して表示される第1の幅表示態様の虚像の例を示す図である。FIG. 5 is a diagram showing an example of a foreground visually recognized by an observer and a virtual image of the first width display mode superimposed on the foreground while the host vehicle is running. 図6Aは、パースペクティブ画像の変形例を示す図である。FIG. 6A is a diagram showing a modified example of a perspective image. 図6Bは、パースペクティブ画像の変形例を示す図である。FIG. 6B is a diagram showing a modification of the perspective image. 図6Cは、パースペクティブ画像の変形例を示す図である。FIG. 6C is a diagram showing a modification of the perspective image. 図6Dは、パースペクティブ画像の変形例を示す図である。FIG. 6D is a diagram showing a modification of the perspective image. 図7は、自車両の走行中において、観察者が視認する前景と、前景に重畳して表示される第1の厚み表示態様の虚像の例を示す図である。FIG. 7 is a diagram showing an example of a foreground visually recognized by an observer and a virtual image of the first thickness display mode superimposed on the foreground while the host vehicle is running. 図8Aは、第2消失点を有する第1の厚み表示態様のパースペクティブ虚像Vを示す図である。FIG. 8A is a diagram showing a perspective virtual image V of a first thickness representation having a second vanishing point. 図8Bは、第2消失点を有する第1の厚み表示態様のパースペクティブ虚像Vを示す図である。FIG. 8B is a diagram showing a perspective virtual image V of a first thickness representation having a second vanishing point. 図9は、いくつかの実施形態の車両用虚像表示システムのブロック図である。FIG. 9 is a block diagram of a virtual image display system for vehicles according to some embodiments. 図10は、パースペクティブ虚像を第1の幅表示態様又は第1の厚み表示態様で表示させる表示制御処理を実行する表示制御方法を示すフロー図である。FIG. 10 is a flowchart showing a display control method for executing display control processing for displaying a perspective virtual image in the first width display mode or the first thickness display mode. 図11は、従来例に関する図であり、自車両の走行中において、観察者が視認する前景と、前景に重畳して表示される虚像の例を示す図である。FIG. 11 is a diagram relating to a conventional example, and is a diagram showing an example of a foreground visually recognized by an observer and a virtual image displayed superimposed on the foreground while the host vehicle is running.

以下、図1ないし図10では、例示的な車両用虚像表示システムの構成、及び動作の説明を提供する。なお、本発明は以下の実施形態(図面の内容も含む)によって限定されるものではない。下記の実施形態に変更(構成要素の削除も含む)を加えることができるのはもちろんである。また、以下の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略する。 1 through 10 below provide a description of the configuration and operation of an exemplary vehicular virtual image display system. In addition, the present invention is not limited by the following embodiments (including the contents of the drawings). Of course, modifications (including deletion of constituent elements) can be added to the following embodiments. In addition, in the following description, descriptions of known technical matters are omitted as appropriate in order to facilitate understanding of the present invention.

図1を参照する。図1は、車両用虚像表示システムの車両への適用例を示す図である。なお、図1において、車両(移動体の一例。以下では、自車両とも呼ぶ。)1の左右方向(換言すると、自車両1の幅方向)をX軸(X軸の正方向は、自車両1の前方を向いた際の左方向。)とし、左右方向に直交すると共に、地面又は地面に相当する面(ここでは路面6)に直交する線分に沿う上下方向(換言すると、自車両1の高さ方向)をY軸(Y軸の正方向は、上方向。)とし、左右方向及び上下方向の各々に直交する線分に沿う前後方向をZ軸(Z軸の正方向は、自車両1の直進方向。)とする。この点は、他の図面においても同様である。 Please refer to FIG. FIG. 1 is a diagram showing an application example of a vehicle virtual image display system to a vehicle. In FIG. 1, the left-right direction of a vehicle (an example of a moving object, hereinafter also referred to as the host vehicle) 1 (in other words, the width direction of the host vehicle 1) is the X axis (the positive direction of the X axis is the host vehicle). 1 when facing forward), and the vertical direction (in other words, the vehicle 1 height direction) is the Y-axis (the positive direction of the Y-axis is the upward direction), and the front-rear direction along a line segment perpendicular to each of the horizontal and vertical directions is the Z-axis (the positive direction of the Z-axis is the vertical direction). straight ahead direction of the vehicle 1). This point also applies to other drawings.

車両用虚像表示システム10におけるヘッドアップディスプレイ装置(虚像表示装置の一例。)20は、車両(移動体の一例。)1のダッシュボード5内に設けられたヘッドアップディスプレイ(HUD:Head-Up Display)装置である。HUD装置20は、表示光Kをフロントウインドシールド2(被投影部材の一例である)に向けて出射し、フロントウインドシールド2は、HUD装置20が表示する画像の表示光Kをアイボックス200へ反射する。HUD装置20は、自車両1に関する情報(以下、車両情報と言う。)だけでなく、車両情報以外の情報も統合的に自車両1の乗員(前記乗員は、典型的には、自車両1の運転者である。)に報知する。なお、車両情報は、自車両1自体の情報だけでなく、自車両1の運行に関連した自車両1の外部の情報も含む。 A head-up display device (an example of a virtual image display device) 20 in the vehicle virtual image display system 10 is a head-up display (HUD: Head-Up Display) provided in a dashboard 5 of a vehicle (an example of a moving object). ) device. The HUD device 20 emits the display light K toward the front windshield 2 (an example of a member to be projected), and the front windshield 2 directs the display light K of the image displayed by the HUD device 20 to the eyebox 200. reflect. The HUD device 20 collects not only information about the own vehicle 1 (hereinafter referred to as vehicle information) but also information other than the vehicle information in an integrated manner to the occupant of the own vehicle 1 (the occupant is typically the own vehicle 1). driver). The vehicle information includes not only the information of the own vehicle 1 itself but also the information of the outside of the own vehicle 1 related to the operation of the own vehicle 1 .

図示するように、車両(自車両)1に備わる車両用虚像表示システム10は、観察者(典型的には自車両1の運転席に着座する運転者)の左目700Lと右目700Rの位置や視線方向を検出する瞳(あるいは顔)検出用の目位置検出部(視線検出部)409、自車両1の前方(広義には周囲)を撮像するカメラ(例えばステレオカメラ)などで構成される車外センサ411、ヘッドアップディスプレイ装置(以下では、HUD装置とも呼ぶ)20及び、HUD装置20を制御する表示制御装置30、を有する。 As illustrated, the vehicle virtual image display system 10 provided in the vehicle (self-vehicle) 1 is configured to display the positions of the left eye 700L and the right eye 700R of an observer (typically, the driver sitting in the driver's seat of the self-vehicle 1) and the line of sight. A vehicle exterior sensor composed of an eye position detection unit (line-of-sight detection unit) 409 for detecting a pupil (or face) for detecting a direction, a camera (for example, a stereo camera) for imaging the front (in a broad sense, the surroundings) of the own vehicle 1, and the like. 411 , a head-up display device (hereinafter also referred to as a HUD device) 20 and a display control device 30 that controls the HUD device 20 .

また、本実施形態の説明で用いる「アイボックス」とは、(1)領域内では画像の虚像Vの全部が視認でき、領域外では画像の虚像Vの少なくとも一部分が視認されない領域、(2)領域内では画像の虚像Vの少なくとも一部が視認でき、領域外では画像の虚像Vの一部分も視認されない領域、(3)領域内では画像の虚像Vの少なくとも一部が所定の輝度以上で視認でき、領域外では画像の虚像Vの全体が前記所定の輝度未満である領域、又は(4)HUD装置20が立体視可能な虚像Vを表示可能である場合、虚像Vの少なくとも一部が立体視でき、領域外では虚像Vの一部分も立体視されない領域である。すなわち、観察者が目(両目)をアイボックス200外に配置すると、観察者は、画像の虚像Vの全体が視認できない、画像の虚像Vの全体の視認性が非常に低く知覚しづらい、又は画像の虚像Vが立体視できない。前記所定の輝度とは、例えば、アイボックスの中心で視認される画像の虚像の輝度に対して1/50程度である。「アイボックス」は、HUD装置20が搭載される車両で観察者の視点位置の配置が想定されるエリア(アイリプスとも呼ぶ。)と同じ、又は前記アイリプスの大部分(例えば、80%以上。)を含むように設定される。 Further, the "eyebox" used in the description of the present embodiment means (1) an area in which the entire virtual image V of the image is visible, and at least a portion of the virtual image V of the image is not visible outside the area, and (2) At least a portion of the virtual image V of the image is visible within the region, and no portion of the virtual image V of the image is visible outside the region; outside the region, the entire virtual image V of the image is less than the predetermined brightness, or (4) when the HUD device 20 can display the virtual image V that can be stereoscopically viewed, at least part of the virtual image V is stereoscopic. It is an area where the virtual image V is visible, and a part of the virtual image V is not stereoscopically viewed outside the area. That is, when the observer places the eyes (both eyes) outside the eyebox 200, the observer cannot see the entire virtual image V of the image, or the visibility of the entire virtual image V of the image is very low and is difficult to perceive, or The virtual image V of the image cannot be viewed stereoscopically. The predetermined brightness is, for example, about 1/50 of the brightness of the virtual image of the image viewed at the center of the eyebox. The “eye box” is the same as the area (also called the eyelip) where the viewer's viewpoint position is assumed to be arranged in the vehicle in which the HUD device 20 is mounted, or a large portion (for example, 80% or more) of the eyelip. is set to include

虚像表示領域VSは、HUD装置20の内部で生成された画像が、虚像Vとして結像する平面、曲面、又は一部曲面の領域であり、結像面とも呼ばれる。虚像表示領域VSは、HUD装置20の後述する表示器40の表示面(例えば、液晶光変調素子の出射面)51が、後述する虚像光学系90により虚像として結像される位置であり、すなわち、虚像表示領域VSは、HUD装置20の後述する表示面51に対応し(言い換えると、虚像表示領域VSは、後述する表示器40の表示面51と、共役関係となる。)、そして、虚像表示領域VSで視認される虚像は、HUD装置20の後述する表示面51に表示される画像に対応している、と言える。虚像表示領域VS自体は、実際に観察者の目に視認されない、又は視認されにくい程度に視認性が低いことが好ましい。 The virtual image display area VS is a planar, curved, or partially curved area on which an image generated inside the HUD device 20 is formed as a virtual image V, and is also called an imaging plane. The virtual image display area VS is a position where a display surface 51 (for example, an exit surface of a liquid crystal light modulation element) of the display 40 (described later) of the HUD device 20 is formed as a virtual image by the virtual image optical system 90 described later. , the virtual image display area VS corresponds to the display surface 51 of the HUD device 20, which will be described later (in other words, the virtual image display area VS has a conjugate relationship with the display surface 51 of the display device 40, which will be described later). It can be said that the virtual image visually recognized in the display area VS corresponds to the image displayed on the display surface 51 of the HUD device 20, which will be described later. It is preferable that the virtual image display area VS itself has low visibility to the extent that it is not actually visible to the observer's eyes, or is difficult to be visually recognized.

虚像表示領域VSには、自車両1の左右方向(X軸方向)を軸とした水平方向(XZ平面)とのなす角度(図1のチルト角θt)と、アイボックス200の中心205と虚像表示領域VSの上端VS1とを結ぶ線分と、アイボックス中心と虚像表示領域VSの下端VS2とを結ぶ線分とのなす角度を虚像表示領域VSの縦画角として、この縦画角の二等分線と水平方向(XZ平面)とのなす角度(図1の縦配置角θd)と、が設定される。縦配置角θdは、典型的には、水平方向(XZ平面)より下向きに設定され、例えば、+2[degree]である(ここでは、縦配置角θdの正方向は、前記縦画角の二等分線が、アイボックス200の中心205から下向きとなる俯角であり、縦配置角θdの負方向は、前記縦画角の二等分線が、アイボックス200の中心205から上向きとなる仰角であるとも言える。)。 In the virtual image display area VS, an angle (tilt angle θt in FIG. 1 ) formed between the horizontal direction (X-axis direction) and the horizontal direction (X-axis direction) of the vehicle 1, the center 205 of the eyebox 200, and the virtual image The angle formed by the line segment connecting the upper end VS1 of the display area VS and the line segment connecting the center of the eyebox and the lower end VS2 of the virtual image display area VS is defined as the vertical angle of view of the virtual image display area VS. An angle (vertical arrangement angle θd in FIG. 1) formed between the equisecting line and the horizontal direction (XZ plane) is set. The vertical arrangement angle θd is typically set downward from the horizontal direction (XZ plane), and is, for example, +2 degrees (here, the positive direction of the vertical arrangement angle θd is two degrees of the vertical angle of view). The bisector is the downward angle of depression from the center 205 of the eyebox 200, and the negative direction of the vertical arrangement angle θd is the elevation angle at which the bisector of the vertical angle of view is upward from the center 205 of the eyebox 200. can be said to be.).

また、本実施形態の虚像表示領域VSは、前方(Z軸正方向)を向いた際に概ね正対するように、概ね90[degree]のチルト角θtを有する。但し、チルト角θtは、これに限定されるものではなく、30≦θt<90[degree]の範囲で変更し得る。チルト角θtは、例えば、60[degree]に設定され、虚像表示領域VSは、観察者から見て上側の領域が下側の領域より遠方になるように配置されてもよい。但し、チルト角θtの範囲は、これに限定されない。 In addition, the virtual image display area VS of the present embodiment has a tilt angle θt of approximately 90 [degrees] so that the virtual image display area VS faces approximately forward (positive direction of the Z axis). However, the tilt angle θt is not limited to this, and can be changed within the range of 30≦θt<90 [degree]. The tilt angle θt may be set to, for example, 60 [degrees], and the virtual image display area VS may be arranged such that the upper area is farther from the lower area as viewed from the observer. However, the range of the tilt angle θt is not limited to this.

図2は、ヘッドアップディスプレイ装置の構成の一態様を示す図である。HUD装置20は、例えばダッシュボード(図1の符号5)内に設置される。このHUD装置20は、表示器40、リレー光学系80及び、これら表示器40とリレー光学系80を収納し、表示器40からの表示光Kを内部から外部に向けて出射可能な光出射窓21を有する筐体22、を有する。 FIG. 2 is a diagram showing one aspect of the configuration of the head-up display device. The HUD device 20 is installed, for example, in a dashboard (reference numeral 5 in FIG. 1). The HUD device 20 houses the display 40, the relay optical system 80, and the display 40 and the relay optical system 80, and has a light exit window through which the display light K from the display 40 can be emitted from the inside to the outside. a housing 22 having 21;

図2の表示器40は、典型的には、液晶ディスプレイパネル(光変調素子)50と、光源ユニット60と、から主に構成される。表示面51は、液晶ディスプレイパネル50の視認側の表面であり、画像の表示光Kを出射する。表示面51の中心からリレー光学系80及び前記被投影部を介してアイボックス200(アイボックス200の中心205)へ向かう表示光Kの光軸Kpに対する、表示面51の角度の設定により、虚像表示領域VSの角度(チルト角θtを含む。)が設定され得る。 The display device 40 in FIG. 2 is typically mainly composed of a liquid crystal display panel (light modulation element) 50 and a light source unit 60 . The display surface 51 is the surface of the liquid crystal display panel 50 on the viewing side, and emits display light K for an image. By setting the angle of the display surface 51 with respect to the optical axis Kp of the display light K traveling from the center of the display surface 51 to the eyebox 200 (the center 205 of the eyebox 200) via the relay optical system 80 and the projection target portion, a virtual image is formed. The angle of the display area VS (including the tilt angle θt) can be set.

液晶ディスプレイパネル(光変調素子)50は、光源ユニット60から光を入射し、2D画像に空間光変調した表示光Kをリレー光学系80(第2ミラー82)へ向けて出射する。液晶ディスプレイパネル50は、例えば、観察者から見た虚像Vの上下方向(Y軸方向)に対応する画素が配列される方向が短辺である矩形状である。観察者は、液晶ディスプレイパネル50の透過光を、虚像光学系90を介して視認する。虚像光学系90は、図2で示すリレー光学系80とフロントウインドシールド2とを合わせたものである。なお、光変調素子50(表示器40)は、自発光型ディスプレイであってもよく、又は、スクリーンに画像を投影するプロジェクション型ディスプレイ(例えば、LCoSやDMDを用いた反射型表示パネル)であってもよく、これらに限定されない。この場合、表示面51は、プロジェクション型ディスプレイのスクリーンである。 The liquid crystal display panel (light modulation element) 50 receives light from the light source unit 60 and emits display light K spatially modulated into a 2D image toward the relay optical system 80 (second mirror 82). The liquid crystal display panel 50 has, for example, a rectangular shape whose short side is the direction in which the pixels are arranged corresponding to the vertical direction (Y-axis direction) of the virtual image V viewed by the observer. An observer visually recognizes the light transmitted through the liquid crystal display panel 50 through the virtual image optical system 90 . The virtual image optical system 90 is a combination of the relay optical system 80 and the front windshield 2 shown in FIG. The light modulation element 50 (display device 40) may be a self-luminous display, or a projection display that projects an image onto a screen (for example, a reflective display panel using LCoS or DMD). but not limited to these. In this case, the display surface 51 is the screen of a projection display.

光源ユニット60は、光源(不図示)と、照明光学系(不図示)と、によって構成される。 The light source unit 60 is composed of a light source (not shown) and an illumination optical system (not shown).

光源(不図示)は、例えば、複数のチップ型のLEDであり、液晶ディスプレイパネル(光変調素子の一例)22へ照明光を出射する。光源ユニット60は、例えば、4つの光源で構成されており、液晶ディスプレイパネル50の長辺に沿って一列に配置される。光源ユニット60は、表示制御装置30からの制御のもと、照明光を液晶ディスプレイパネル50に向けて出射する。光源ユニット60の構成や光源の配置などはこれに限定されない。 A light source (not shown) is, for example, a plurality of chip-type LEDs, and emits illumination light to a liquid crystal display panel (an example of a light modulation element) 22 . The light source unit 60 is composed of, for example, four light sources, which are arranged in a line along the long side of the liquid crystal display panel 50 . The light source unit 60 emits illumination light toward the liquid crystal display panel 50 under the control of the display control device 30 . The configuration of the light source unit 60 and the arrangement of the light sources are not limited to this.

照明光学系(不図示)は、例えば、光源ユニット60の照明光の出射方向に配置された1つ又は複数のレンズ(不図示)と、1つ又は複数のレンズの出射方向に配置された拡散板(不図示)と、によって構成される。 The illumination optical system (not shown) includes, for example, one or more lenses (not shown) arranged in the emission direction of the illumination light from the light source unit 60, and a diffuser lens (not shown) arranged in the emission direction of the one or more lenses. a plate (not shown);

なお、光源ユニット60は、ローカルディミング可能に構成され、表示制御装置30からの制御のもと、表示面51のエリア毎の照明の度合いを変更してもよい。これにより、光源ユニット60は、表示面51に表示される画像の輝度をエリア毎に調整することができる。 The light source unit 60 may be configured to be capable of local dimming, and the degree of illumination for each area of the display surface 51 may be changed under the control of the display control device 30 . Thereby, the light source unit 60 can adjust the brightness of the image displayed on the display surface 51 for each area.

リレー光学系80は、表示器40から出射された表示光K(表示器40からアイボックス200へ向かう光。)の光路上に配置され、表示器40からの表示光KをHUD装置20の外側のフロントウインドシールド2に投影する1つ又はそれ以上の光学部材で構成される。図2のリレー光学系80は、1つの凹状の第1ミラー81と、1つの平面の第2ミラー82と、を含む。 The relay optical system 80 is arranged on the optical path of the display light K emitted from the display device 40 (light from the display device 40 toward the eyebox 200 ). consists of one or more optical elements that project onto the front windshield 2 of the The relay optical system 80 of FIG. 2 includes one concave first mirror 81 and one planar second mirror 82 .

第1ミラー81は、例えば、正の光学的パワーを有する自由曲面形状である。換言すると、第1ミラー81は、領域毎に光学的パワーが異なる曲面形状であってもよく、すなわち、表示光Kが通る領域(光路)に応じて表示光Kに付加される光学的パワーが異なってもよい。具体的には、表示面51の各領域からアイボックス200へ向かう第1表示光K11、第2表示光K12、第3表示光K13(図2参照)とで、リレー光学系80によって付加される光学的パワーが異なってもよい。 The first mirror 81 has, for example, a free-form surface shape with positive optical power. In other words, the first mirror 81 may have a curved shape with different optical power for each region. can be different. Specifically, the first display light K11, the second display light K12, and the third display light K13 (see FIG. 2) traveling from each region of the display surface 51 toward the eyebox 200 are added by the relay optical system 80. The optical power may be different.

なお、第2ミラー82は、例えば、平面ミラーであるが、これに限定されるものではなく、光学的パワーを有する曲面であってもよい。すなわち、リレー光学系80は、複数のミラー(例えば、本実施形態の第1ミラー81、第2ミラー82。)を合成することで、表示光Kが通る領域(光路)に応じて付加される光学的パワーを異ならせてもよい。なお、第2ミラー82は、省略されてもよい。すなわち、表示器40から出射される表示光Kは、第1ミラー81により被投影部(フロントウインドシールド)2に反射されてもよい。 The second mirror 82 is, for example, a plane mirror, but is not limited to this, and may be a curved surface having optical power. That is, the relay optical system 80 is added according to the area (optical path) through which the display light K passes by synthesizing a plurality of mirrors (for example, the first mirror 81 and the second mirror 82 of this embodiment). Different optical powers may be used. Note that the second mirror 82 may be omitted. That is, the display light K emitted from the display device 40 may be reflected by the first mirror 81 to the projection target (front windshield) 2 .

また、リレー光学系80は、本実施形態では2つのミラー(反射光学系)を含んでいたが、これに限定されるものではない。リレー光学系80は、1つ又はそれ以上の、レンズなどの屈折光学部材、ホログラムなどの回折光学部材、上述のものとは異なる反射光学部材、又はこれらの組み合わせを含んでいてもよく、これらは、上述の反射光学系に追加されてもよく、並びに上述の反射光学系の一部又は全部と代替されてもよい。 Also, the relay optical system 80 includes two mirrors (reflecting optical system) in the present embodiment, but is not limited to this. Relay optics 80 may include one or more refractive optical members such as lenses, diffractive optical members such as holograms, reflective optical members different from those described above, or combinations thereof, which may include , may be added to the reflective optical system described above, and may replace part or all of the reflective optical system described above.

また、リレー光学系80は、この曲面形状(光学的パワーの一例。)により、虚像表示領域VSまでの距離を設定する機能、及び表示面51に表示された画像を拡大した虚像を生成する機能、を有するが、これに加えて、フロントウインドシールド2の湾曲形状により生じ得る虚像の歪みを抑制する(補正する)機能、又はこれら以外の公知の光学的機能を有していてもよい。 Further, the relay optical system 80 has a function of setting the distance to the virtual image display area VS and a function of generating a virtual image by enlarging the image displayed on the display surface 51, using this curved surface shape (an example of optical power). , but in addition to this, it may have a function of suppressing (correcting) the distortion of the virtual image that may occur due to the curved shape of the front windshield 2, or other known optical functions.

また、リレー光学系80は、表示制御装置30により制御される1つ又はそれ以上のアクチュエータ86、87が取り付けられ、回転可能であってもよい。例えば、アクチュエータ86は、第1ミラー81を、第1の回転軸AX1を中心に回転(及び/又は移動)させてもよい。アクチュエータ87は、第2ミラー82を、第1の回転軸AX1を中心に回転(及び/又は移動)させてもよい。 Relay optics 80 may also be rotatable with one or more actuators 86 , 87 attached thereto controlled by display controller 30 . For example, the actuator 86 may rotate (and/or move) the first mirror 81 about the first rotation axis AX1. The actuator 87 may rotate (and/or move) the second mirror 82 around the first rotation axis AX1.

ヘッドアップディスプレイ装置20は、後述する表示制御装置30の制御に基づいて、自車両1のフロントウインドシールド2を介して視認される現実空間(実景)である前景に存在する、走行レーンの路面、分岐路、道路標識、障害物(歩行者、自転車、自動二輪車、他車両など)、及び地物(建物、橋など)などのオブジェクトの近傍、オブジェクトに重なる位置、又はオブジェクトを基準に設定された位置に画像を表示することで、視覚的な拡張現実(AR:Augmented Reality)を観察者(典型的には、自車両1の運転席に着座する観察者)に知覚させることもできる。本実施形態の説明では、実景に存在する実オブジェクト又は表示制御装置30が定める実景における所定の空間内の奥行きや上下左右方向のターゲット位置に応じて、表示される位置を変化させ得る画像をAR画像と定義し、実オブジェクトの位置によらず、表示される位置が設定される画像を非AR画像と定義することとする。また、本実施形態の説明では、遠近感を生じさせる透視図法で表現される1つ又は複数からなる画像をパースペクティブ画像と定義し、透視図法で表現されない画像を非パースペクティブ画像と定義することとする。パースペクティブ画像は、典型的には、AR画像である。 The head-up display device 20 is controlled by a display control device 30, which will be described later. Near objects such as forks, road signs, obstacles (pedestrians, bicycles, motorcycles, other vehicles, etc.), and features (buildings, bridges, etc.), positions overlapping objects, or set based on objects By displaying an image at a position, it is possible to make an observer (typically, an observer seated in the driver's seat of the own vehicle 1) perceive visual augmented reality (AR). In the description of the present embodiment, an image whose displayed position can be changed according to a real object existing in the real scene or a target position in the vertical and horizontal directions and the depth in a predetermined space in the real scene determined by the display control device 30 is used as an AR image. An image is defined as an image, and an image whose display position is set regardless of the position of the real object is defined as a non-AR image. Further, in the description of the present embodiment, a perspective image is defined as an image composed of one or a plurality of images represented by a perspective drawing method that produces a sense of perspective, and an image that is not represented by a perspective drawing method is defined as a non-perspective image. . Perspective images are typically AR images.

後述する表示制御装置30は、例えば、画像レンダリング処理(グラフィック処理)、表示器駆動処理などを実行することで、HUD装置20が表示する(観察者が知覚する)画像Vの態様を制御することができる。 The display control device 30, which will be described later, performs, for example, image rendering processing (graphic processing), display device driving processing, and the like, thereby controlling the aspect of the image V displayed by the HUD device 20 (perceived by the observer). can be done.

図3は、実景のターゲット位置に配置される仮想オブジェクトと、仮想オブジェクトが実景のターゲット位置に視認されるように虚像表示領域に表示される画像と、を概念的に示した図である。図3に表したように、観視者700から見て、奥行き方向をZ軸方向とし、左右方向(自車両1の幅方向)をX軸方向とし、上下方向(自車両1の上下方向)をY軸方向とする。なお、観視者から見て遠ざかる方向をZ軸の正の方向とし、観視者から見て左方向がX軸の正の方向とし、観視者から見て上方向をY軸の正の方向とする。 FIG. 3 is a diagram conceptually showing a virtual object placed at a target position in the real scene and an image displayed in the virtual image display area such that the virtual object is visually recognized at the target position in the real scene. As shown in FIG. 3, when viewed from the viewer 700, the depth direction is the Z-axis direction, the left-right direction (the width direction of the vehicle 1) is the X-axis direction, and the vertical direction (the vertical direction of the vehicle 1). is the Y-axis direction. Note that the direction away from the viewer is the positive direction of the Z axis, the leftward direction is the positive direction of the X axis, and the upward direction is the positive direction of the Y axis. direction.

観視者700は、被投影部2を介して虚像表示領域VSに形成された(結像された)虚像Vを視認することで、実景の所定のターゲット位置PTに、仮想オブジェクトFUを知覚する。観視者は、被投影部2で反射した表示光Kの映像の虚像Vを視認する。この時、虚像Vが、例えば進路を示す矢印である場合、自車両1の前景の所定のターゲット位置PTに仮想オブジェクトFUが配置されて視認されるように、虚像Vの矢印は虚像表示領域VSに表示される。 The viewer 700 perceives the virtual object FU at a predetermined target position PT in the real scene by visually recognizing the virtual image V formed (imaged) in the virtual image display area VS through the projection target section 2. . A viewer visually recognizes the virtual image V of the image of the display light K reflected by the projection target section 2 . At this time, if the virtual image V is, for example, an arrow indicating a course, the arrow of the virtual image V is positioned in the virtual image display area VS so that the virtual object FU is placed at a predetermined target position PT in the foreground of the host vehicle 1 and visually recognized. to be displayed.

(第1の幅表示態様のパースペクティブ虚像V10)
図4は、自車両1の走行中において、観察者が視認する前景と、前景に重畳して表示される第1の幅表示態様の虚像の例を示す図である。第1の幅表示態様の虚像V10(以下では、パースペクティブ虚像V10とも呼ぶ。)は、消失点VP10(第1消失点VP10、幅消失点、第1幅消失点とも呼ぶ)を有する。すなわち、パースペクティブ虚像V10の図形は、奥行きを知覚させる消失点VP10を有する形状を有しており、例えば「矢印」の幹の部分の左辺の延長線V1A及び右辺の延長線V1Bは、消失点VP10で交差する。
(Perspective virtual image V10 in first width display mode)
FIG. 4 is a diagram showing an example of a foreground visually recognized by an observer and a virtual image of the first width display mode superimposed on the foreground while the own vehicle 1 is running. A virtual image V10 in the first width display mode (hereinafter also referred to as a perspective virtual image V10) has a vanishing point VP10 (also referred to as a first vanishing point VP10, width vanishing point, or first width vanishing point). In other words, the figure of the perspective virtual image V10 has a shape having a vanishing point VP10 that gives a perception of depth. cross at

図示するように、観視者から見てパースペクティブ虚像V10が下方(縦配置角θdが正の方向である位置)に配置される場合は、消失点VP10は、虚像V10の位置よりも上方に配置される。一方、観視者から見てパースペクティブ虚像V10が上方(縦配置角θdが負の方向である位置)に配置される場合は、消失点VP10は、虚像の位置よりも下方に配置される。 As shown in the figure, when the perspective virtual image V10 is arranged below the viewer (the position where the vertical arrangement angle θd is in the positive direction), the vanishing point VP10 is arranged above the position of the virtual image V10. be done. On the other hand, when the perspective virtual image V10 is arranged above the viewer (position where the vertical arrangement angle θd is in the negative direction), the vanishing point VP10 is arranged below the position of the virtual image.

観視者は、消失点VP10とパースペクティブ虚像V10との位置との関係に基づいて、観視者から見た時のパースペクティブ虚像V10の奥行き感を得る。このように、パースペクティブ虚像V10が消失点VP10を有することで、観視者におけるパースペクティブ虚像V10の奥行き位置の推定が容易になる。 Based on the positional relationship between the vanishing point VP10 and the perspective virtual image V10, the viewer obtains a sense of depth of the perspective virtual image V10 when viewed from the viewer. Since the perspective virtual image V10 has the vanishing point VP10 in this way, the viewer can easily estimate the depth position of the perspective virtual image V10.

一方、図4に示したように、自車両1の走行レーン6は、消失点VP0(実景消失点VP0)を有する。本具体例では、観視者から見て、前方に直進する走行レーン6が存在し、その走行レーン6の両側の境界線7及び8の延長線が、消失点VP0で実質的に交差(点となる)する。このように、走行レーン(路面)6が消失点VP0を有することから、観視者は、実景(走行レーン6)において奥行き感を得る。 On the other hand, as shown in FIG. 4, the driving lane 6 of the host vehicle 1 has a vanishing point VP0 (real vanishing point VP0). In this specific example, as seen from the viewer, there is a running lane 6 that runs straight ahead, and extension lines of boundary lines 7 and 8 on both sides of the running lane 6 substantially intersect (point becomes). Since the driving lane (road surface) 6 thus has the vanishing point VP0, the viewer obtains a sense of depth in the actual scene (driving lane 6).

そして、本実施形態に係る車両用虚像表示システム10においては、図4に示すように、パースペクティブ虚像V10の消失点VP10が、実景(走行レーン6)の消失点VP0よりも手前側(観察者から見ると下方)に配置される。 In the vehicle virtual image display system 10 according to the present embodiment, as shown in FIG. 4, the vanishing point VP10 of the perspective virtual image V10 is closer to the viewer (from the observer than the vanishing point VP0 of the actual scene (driving lane 6)). When viewed, it is located below).

一般に、線遠近法(透視図法)を用いて、絵画などを含めて画像を作成する場合、画像内の各種のオブジェクトをそれぞれの奥行き位置に配置する際に、消失点が用いられる。例えば、所定の消失点から直線が放射状に仮想的に描かれ、その直線に各オブジェクトの輪郭線などを沿わせることで、各オブジェクトは所定の奥行き位置に定着されて知覚される。なお、消失点は複数設けることができるが、ここでは、説明を簡単にするために、1つの画像内において消失点が1つ設けられる場合として説明する。 In general, when creating an image including a painting using linear perspective (perspective drawing), a vanishing point is used when arranging various objects in the image at their respective depth positions. For example, a straight line is virtually drawn radially from a predetermined vanishing point, and the outline of each object is made to follow the straight line, so that each object is perceived as fixed at a predetermined depth position. Although a plurality of vanishing points can be provided, here, for the sake of simplicity of explanation, a case where one vanishing point is provided in one image will be described.

一般の線遠近法(透視図法)を用いた場合、観察者に知覚させる仮想オブジェクトの輪郭を形成する各境界線の延長線が、前景(走行レーン6)の消失点VP0で交差するように、虚像が表示さされる、すなわち、虚像の消失点VP10の位置が、前景(走行レーン6)の消失点VP0の位置と一致するように、虚像が生成されるが、本実施形態においては、パースペクティブ虚像V10の消失点VP10の位置が、前景(走行レーン6)の消失点VP0の位置よりも手前側になるように、パースペクティブ虚像V10が生成される(第1の幅表示処理)。 When using a general linear perspective method (perspective drawing method), the extension lines of each boundary line forming the outline of the virtual object perceived by the observer intersect at the vanishing point VP0 of the foreground (running lane 6). The virtual image is displayed, that is, the virtual image is generated so that the position of the vanishing point VP10 of the virtual image coincides with the position of the vanishing point VP0 of the foreground (driving lane 6). The perspective virtual image V10 is generated so that the position of the vanishing point VP10 of V10 is closer to the viewer than the position of the vanishing point VP0 of the foreground (driving lane 6) (first width display processing).

これにより、仮想オブジェクトFU10の知覚される配置角(図3のX2軸を回転軸とした路面に対する角度)が、走行レーン6と概ね平行であるように、観察者により感得されやすくすることができる。 This makes it easier for the observer to perceive that the perceived arrangement angle of the virtual object FU10 (the angle with respect to the road surface with the X2 axis in FIG. 3 as the rotation axis) is generally parallel to the driving lane 6. can.

仮想オブジェクトFU10は「矢印」であり、通常は、仮想オブジェクトFU10が配置される(設定される)ターゲット位置PTは、前景(走行レーン6)の表面の高さに一致させる(すなわち、設定高さを0mに設定する)。但し、これは一例であり、限定されるものではない。他の例では、ターゲット位置PTは、前景(走行レーン6)の表面の高lさより高い位置に設定してもよい(すなわち、設定高さを0.5mや1mに設定してもよい)。また、他の例では、ターゲット位置PTは、前景(走行レーン6)の表面の高さより低い位置に設定してもよい(すなわち、設定高さを-1mや-2mに設定してもよい)。 The virtual object FU10 is an "arrow", and the target position PT at which the virtual object FU10 is placed (set) is usually made to match the height of the surface of the foreground (running lane 6) (that is, the set height to 0 m). However, this is an example and is not limited. In another example, the target position PT may be set at a position higher than the surface height l of the foreground (running lane 6) (that is, the set height may be set to 0.5 m or 1 m). In another example, the target position PT may be set at a position lower than the height of the surface of the foreground (running lane 6) (that is, the set height may be set to -1m or -2m). .

(第1の厚み表示態様のパースペクティブ虚像V10)
また、第1の厚み表示態様のパースペクティブ虚像V10は、1つ又は複数の厚みVTを有し、1つ又は複数の厚みVTの消失点VP20(第2消失点、第2幅消失点とも呼ぶ。)を有する。すなわち、第1の厚み表示態様のパースペクティブ虚像V10の図形は、1つ又は複数の厚みVTを有し、視認者に知覚させようとする距離が遠いほど、第2消失点VP20に向かい、徐々に1つ又は複数の厚みVTを短くしていく。すなわち、図4に示す厚みVTを形成する上辺の延長線V1C及び厚みVTを形成する下辺の延長線V1Dとの間の距離が第2消失点VP20でゼロになる(厚みVTを形成する上辺の延長線V1Cと下辺の延長線V1Dとが第2消失点VP20で交差する)。
(Perspective virtual image V10 in first thickness display mode)
Also, the perspective virtual image V10 in the first thickness display mode has one or more thicknesses VT, and one or more thickness VT vanishing points VP20 (also referred to as second vanishing points or second width vanishing points). ). That is, the figure of the perspective virtual image V10 in the first thickness display mode has one or more thicknesses VT, and the farther the distance to be perceived by the viewer, the further it moves toward the second vanishing point VP20, and gradually One or more thicknesses VT are shortened. That is, the distance between the extension line V1C of the upper side forming the thickness VT and the extension line V1D of the lower side forming the thickness VT shown in FIG. The extension line V1C and the extension line V1D of the lower side intersect at the second vanishing point VP20).

図4に示すように、第1の厚み表示態様のパースペクティブ虚像V10は、2つの厚みVT1、VT2を有する。第1の厚み表示態様のパースペクティブ虚像V10は、矢印の幹の部分の最も視認者側にあるように表現される上下左右方向(XY平面)に平行である第1の厚み部VY1と、矢印の頭の部分の最も視認者側にあるように表現される上下左右方向(XY平面)に平行である第2の厚み部VY2と、を有する。第1の厚み部VY1は、運転席から前方を向く視認者から見た上下方向(Y軸方向)に沿った長さ(以下では、第1の厚さとも呼ぶ。)VT1を有し、第2の厚み部VY2は、運転席から前方を向く視認者から見た上下方向(Y軸方向)に沿った長さ(以下では、第2の厚さとも呼ぶ。)VT2を有する。ここで、視認者の近傍側の第1の厚みVT1は、第1の厚みVT1を有する第1の厚み部VY1より遠方に配置される第2の厚み部VY2の第2の厚みVT2より長く、第2消失点VP20に収束する上辺V1Cと下辺V1Dとに基づき、第1の厚みVT1、第2の厚みVT2が設定される。 As shown in FIG. 4, the perspective virtual image V10 in the first thickness display mode has two thicknesses VT1 and VT2. The perspective virtual image V10 in the first thickness display mode includes a first thickness portion VY1 parallel to the vertical and horizontal directions (XY plane), which is expressed as being closest to the viewer side of the trunk portion of the arrow, and the and a second thickness portion VY2 that is parallel to the vertical and horizontal directions (XY plane) and is expressed as if it is located closest to the viewer side of the head portion. The first thickness portion VY1 has a length (hereinafter also referred to as a first thickness) VT1 along the vertical direction (Y-axis direction) viewed from a viewer looking forward from the driver's seat. The thickness portion VY2 of 2 has a length (hereinafter also referred to as a second thickness) VT2 along the vertical direction (Y-axis direction) viewed from a viewer looking forward from the driver's seat. Here, the first thickness VT1 on the near side of the viewer is longer than the second thickness VT2 of the second thickness portion VY2 arranged farther than the first thickness portion VY1 having the first thickness VT1, A first thickness VT1 and a second thickness VT2 are set based on the upper side V1C and the lower side V1D converging on the second vanishing point VP20.

観視者は、パースペクティブ虚像V10の奥行き方向における厚さの変化具合(第1の厚みVT1、第2の厚みVT2の長さの関係)に基づいて、観視者から見た時のパースペクティブ虚像V10の奥行き感を得る。このように、パースペクティブ虚像V10が、厚みVTに関する第2消失点VP20を有することで、観視者におけるパースペクティブ虚像V10の奥行き位置の推定が容易になる。 Based on how the thickness of the perspective virtual image V10 changes in the depth direction (relationship between the lengths of the first thickness VT1 and the second thickness VT2), the viewer determines the perspective virtual image V10 as seen from the viewer. get a sense of depth. In this way, the perspective virtual image V10 has the second vanishing point VP20 with respect to the thickness VT, making it easier for the viewer to estimate the depth position of the perspective virtual image V10.

そして、第2実施形態に係る車両用虚像表示システム10においては、図4に示すように、パースペクティブ虚像V10の厚みVTの第2消失点VP20が、実景(走行レーン6)の消失点VP0よりも手前側(観察者から見ると下方)に配置される。すなわち、一般の線遠近法(透視図法)を用いた場合、観察者に知覚させる仮想オブジェクトの厚さを形成する各境界線の延長線V1C、V1Dが、前景(走行レーン6)の消失点VP0で交差するように、虚像が表示される、すなわち、虚像の厚みVTが第2消失点VP20の位置が、前景(走行レーン6)の消失点VP0の位置と一致するように、虚像が生成されるが、第2の実施形態においては、パースペクティブ虚像V10の厚みVTの第2消失点VP20の位置が、前景(走行レーン6)の消失点VP0の位置よりも手前側になるように、パースペクティブ虚像V10が生成される(第1の厚み表示処理)。 In the virtual image display system 10 for a vehicle according to the second embodiment, as shown in FIG. 4, the second vanishing point VP20 of the thickness VT of the perspective virtual image V10 is higher than the vanishing point VP0 of the actual scene (driving lane 6). It is arranged on the near side (downward when viewed from the observer). That is, when a general linear perspective method (perspective drawing method) is used, the extension lines V1C and V1D of the boundary lines forming the thickness of the virtual object perceived by the observer correspond to the vanishing point VP0 of the foreground (running lane 6). That is, the virtual image is generated so that the position of the second vanishing point VP20 of the virtual image thickness VT matches the position of the vanishing point VP0 of the foreground (driving lane 6). However, in the second embodiment, the perspective virtual image V10 is arranged such that the position of the second vanishing point VP20 of the thickness VT of the perspective virtual image V10 is closer to the viewer than the position of the vanishing point VP0 of the foreground (running lane 6). V10 is generated (first thickness display processing).

なお、図4の例では、第1の幅表示処理におけるパースペクティブ虚像V10の幅方向(X軸方向)に関する第1消失点VP10と、第1の厚み表示処理におけるパースペクティブ虚像V10の厚さ方向(Y軸方向)に関する第2消失点VP20と、が一致しているが、これに限定されない。第2消失点VP20は、観察者から見て第1消失点VP10より上側であり、かつ実景消失点VP0より下側であってもよい。これにより、遠方でも厚みVTを維持しつつ(厚みVTの減少を抑制しつつ)、走行レーンの面に平行であるように感得しやすい画像を表示することができる。 In the example of FIG. 4, the first vanishing point VP10 in the width direction (X-axis direction) of the perspective virtual image V10 in the first width display process and the thickness direction (Y axial direction) coincide with the second vanishing point VP20, but not limited to this. The second vanishing point VP20 may be above the first vanishing point VP10 and below the actual scene vanishing point VP0 as seen from the observer. As a result, it is possible to display an image that is easy to perceive as being parallel to the surface of the driving lane while maintaining the thickness VT even at a distance (while suppressing a decrease in the thickness VT).

図5は、第1の厚み表示態様のパースペクティブ虚像V10の変形例を示す図である。図4に示す第1の厚み表示態様のパースペクティブ虚像V10は、2つ(複数の一例。)の分かれた第1の厚みVT1を有する第1の厚み部VY1及び、第2の厚みVT2を有する第2の厚み部VY2、を有していたが、これに限定されない。第1の厚み表示態様のパースペクティブ虚像V10は、図5に示すように、1つの厚み部VY3を有し、1つの厚み部VY3のうち観察者から見た近傍端を第3の厚みVT3とし、遠方端を第4の厚みVT4とし、第3の厚みVT3の上端と第4の厚みVT4の上端を結ぶ上辺の延長線V1Cと、第3の厚みVT3の下端と第4の厚みVT4の下端を結ぶ下辺の延長線V1Dと、が実景消失点VP0より下側の第2消失点VP20に収束するように、1つの厚み部VY3における第3の厚みVT3、第4の厚みVT4が設定されてもよい。 FIG. 5 is a diagram showing a modification of the perspective virtual image V10 in the first thickness display mode. The perspective virtual image V10 in the first thickness display mode shown in FIG. 2, but is not limited to this. The perspective virtual image V10 in the first thickness display mode has, as shown in FIG. The far end is a fourth thickness VT4, the extension line V1C of the upper side connecting the upper end of the third thickness VT3 and the upper end of the fourth thickness VT4, the lower end of the third thickness VT3 and the lower end of the fourth thickness VT4 are Even if the third thickness VT3 and the fourth thickness VT4 in one thickness portion VY3 are set so that the extension line V1D of the connecting lower side converges to the second vanishing point VP20 below the vanishing point VP0 of the actual scene. good.

図6A、図6B、図6C及び、図6Dは、パースペクティブ画像の変形例を示す図である。上記実施形態のパースペクティブ虚像V10は、1つの直線の「矢印」から構成されていたが、これに限定されない。図6Aに示すパースペクティブ虚像V20は、画像(「矢印」)の途中から屈曲させたものであってもよい。この場合、左方パースペクティブ線V1Aは、パースペクティブ虚像V20が屈曲するまでの左辺の延長線と定義することができ、右方パースペクティブ線V1Bは、パースペクティブ虚像V20が屈曲するまでの右辺の延長線と定義することができる。 6A, 6B, 6C, and 6D are diagrams showing modified examples of perspective images. Although the perspective virtual image V10 in the above embodiment is composed of one straight "arrow", it is not limited to this. The perspective virtual image V20 shown in FIG. 6A may be bent from the middle of the image (“arrow”). In this case, the left perspective line V1A can be defined as an extension of the left side until the perspective virtual image V20 bends, and the right perspective line V1B can be defined as an extension of the right side until the perspective virtual image V20 bends. can do.

また、図6Bに示すパースペクティブ虚像V30は、第1のパースペクティブ虚像V31と、第1のパースペクティブ虚像V31より上方に配置され、第1のパースペクティブ虚像V31よりサイズが小さく設定される第2のパースペクティブ虚像V32とで構成される。この場合、左方パースペクティブ線V1Aは、第1のパースペクティブV31の左端と第2のパースペクティブV32の左端とを結ぶ直線と定義することができ、右方パースペクティブ線V1Bは、第1のパースペクティブV31の右端と第2のパースペクティブV32の右端とを結ぶ直線と定義することができる。 A perspective virtual image V30 shown in FIG. 6B includes a first perspective virtual image V31 and a second perspective virtual image V32 arranged above the first perspective virtual image V31 and having a size smaller than that of the first perspective virtual image V31. Consists of In this case, the left perspective line V1A can be defined as a straight line connecting the left edge of the first perspective V31 and the left edge of the second perspective V32, and the right perspective line V1B can be defined as the right edge of the first perspective V31. and the right edge of the second perspective V32.

また、図6Bに示す第1の厚み表示態様のパースペクティブ虚像V30は、2つの厚みVT5、VT6を有する。第1の厚み表示態様のパースペクティブ虚像V30は、視認者の近傍側にあるように表現される第1のパースペクティブ虚像V31の上下左右方向(XY平面)に平行である第1の厚み部VY1と、第1のパースペクティブ虚像V31よりも遠方側にあるように表現される第2のパースペクティブ虚像V32の上下左右方向(XY平面)に平行である第2の厚み部VY2と、を有する。第1の厚み部VY1は、運転席から前方を向く視認者から見た上下方向(Y軸方向)に沿った第1の厚みVT1を有し、第2の厚み部VY2は、運転席から前方を向く視認者から見た上下方向(Y軸方向)に沿った第2の厚みVT2を有する。ここで、視認者の近傍側の第1の厚みVT1は、第1の厚みVT1を有する第1の厚み部VY1より遠方に配置される第2の厚み部VY2の第2の厚みVT2より長く、第2消失点VP20に収束する上辺V1Cと下辺V1Dとに基づき、第1の厚みVT1、第2の厚みVT2が設定される。 Also, the perspective virtual image V30 in the first thickness display mode shown in FIG. 6B has two thicknesses VT5 and VT6. The perspective virtual image V30 in the first thickness display mode includes a first thickness portion VY1 that is parallel to the vertical and horizontal directions (XY plane) of the first perspective virtual image V31 expressed as if it were on the near side of the viewer, and and a second thickness portion VY2 that is parallel to the vertical and horizontal directions (XY plane) of the second perspective virtual image V32 that is expressed to be farther than the first perspective virtual image V31. The first thickness portion VY1 has a first thickness VT1 along the vertical direction (Y-axis direction) as viewed by a viewer facing forward from the driver's seat. It has a second thickness VT2 along the vertical direction (Y-axis direction) viewed from the viewer facing the viewer. Here, the first thickness VT1 on the near side of the viewer is longer than the second thickness VT2 of the second thickness portion VY2 arranged farther than the first thickness portion VY1 having the first thickness VT1, A first thickness VT1 and a second thickness VT2 are set based on the upper side V1C and the lower side V1D converging on the second vanishing point VP20.

また、図6Cに示すパースペクティブ虚像V40は、左右で分割された複数のパースペクティブ虚像V41~V49で構成されてもよい。この場合、左方パースペクティブ線V1Aは、左方のパースペクティブV41~V44の左端を結ぶ直線(近似直線)と定義することができ、右方パースペクティブ線V1Bは、右方のパースペクティブV45~V48の右端を結ぶ直線(近似直線)と定義することができる。 Also, the perspective virtual image V40 shown in FIG. 6C may be composed of a plurality of left and right divided perspective virtual images V41 to V49. In this case, the left perspective line V1A can be defined as a straight line (approximate straight line) connecting the left ends of the left perspectives V41 to V44, and the right perspective line V1B extends the right ends of the right perspectives V45 to V48. It can be defined as a connecting straight line (approximate straight line).

また、図6Dに示すパースペクティブ虚像V50の消失点VP10(第1消失点VP10)は、観察者から見て、走行レーン6の境界線7,8同士の交点である消失点VP0の左右方向にずれた消失点VP0‘に向けられた位置(図6Dに示す消失点VP0’は、消失点VP0の左方に配置される)に設定されてもよい。このような場合でも、パースペクティブ虚像V50の消失点VP10(第1消失点VP10)は、消失点VP0‘(実景消失点VP0)よりも手前側に配置させることができる。 Also, the vanishing point VP10 (first vanishing point VP10) of the perspective virtual image V50 shown in FIG. 6D (the vanishing point VP0′ shown in FIG. 6D is located to the left of the vanishing point VP0). Even in such a case, the vanishing point VP10 (first vanishing point VP10) of the perspective virtual image V50 can be arranged closer to the viewer than the vanishing point VP0' (real vanishing point VP0).

(第2の幅表示態様のパースペクティブ虚像V60)
図7は、自車両1の走行中において、観察者が視認する前景と、前景に重畳して表示される第2の幅表示態様の虚像の例を示す図である。第2の幅表示態様の虚像V60(以下では、パースペクティブ虚像V60とも呼ぶ。)は、第1の幅表示態様のパースペクティブ虚像V10の第1消失点VP10よりも遠方側に消失点VP30(第3消失点VP30)を有する。すなわち、パースペクティブ虚像V60の図形は、奥行きを知覚させる第3消失点VP30を有する形状を有しており、例えば「矢印」の幹の部分の左辺の延長線V1B及び右辺の延長線V2Bは、第3消失点VP30で交差する。
(Perspective virtual image V60 in second width display mode)
FIG. 7 is a diagram showing an example of the foreground visually recognized by the observer and the virtual image of the second width display mode superimposed on the foreground while the own vehicle 1 is running. A virtual image V60 in the second width display mode (hereinafter also referred to as a perspective virtual image V60) is positioned farther than the first vanishing point VP10 of the perspective virtual image V10 in the first width display mode (the third vanishing point VP30). point VP30). That is, the figure of the perspective virtual image V60 has a shape having a third vanishing point VP30 that gives a perception of depth. 3 intersect at the vanishing point VP30.

図示するように、観視者から見て第2の幅表示態様のパースペクティブ虚像V60が下方(縦配置角θdが正の方向である位置)に配置される場合は、第3消失点VP30は、第1消失点VP10の位置よりも上方に配置される。一方、観視者から見て第2の幅表示態様のパースペクティブ虚像V60が上方(縦配置角θdが負の方向である位置)に配置される場合は、第3消失点VP30は、第1消失点VP10の位置よりも下方に配置される。 As shown in the figure, when the perspective virtual image V60 in the second width display mode is arranged below the viewer (position where the vertical arrangement angle θd is in the positive direction), the third vanishing point VP30 is It is arranged above the position of the first vanishing point VP10. On the other hand, when the perspective virtual image V60 in the second width display mode is arranged above the viewer (at the position where the vertical arrangement angle θd is in the negative direction), the third vanishing point VP30 is the first vanishing point VP30. It is arranged below the position of the point VP10.

いくつかの実施形態のHUD装置20(表示制御装置30)は、パースペクティブ虚像Vの表示態様を、パースペクティブ虚像Vの種類に応じて、第1消失点VP10を有する上記第1の幅表示態様、又は第1消失点VP10より遠方側に設定される第3消失点VP30を有する上記第2の幅表示態様、に変化させる。いくつかの実施形態のHUD装置20(表示制御装置30)は、(10)パースペクティブ虚像Vが遠近方向に移動する又は伸縮する動画であれば、第3消失点VP30を有する第2の幅表示態様で表現(第2の幅表示処理の一例)し、(15)パースペクティブ虚像Vが静止画、あまり遠近方向に移動しない動画、又はあまり遠近方向に伸縮しない動画であれば、第1消失点VP10を有する第1の幅表示態様で表現する。 The HUD device 20 (display control device 30) of some embodiments sets the display mode of the perspective virtual image V to the first width display mode having the first vanishing point VP10, or The width display mode is changed to the second width display mode having the third vanishing point VP30 set farther than the first vanishing point VP10. The HUD device 20 (display control device 30) of some embodiments has a second width display mode having a third vanishing point VP30 if (10) the perspective virtual image V is a moving image that moves in the perspective direction or expands and contracts (an example of the second width display process), and (15) if the perspective virtual image V is a still image, a moving image that does not move in the perspective direction, or a moving image that does not expand or contract in the perspective direction, the first vanishing point VP10 is It is expressed in the first width display mode.

図8A、図8Bは、第3消失点VP30を有する第2の幅表示態様のパースペクティブ虚像Vを示す図である。いくつかの実施形態のHUD装置20(表示制御装置30)は、パースペクティブ虚像Vが、(11)遠近方向に徐々に伸縮しているように知覚される動画(図8Aの例では、近傍側から遠方側の第3消失点VP30に向かって徐々に延びる透視図法で表現される動画)、又は(12)遠近方向に徐々に移動するように知覚される動画(図8Bの例では、近傍側から遠方側の第3消失点VP30に向かって徐々に移動する透視図法で表現される動画)である場合、第3消失点VP30を有する第2の幅表示態様で表現する(第2の幅表示処理の一例)。一方、HUD装置20(表示制御装置30)は、パースペクティブ虚像Vが、(16)静止画、(17)あまり遠近方向に伸縮して知覚されない動画、又は(18)あまり遠近方向に移動して知覚されない動画、などである場合、第1消失点VP10を有する第1の幅表示態様で表現する(第1の幅表示処理の一例)。「(17)あまり遠近方向に伸縮しない動画、又は(18)あまり遠近方向に移動しない動画」は、具体的に例えば、左右方向(X軸方向)に動く動画、上下方向(Y軸方向)であり、ヒトの知覚では奥行き方向(Z軸方向)にも感得し得る方向に所定の閾値以下の微小な距離だけ動く動画(さらに具体的には、左右方向(X軸方向)に動く距離に対する上下方向(Y軸方向)に動く距離が1/10以下である動画)、などである。 8A and 8B are diagrams showing a perspective virtual image V in a second width representation having a third vanishing point VP30. In the HUD device 20 (display control device 30) of some embodiments, the perspective virtual image V is (11) a moving image that is perceived as gradually expanding and contracting in the perspective direction (in the example of FIG. 8A, from the near side or (12) a moving image perceived as gradually moving in the perspective direction (in the example of FIG. 8B, In the case of a moving image represented by a perspective drawing that gradually moves toward the third vanishing point VP30 on the far side), it is represented in a second width display mode having the third vanishing point VP30 (second width display processing example). On the other hand, the HUD device 20 (display control device 30) determines that the perspective virtual image V is (16) a still image, (17) a moving image that is not perceived by stretching too much in the perspective direction, or (18) that is perceived by moving too much in the perspective direction. If it is a moving image that is not displayed, it is expressed in a first width display mode having a first vanishing point VP10 (an example of first width display processing). "(17) Moving image that does not expand or contract very much in the perspective direction or (18) Moving image that does not move much in the perspective direction" specifically includes, for example, a moving image that moves in the horizontal direction (X-axis direction), and a moving image that moves in the vertical direction (Y-axis direction). There is, in human perception, a moving image that moves only a minute distance below a predetermined threshold in a direction that can be perceived in the depth direction (Z-axis direction). A moving image that moves in the vertical direction (Y-axis direction) by a distance of 1/10 or less).

また、いくつかの実施形態のHUD装置20(表示制御装置30)は、パースペクティブ虚像Vの表示態様を、パースペクティブ虚像Vの動画の移動速度(変形速度)に応じて、第1消失点VP10を有する上記第1の幅表示態様、又は第1消失点VP10より遠方側に設定される第3消失点VP30を有する上記第2の幅表示態様、に変化させる。例えば、いくつかの実施形態のHUD装置20(表示制御装置30)は、(20)パースペクティブ虚像Vの動画の移動速度(変形速度)が速ければ、第3消失点VP30を有する第2の幅表示態様で表現(第2の幅表示処理の一例)し、(25)パースペクティブ虚像Vの動画の移動速度が遅ければ、第1消失点VP10を有する第1の幅表示態様で表現する(第1の幅表示処理の一例)。 Further, the HUD device 20 (display control device 30) of some embodiments has a first vanishing point VP10 for the display mode of the perspective virtual image V according to the movement speed (deformation speed) of the moving image of the perspective virtual image V. The width display mode is changed to the first width display mode or the second width display mode having the third vanishing point VP30 set farther than the first vanishing point VP10. For example, the HUD device 20 (display control device 30) of some embodiments (20) displays a second width display having a third vanishing point VP30 if the moving speed (deformation speed) of the moving image of the perspective virtual image V is fast. (25) If the moving speed of the moving image of the perspective virtual image V is slow, it is represented in the first width display mode having the first vanishing point VP10 (first width display process). An example of width display processing).

上記実施形態のHUD装置20(表示制御装置30)は、パースペクティブ虚像Vが、(21)遠近方向に徐々に伸縮する、又は遠近方向に徐々に移動する画像の速度が、所定の画像速度閾値以上であり、速いと判定される場合、第3消失点VP30を有する第2の幅表示態様で表現する(第2の幅表示処理の一例)。一方、HUD装置20(表示制御装置30)は、パースペクティブ虚像Vが、(26)遠近方向に徐々に伸縮する、又は遠近方向に徐々に移動する画像の速度が、所定の画像速度閾値未満であり、遅いと判定される場合、第1消失点VP10を有する第1の幅表示態様で表現する(第1の幅表示処理の一例)。 In the HUD device 20 (display control device 30) of the above-described embodiment, the perspective virtual image V (21) gradually expands and contracts in the direction of perspective or moves gradually in the direction of perspective. , and if it is determined to be fast, it is expressed in a second width display mode having a third vanishing point VP30 (an example of second width display processing). On the other hand, the HUD device 20 (display control device 30) determines that the perspective virtual image V (26) gradually expands and contracts in the direction of perspective or moves gradually in the direction of perspective if the speed of the image is less than a predetermined image speed threshold. , if it is determined to be slow, it is expressed in a first width display mode having a first vanishing point VP10 (an example of first width display processing).

また、いくつかの実施形態のHUD装置20(表示制御装置30)は、パースペクティブ虚像Vの表示態様を、自車両1の前方(周囲)の明るさに応じて、第1消失点VP10を有する上記第1の幅表示態様、又は第1消失点VP10より遠方側に設定される第3消失点VP30を有する上記第2の幅表示態様、に変化させる(第2の幅表示処理の一例)。例えば、いくつかの実施形態のHUD装置20(表示制御装置30)は、(30)自車両1の前方(周囲)が明るいと判定される場合、第3消失点VP30を有する第2の幅表示態様で表現し、(35)自車両1の前方(周囲)が暗いと判定される場合、第1消失点VP10を有する第1の幅表示態様で表現する(第1の幅表示処理の一例)。 Further, the HUD device 20 (display control device 30) according to some embodiments changes the display mode of the perspective virtual image V according to the brightness in front (surroundings) of the host vehicle 1 to the above-described HUD device 20 having the first vanishing point VP10. Change to the first width display mode or the second width display mode having the third vanishing point VP30 set farther than the first vanishing point VP10 (an example of second width display processing). For example, the HUD device 20 (display control device 30) of some embodiments (30) displays a second width display having a third vanishing point VP30 when it is determined that the front (surroundings) of the own vehicle 1 is bright. (35) When it is determined that the front (surroundings) of the vehicle 1 is dark, the first width display mode having the first vanishing point VP10 is used (an example of first width display processing). .

また、いくつかの実施形態のHUD装置20(表示制御装置30)は、パースペクティブ虚像Vの表示態様を、パースペクティブ虚像Vの上下方向(Y軸方向)であり、ヒトの知覚では奥行き方向(Z軸方向)の長さに応じて、第1消失点VP10を有する上記第1の幅表示態様、又は第1消失点VP10より遠方側に設定される第3消失点VP30を有する上記第2の幅表示態様、に変化させる。例えば、いくつかの実施形態のHUD装置20(表示制御装置30)は、(40)パースペクティブ虚像Vの上下方向(Y軸方向)の長さであり、ヒトの知覚では奥行き方向(Z軸方向)の距離が、所定の閾値と同じ又は長いである場合、第3消失点VP30を有する第2の幅表示態様で表現(第2の幅表示処理の一例)し、(45)パースペクティブ虚像Vの上下方向(Y軸方向)の長さであり、ヒトの知覚では奥行き方向(Z軸方向)の距離が、所定の閾値より短い場合、第1消失点VP10を有する第1の幅表示態様で表現する(第1の幅表示処理の一例)。 Further, the HUD device 20 (display control device 30) of some embodiments sets the display mode of the perspective virtual image V in the vertical direction (Y-axis direction) of the perspective virtual image V, and in human perception, the depth direction (Z-axis direction). direction), the first width display mode having a first vanishing point VP10 or the second width display having a third vanishing point VP30 set farther than the first vanishing point VP10 Change to a mode. For example, the HUD device 20 (display control device 30) of some embodiments is (40) the length of the perspective virtual image V in the vertical direction (Y-axis direction), and in human perception, the depth direction (Z-axis direction) is equal to or longer than a predetermined threshold, the second width display mode having the third vanishing point VP30 (an example of second width display processing) is used, and (45) the perspective virtual image V It is the length in the direction (Y-axis direction), and when the distance in the depth direction (Z-axis direction) in human perception is shorter than a predetermined threshold, it is represented in the first width display mode having the first vanishing point VP10. (An example of first width display processing).

また、いくつかの実施形態のHUD装置20(表示制御装置30)は、パースペクティブ虚像Vの表示態様を、表示が継続される期間の長さに応じて、第1消失点VP10を有する上記第1の幅表示態様、又は第1消失点VP10より遠方側に設定される第3消失点VP30を有する上記第2の幅表示態様、に変化させる。例えば、いくつかの実施形態のHUD装置20(表示制御装置30)は、(50)動画又は静止画のパースペクティブ虚像Vを表示し始めてから表示し終わるまでの期間が所定の閾値と同じ又は長い場合、第3消失点VP30を有する第2の幅表示態様で表現(第2の幅表示処理の一例)し、(55)動画又は静止画のパースペクティブ虚像Vを表示し始めてから表示し終わるまでの期間が所定の閾値より短い場合、第1消失点VP10を有する第1の幅表示態様で表現する(第1の幅表示処理の一例)。 Further, the HUD device 20 (display control device 30) of some embodiments changes the display mode of the perspective virtual image V according to the length of the period in which the display is continued, to the above-described first vanishing point VP10. or the second width display mode having the third vanishing point VP30 set farther than the first vanishing point VP10. For example, the HUD device 20 (display control device 30) according to some embodiments, (50) when the period from the start of displaying the perspective virtual image V of the moving or still image to the end of displaying is equal to or longer than a predetermined threshold , expressed in a second width display mode having a third vanishing point VP30 (an example of second width display processing), and (55) a period from the start of displaying a perspective virtual image V of a moving or still image to the end of displaying it is shorter than a predetermined threshold, it is expressed in a first width display mode having a first vanishing point VP10 (an example of first width display processing).

また、いくつかの実施形態のHUD装置20(表示制御装置30)は、パースペクティブ虚像Vの幅方向の表示態様を、第1消失点VP10を有する上記第1の幅表示態様、から第1消失点VP10より遠方側に設定される第3消失点VP30を有する上記第2の幅表示態様、に変化させる際、パースペクティブ虚像Vの厚み方向の表示態様を、第2消失点VP20を有する上記第1の厚み表示態様、から第2消失点VP20より遠方側に設定される第4消失点(不図示)を有する第2の幅表示態様に変化させてもよい。ここで、第1消失点VP10と第2消失点VP20とは一致していてもよいが、これに限定されない。第2消失点VP20は、観察者から見て第1消失点VP10より上側であり、かつ実景消失点VP0より下側であってもよい。また、第3消失点(厚み消失点、第1厚み消失点とも呼ぶ。)VP30と第4消失点(不図示。第2厚み消失点とも呼ぶ。)とは一致していてもよいが、これに限定されない。第4消失点(不図示)は、観察者から見て第3消失点VP30より上側であり、かつ実景消失点VP0より下側であってもよい。 Further, the HUD device 20 (display control device 30) according to some embodiments changes the display mode of the perspective virtual image V in the width direction from the first width display mode having the first vanishing point VP10 to the first vanishing point VP10. When changing to the second width display mode having the third vanishing point VP30 set farther than VP10, the display mode in the thickness direction of the perspective virtual image V is changed to the first width display mode having the second vanishing point VP20. The thickness display mode may be changed to the second width display mode having a fourth vanishing point (not shown) set farther than the second vanishing point VP20. Here, the first vanishing point VP10 and the second vanishing point VP20 may coincide, but are not limited to this. The second vanishing point VP20 may be above the first vanishing point VP10 and below the actual scene vanishing point VP0 as seen from the observer. Also, the third vanishing point (also referred to as the thickness vanishing point or the first thickness vanishing point) VP30 and the fourth vanishing point (not shown; also referred to as the second thickness vanishing point) may coincide. is not limited to The fourth vanishing point (not shown) may be above the third vanishing point VP30 and below the actual scene vanishing point VP0 as seen from the observer.

図9は、いくつかの実施形態に係る、車両用虚像表示システムのブロック図である。表示制御装置30は、1つ又は複数のI/Oインタフェース31、1つ又は複数のプロセッサ33、1つ又は複数の画像処理回路35、及び1つ又は複数のメモリ37を備える。図9に記載される様々な機能ブロックは、ハードウェア、ソフトウェア、又はこれら両方の組み合わせで構成されてもよい。図9は、1つの実施形態に過ぎず、図示された構成要素は、より数の少ない構成要素に組み合わされてもよく、又は追加の構成要素があってもよい。例えば、画像処理回路35(例えば、グラフィック処理ユニット)が、1つ又は複数のプロセッサ33に含まれてもよい。 FIG. 9 is a block diagram of a vehicular virtual image display system, according to some embodiments. The display controller 30 comprises one or more I/O interfaces 31 , one or more processors 33 , one or more image processing circuits 35 and one or more memories 37 . Various functional blocks illustrated in FIG. 9 may be implemented in hardware, software, or a combination of both. FIG. 9 is only one embodiment and the illustrated components may be combined into fewer components or there may be additional components. For example, image processing circuitry 35 (eg, a graphics processing unit) may be included in one or more processors 33 .

図示するように、プロセッサ33及び画像処理回路35は、メモリ37と動作可能に連結される。より具体的には、プロセッサ33及び画像処理回路35は、メモリ37に記憶されているプログラムを実行することで、例えば画像データを生成、及び/又は送信するなど、車両用虚像表示システム10(表示器40)の制御を行うことができる。プロセッサ33及び/又は画像処理回路35は、少なくとも1つの汎用マイクロプロセッサ(例えば、中央処理装置(CPU))、少なくとも1つの特定用途向け集積回路(ASIC)、少なくとも1つのフィールドプログラマブルゲートアレイ(FPGA)、又はそれらの任意の組み合わせを含むことができる。メモリ37は、ハードディスクのような任意のタイプの磁気媒体、CD及びDVDのような任意のタイプの光学媒体、揮発性メモリのような任意のタイプの半導体メモリ、及び不揮発性メモリを含む。揮発性メモリは、DRAM及びSRAMを含み、不揮発性メモリは、ROM及びNVRAMを含んでもよい。 As shown, processor 33 and image processing circuitry 35 are operatively coupled with memory 37 . More specifically, the processor 33 and the image processing circuit 35 execute a program stored in the memory 37 to generate and/or transmit image data, for example, to display the vehicle virtual image display system 10 (display 40) can be controlled. Processor 33 and/or image processing circuitry 35 may include at least one general purpose microprocessor (e.g., central processing unit (CPU)), at least one application specific integrated circuit (ASIC), at least one field programmable gate array (FPGA). , or any combination thereof. Memory 37 includes any type of magnetic media such as hard disks, any type of optical media such as CDs and DVDs, any type of semiconductor memory such as volatile memory, and non-volatile memory. Volatile memory may include DRAM and SRAM, and non-volatile memory may include ROM and NVRAM.

図示するように、プロセッサ33は、I/Oインタフェース31と動作可能に連結されている。I/Oインタフェース31は、例えば、車両に設けられた後述の車両ECU401及び/又は、他の電子機器(後述する符号403~419)と、CAN(Controller Area Network)の規格に応じて通信(CAN通信とも称する)を行う。なお、I/Oインタフェース31が採用する通信規格は、CANに限定されず、例えば、CANFD(CAN with Flexible Data Rate)、LIN(Local Interconnect Network)、Ethernet(登録商標)、MOST(Media Oriented Systems Transport:MOSTは登録商標)、UART、もしくはUSBなどの有線通信インタフェース、又は、例えば、Bluetooth(登録商標)ネットワークなどのパーソナルエリアネットワーク(PAN)、802.11x Wi-Fi(登録商標)ネットワークなどのローカルエリアネットワーク(LAN)等の数十メートル内の近距離無線通信インタフェースである車内通信(内部通信)インタフェースを含む。また、I/Oインタフェース31は、無線ワイドエリアネットワーク(WWAN0、IEEE802.16-2004(WiMAX:Worldwide Interoperability for Microwave Access))、IEEE802.16eベース(Mobile WiMAX)、4G、4G-LTE、LTE Advanced、5Gなどのセルラー通信規格により広域通信網(例えば、インターネット通信網)などの車外通信(外部通信)インタフェースを含んでいてもよい。 As shown, processor 33 is operatively coupled with I/O interface 31 . The I/O interface 31 communicates (CAN communication). Note that the communication standard adopted by the I/O interface 31 is not limited to CAN, and includes, for example, CANFD (CAN with Flexible Data Rate), LIN (Local Interconnect Network), Ethernet (registered trademark), MOST (Media Oriented Systems Transport : MOST is a registered trademark), a wired communication interface such as UART or USB, or a personal area network (PAN) such as a Bluetooth network, a local network such as an 802.11x Wi-Fi network. It includes an in-vehicle communication (internal communication) interface, which is a short-range wireless communication interface within several tens of meters such as an area network (LAN). In addition, the I / O interface 31 is a wireless wide area network (WWAN0, IEEE802.16-2004 (WiMAX: Worldwide Interoperability for Microwave Access)), IEEE802.16e base (Mobile WiMAX), 4G, 4G-LTE, LTE Advanced, An external communication (external communication) interface such as a wide area communication network (for example, Internet communication network) may be included according to a cellular communication standard such as 5G.

図示するように、プロセッサ33は、I/Oインタフェース31と相互動作可能に連結されることで、車両用虚像表示システム10(I/Oインタフェース31)に接続される種々の他の電子機器等と情報を授受可能となる。I/Oインタフェース31には、例えば、車両ECU401、道路情報データベース403、自車位置検出部405、操作検出部407、目位置検出部409、車外センサ411、明るさ検出部413、IMU415、携帯情報端末417、及び外部通信機器419などが動作可能に連結される。なお、I/Oインタフェース31は、車両用虚像表示システム10に接続される他の電子機器等から受信する情報を加工(変換、演算、解析)する機能を含んでいてもよい。 As illustrated, the processor 33 is interoperably connected to the I/O interface 31, thereby communicating with various other electronic devices connected to the vehicle virtual image display system 10 (I/O interface 31). Information can be exchanged. The I/O interface 31 includes, for example, a vehicle ECU 401, a road information database 403, a vehicle position detection unit 405, an operation detection unit 407, an eye position detection unit 409, an external sensor 411, a brightness detection unit 413, an IMU 415, portable information A terminal 417, an external communication device 419, etc. are operatively coupled. Note that the I/O interface 31 may include a function of processing (converting, calculating, and analyzing) information received from other electronic devices or the like connected to the vehicle virtual image display system 10 .

表示器40は、プロセッサ33及び画像処理回路35に動作可能に連結される。したがって、光変調素子50によって表示される画像は、プロセッサ33及び/又は画像処理回路35から受信された画像データに基づいてもよい。プロセッサ33及び画像処理回路35は、I/Oインタフェース31から取得される情報に基づき、光変調素子50が表示する画像を制御する。 Display 40 is operatively coupled to processor 33 and image processing circuitry 35 . Accordingly, the image displayed by light modulating element 50 may be based on image data received from processor 33 and/or image processing circuitry 35 . The processor 33 and image processing circuit 35 control the image displayed by the light modulation element 50 based on information obtained from the I/O interface 31 .

車両ECU401は、自車両1に設けられたセンサやスイッチから、自車両1の状態(例えば、走行距離、車速、アクセルペダル開度、ブレーキペダル開度、エンジンスロットル開度、インジェクター燃料噴射量、エンジン回転数、モータ回転数、ステアリング操舵角、シフトポジション、ドライブモード、各種警告状態、姿勢(ロール角、及び/又はピッチング角を含む)、車両の振動(振動の大きさ、頻度、及び/又は周波数を含む))などを取得し、自車両1の前記状態を収集、及び管理(制御も含んでもよい。)するものであり、機能の一部として、自車両1の前記状態の数値(例えば、自車両1の車速。)を示す信号を、表示制御装置30のプロセッサ33へ出力することができる。なお、車両ECU401は、単にセンサ等で検出した数値(例えば、ピッチング角が前傾方向に3[degree]。)をプロセッサ33へ送信することに加え、又はこれに代わり、センサで検出した数値を含む自車両1の1つ又は複数の状態に基づく判定結果(例えば、自車両1が予め定められた前傾状態の条件を満たしていること。)、若しくは/及び解析結果(例えば、ブレーキペダル開度の情報と組み合わせされて、ブレーキにより車両が前傾状態になったこと。)を、プロセッサ33へ送信してもよい。例えば、車両ECU401は、自車両1が車両ECU401のメモリ(不図示)に予め記憶された所定の条件を満たすような判定結果を示す信号を表示制御装置30へ出力してもよい。なお、I/Oインタフェース31は、車両ECU401を介さずに、自車両1に設けられた自車両1に設けられたセンサやスイッチから、上述したような情報を取得してもよい。 The vehicle ECU 401 detects the state of the vehicle 1 (for example, travel distance, vehicle speed, accelerator pedal opening, brake pedal opening, engine throttle opening, injector fuel injection amount, engine Rotation speed, motor rotation speed, steering angle, shift position, drive mode, various warning states, posture (including roll angle and/or pitch angle), vehicle vibration (vibration magnitude, frequency, and/or frequency )), etc., collects and manages (may also include control) the state of the vehicle 1, and as part of the function, the numerical value of the state of the vehicle 1 (for example, A signal indicating the vehicle speed of the host vehicle 1 can be output to the processor 33 of the display control device 30 . The vehicle ECU 401 simply transmits a numerical value detected by a sensor or the like (for example, the pitching angle is 3 [degrees] in the forward tilting direction) to the processor 33, or alternatively, transmits the numerical value detected by the sensor. determination result based on one or more states of the own vehicle 1 including, for example, that the own vehicle 1 satisfies a predetermined forward lean condition, or/and an analysis result (for example, brake pedal open In combination with the degree information, the fact that the vehicle is leaning forward due to braking) may be transmitted to the processor 33 . For example, the vehicle ECU 401 may output to the display control device 30 a signal indicating a determination result that the host vehicle 1 satisfies a predetermined condition stored in advance in a memory (not shown) of the vehicle ECU 401 . Note that the I/O interface 31 may acquire the above-described information from sensors and switches provided in the own vehicle 1 without using the vehicle ECU 401 .

また、車両ECU401は、車両用虚像表示システム10が表示する画像を指示する指示信号を表示制御装置30へ出力してもよく、この際、画像の座標、サイズ、種類、表示態様、画像の報知必要度、及び/又は報知必要度を判定する元となる必要度関連情報を、前記指示信号に付加して送信してもよい。 In addition, the vehicle ECU 401 may output to the display control device 30 an instruction signal for instructing an image displayed by the virtual image display system 10 for a vehicle. Necessity-related information that serves as a basis for determining the necessity and/or the notification necessity may be added to the instruction signal and transmitted.

道路情報データベース403は、自車両1に設けられた図示しないナビゲーション装置、又は自車両1と車外通信インタフェース(I/Oインタフェース31)を介して接続される外部サーバー、に含まれ、後述する自車位置検出部405から取得される自車両1の位置に基づき、自車両1の周辺の情報(自車両1の周辺の実オブジェクト関連情報)である自車両1が走行する道路情報(車線,白線,停止線,横断歩道,道路の幅員,車線数,交差点,カーブ,分岐路,交通規制など)、地物情報(建物、橋、河川など)の、有無、位置(自車両1までの距離を含む)、方向、形状、種類、詳細情報などを読み出し、プロセッサ33に送信してもよい。また、道路情報データベース403は、出発地から目的地までの適切な経路(ナビゲーション情報)を算出し、当該ナビゲーション情報を示す信号、又は経路を示す画像データをプロセッサ33へ出力してもよい。 The road information database 403 is included in a navigation device (not shown) provided in the own vehicle 1 or an external server connected to the own vehicle 1 via an external communication interface (I/O interface 31). Based on the position of the vehicle 1 acquired from the position detection unit 405, road information (lanes, white lines, stop line, pedestrian crossing, road width, number of lanes, intersection, curve, branch road, traffic regulation, etc.), presence/absence of feature information (buildings, bridges, rivers, etc.), position (including distance to own vehicle 1) ), direction, shape, type, detailed information, etc. may be read and sent to the processor 33 . The road information database 403 may also calculate an appropriate route (navigation information) from the departure point to the destination and output to the processor 33 a signal indicating the navigation information or image data indicating the route.

自車位置検出部405は、自車両1に設けられたGNSS(全地球航法衛星システム)等であり、現在の自車両1の位置、方位を検出し、検出結果を示す信号を、プロセッサ33を介して、又は直接、道路情報データベース403、後述する携帯情報端末417、及び/もしくは外部通信機器419へ出力する。道路情報データベース403、後述する携帯情報端末417、及び/又は外部通信機器419は、自車位置検出部405から自車両1の位置情報を連続的、断続的、又は所定のイベント毎に取得することで、自車両1の周辺の情報を選択・生成して、プロセッサ33へ出力してもよい。 The vehicle position detection unit 405 is a GNSS (global navigation satellite system) or the like provided in the vehicle 1, detects the current position and direction of the vehicle 1, and sends a signal indicating the detection result to the processor 33. The information is output to the road information database 403 , a portable information terminal 417 and/or an external communication device 419 to be described later, via or directly. The road information database 403, a portable information terminal 417 (to be described later), and/or an external communication device 419 acquire position information of the vehicle 1 from the vehicle position detection unit 405 continuously, intermittently, or at each predetermined event. , information about the surroundings of the own vehicle 1 may be selected/generated and output to the processor 33 .

操作検出部407は、例えば、自車両1のCID(Center Information Display)、インストルメントパネルなどに設けられたハードウェアスイッチ、又は画像とタッチセンサなどとを兼ね合わされたソフトウェアスイッチなどであり、自車両1の乗員(運転席の着座するユーザ、及び/又は助手席に着座するユーザ)による操作に基づく操作情報を、プロセッサ33へ出力する。例えば、操作検出部407は、ユーザの操作により、虚像表示領域100を移動させる操作に基づく表示領域設定情報、アイボックス200を移動させる操作に基づくアイボックス設定情報、観察者の目位置700を設定する操作に基づく情報などを、プロセッサ33へ出力する。 The operation detection unit 407 is, for example, a CID (Center Information Display) of the vehicle 1, a hardware switch provided on an instrument panel, or a software switch combining an image and a touch sensor. Operation information based on an operation by one passenger (a user sitting in the driver's seat and/or a user sitting in the passenger's seat) is output to the processor 33 . For example, the operation detection unit 407 sets the display area setting information based on the operation of moving the virtual image display area 100, the eye box setting information based on the operation of moving the eye box 200, and the observer's eye position 700 by the user's operation. Information based on the operation to be performed is output to the processor 33 .

目位置検出部409は、自車両1の運転席に着座する観察者の目位置700(図1参照。)を検出する赤外線カメラなどのカメラを含み、撮像した画像を、プロセッサ33に出力してもよい。プロセッサ33は、目位置検出部409から撮像画像(目位置700を推定可能な情報の一例。)を取得し、この撮像画像を、パターンマッチングなどの手法で解析することで、観察者の目位置700の座標を検出し、検出した目位置700の座標を示す信号を、プロセッサ33へ出力してもよい。 The eye position detection unit 409 includes a camera such as an infrared camera that detects the eye position 700 (see FIG. 1) of the observer sitting in the driver's seat of the vehicle 1, and outputs the captured image to the processor 33. good too. The processor 33 acquires a captured image (an example of information that can estimate the eye position 700) from the eye position detection unit 409, and analyzes the captured image by a method such as pattern matching to determine the eye positions of the observer. The coordinates of 700 may be detected and a signal indicative of the detected coordinates of eye position 700 may be output to processor 33 .

また、目位置検出部409は、カメラの撮像画像を解析した解析結果(例えば、観察者の目位置700が、予め設定された複数の表示パラメータが対応する空間的な領域のどこに属しているかを示す信号。)を、プロセッサ33に出力してもよい。なお、自車両1の観察者の目位置700、又は観察者の目位置700を推定可能な情報を取得する方法は、これらに限定されるものではなく、既知の目位置検出(推定)技術を用いて取得されてもよい。 In addition, the eye position detection unit 409 obtains an analysis result obtained by analyzing the image captured by the camera (for example, where the observer's eye position 700 belongs in a spatial region corresponding to a plurality of preset display parameters). ) may be output to the processor 33 . Note that the method of acquiring the eye position 700 of the observer of the own vehicle 1 or the information that can estimate the eye position 700 of the observer is not limited to these, and a known eye position detection (estimation) technique can be used. may be obtained using

また、目位置検出部409は、観察者の目位置700の移動速度、及び/又は移動方向を検出し、観察者の目位置700の移動速度、及び/又は移動方向を示す信号を、プロセッサ33に出力してもよい。 Further, the eye position detection unit 409 detects the moving speed and/or moving direction of the observer's eye position 700, and outputs a signal indicating the moving speed and/or moving direction of the observer's eye position 700 to the processor 33. can be output to

また、目位置検出部409は、(10)観察者の目位置700がアイボックス200外にあることを示す信号、(20)観察者の目位置700がアイボックス200外にあると推定される信号、又は(30)観察者の目位置700がアイボックス200外になると予測される信号、を検出した場合、所定の条件を満たしたと判定し、当該状態を示す信号を、プロセッサ33に出力してもよい。 Further, the eye position detection unit 409 outputs (10) a signal indicating that the observer's eye position 700 is outside the eyebox 200, and (20) the observer's eye position 700 is estimated to be outside the eyebox 200. When a signal or (30) a signal predicted that the observer's eye position 700 is outside the eyebox 200, it is determined that a predetermined condition is satisfied, and a signal indicating the state is output to the processor 33. may

(20)観察者の目位置700がアイボックス200外にあると推定される信号は、(21)観察者の目位置700が検出できないことを示す信号、(22)観察者の目位置700の移動が検出された後、観察者の目位置700が検出できないことを示す信号、及び/又は(23)観察者の目位置700R、700Lのいずれかがアイボックス200の境界200Aの近傍(前記近傍は、例えば、境界200Aから所定の座標以内であることを含む。)にあることを示す信号、などを含む。 (20) The signal that the observer's eye position 700 is estimated to be outside the eyebox 200 includes (21) a signal indicating that the observer's eye position 700 cannot be detected, and (22) the observer's eye position 700. After the movement is detected, a signal indicating that the observer's eye position 700 cannot be detected; includes, for example, a signal indicating that it is within a predetermined coordinate from the boundary 200A).

(30)観察者の目位置700がアイボックス200外になると予測される信号は、(31)新たに検出した目位置700が、過去に検出した目位置700に対して、メモリ37に予め記憶された目位置移動距離閾値以上であること(所定の単位時間内における目位置の移動が規定範囲より大きいこと。)を示す信号、(32)目位置の移動速度が、メモリ37に予め記憶された目位置移動速度閾値以上であることを示す信号、などを含む。 (30) The signal predicted that the observer's eye position 700 is outside the eye box 200 is (31) the newly detected eye position 700 is stored in advance in the memory 37 with respect to the previously detected eye position 700. (32) eye position movement speed is stored in memory 37 in advance. and a signal indicating that the eye position moving speed is equal to or higher than the eye position moving speed threshold.

また、目位置検出部409は、視線方向検出部409としての機能を有していても良い。視線方向検出部409は、自車両1の運転席に着座する観察者の顔を撮像する赤外線カメラ、又は可視光カメラを含み、撮像した画像を、プロセッサ33に出力してもよい。プロセッサ33は、視線方向検出部409から撮像画像(視線方向を推定可能な情報の一例。)を取得し、この撮像画像を解析することで観察者の視線方向(及び/又は前記注視位置)を特定することができる。なお、視線方向検出部409は、カメラからの撮像画像を解析し、解析結果である観察者の視線方向(及び/又は前記注視位置)を示す信号をプロセッサ33に出力してもよい。なお、自車両1の観察者の視線方向を推定可能な情報を取得する方法は、これらに限定されるものではなく、EOG(Electro-oculogram)法、角膜反射法、強膜反射法、プルキンエ像検出法、サーチコイル法、赤外線眼底カメラ法などの他の既知の視線方向検出(推定)技術を用いて取得されてもよい。 Also, the eye position detection unit 409 may have a function as the line-of-sight direction detection unit 409 . The line-of-sight direction detection unit 409 may include an infrared camera or a visible light camera that captures the face of an observer sitting in the driver's seat of the vehicle 1 , and may output the captured image to the processor 33 . The processor 33 acquires a captured image (an example of information for estimating the line-of-sight direction) from the line-of-sight direction detection unit 409, and analyzes the captured image to determine the line-of-sight direction (and/or the gaze position) of the observer. can be specified. Note that the line-of-sight direction detection unit 409 may analyze the captured image from the camera and output to the processor 33 a signal indicating the line-of-sight direction (and/or the gaze position) of the observer, which is the analysis result. It should be noted that the method of acquiring information that can estimate the line-of-sight direction of the observer of the own vehicle 1 is not limited to these methods, and includes an EOG (Electro-oculogram) method, a corneal reflection method, a scleral reflection method, a Purkinje image It may also be obtained using other known gaze direction detection (estimation) techniques such as detection methods, search coil methods, infrared fundus camera methods.

車外センサ411は、自車両1の周辺(前方、側方、及び後方)に存在する実オブジェクトを検出する。車外センサ411が検知する実オブジェクトは、例えば、障害物(歩行者、自転車、自動二輪車、他車両など)、後述する走行レーンの路面、区画線、路側物、及び/又は地物(建物など)などを含んでいてもよい。車外センサとしては、例えば、ミリ波レーダ、超音波レーダ、レーザレーダ等のレーダセンサ、カメラ、又はこれらの組み合わせからなる検出ユニットと、当該1つ又は複数の検出ユニットからの検出データを処理する(データフュージョンする)処理装置と、から構成される。これらレーダセンサやカメラセンサによる物体検知については従来の周知の手法を適用する。これらのセンサによる物体検知によって、三次元空間内での実オブジェクトの有無、実オブジェクトが存在する場合には、その実オブジェクトの位置(自車両1からの相対的な距離、自車両1の進行方向を前後方向とした場合の左右方向の位置、上下方向の位置等)、大きさ(横方向(左右方向)、高さ方向(上下方向)等の大きさ)、移動方向(横方向(左右方向)、奥行き方向(前後方向))、移動速度(横方向(左右方向)、奥行き方向(前後方向))、及び/又は種類等を検出してもよい。1つ又は複数の車外センサ411は、各センサの検知周期毎に、自車両1の前方の実オブジェクトを検知して、実オブジェクト情報の一例である実オブジェクト情報(実オブジェクトの有無、実オブジェクトが存在する場合には実オブジェクト毎の位置、大きさ、及び/又は種類等の情報)をプロセッサ33に出力することができる。なお、これら実オブジェクト情報は、他の機器(例えば、車両ECU401)を経由してプロセッサ33に送信されてもよい。また、夜間等の周辺が暗いときでも実オブジェクトが検知できるように、センサとしてカメラを利用する場合には赤外線カメラや近赤外線カメラが望ましい。また、センサとしてカメラを利用する場合、視差で距離等も取得できるステレオカメラが望ましい。 The vehicle exterior sensor 411 detects real objects existing around the vehicle 1 (front, side, and rear). Real objects detected by the sensor 411 outside the vehicle include, for example, obstacles (pedestrians, bicycles, motorcycles, other vehicles, etc.), road surfaces of driving lanes, lane markings, roadside objects, and/or features (buildings, etc.), which will be described later. and so on. Exterior sensors include, for example, radar sensors such as millimeter wave radar, ultrasonic radar, and laser radar, cameras, or a detection unit consisting of a combination thereof, and processing detection data from the one or more detection units ( data fusion) and a processing device. A conventional well-known method is applied to object detection by these radar sensors and camera sensors. By object detection by these sensors, the presence or absence of a real object in the three-dimensional space, and if the real object exists, the position of the real object (relative distance from the own vehicle 1, the traveling direction of the own vehicle 1) Horizontal position, vertical position, etc.), size (horizontal direction (horizontal direction), height direction (vertical direction), etc.), movement direction (horizontal direction (horizontal direction) , depth direction (front-rear direction)), movement speed (horizontal direction (left-right direction), depth direction (front-rear direction)), and/or type and the like may be detected. One or a plurality of vehicle exterior sensors 411 detects a real object in front of the own vehicle 1 at each detection cycle of each sensor, and obtains real object information (presence or absence of a real object, whether or not a real object exists), which is an example of real object information. Information such as the position, size and/or type of each real object, if any, can be output to the processor 33 . Note that the real object information may be transmitted to the processor 33 via another device (for example, the vehicle ECU 401). Also, when using a camera as a sensor, an infrared camera or a near-infrared camera is desirable so that a real object can be detected even when the surroundings are dark, such as at night. Moreover, when using a camera as a sensor, a stereo camera that can acquire distance and the like by parallax is desirable.

明るさ検出部413は、自車両1の車室の前方に存在する前景の所定範囲の照度又は輝度を外界明るさ(明るさ情報の一例)、又は車室内の照度又は輝度を車内明るさ(明るさ情報の一例)として検知する。明るさ検出部413は、例えばフォトトランジスタ若しくはフォトダイオード等であり、図1に示す自車両1のインストルメントパネル、ルームミラー又はHUD装置20等に搭載される。 The brightness detection unit 413 converts the illuminance or luminance of a predetermined range of the foreground that exists in front of the passenger compartment of the vehicle 1 into the outside world brightness (an example of brightness information), or converts the illuminance or luminance in the passenger compartment into the vehicle interior brightness ( (an example of brightness information). The brightness detection unit 413 is, for example, a phototransistor or a photodiode, and is mounted on the instrument panel, the room mirror, the HUD device 20, or the like of the own vehicle 1 shown in FIG.

IMU415は、慣性加速に基づいて、自車両1の位置、向き、及びこれらの変化(変化速度、変化加速度)を検知するように構成された1つ又は複数のセンサ(例えば、加速度計及びジャイロスコープ)の組み合わせを含むことができる。IMU415は、検出した値(前記検出した値は、自車両1の位置、向き、及びこれらの変化(変化速度、変化加速度)を示す信号などを含む。)、検出した値を解析した結果を、プロセッサ33に出力してもよい。前記解析した結果は、前記検出した値が、所定の条件を満たしたか否かの判定結果を示す信号などであり、例えば、自車両1の位置又は向きの変化(変化速度、変化加速度)に関する値から、自車両1の挙動(振動)が少ないことを示す信号であってもよい。 The IMU 415 includes one or more sensors (e.g., accelerometers and gyroscopes) configured to detect the position, orientation, and changes thereof (velocity of change, acceleration of change) of the host vehicle 1 based on inertial acceleration. ). The IMU 415 analyzes the detected values (the detected values include signals indicating the position and orientation of the host vehicle 1 and their changes (change speed and change acceleration)), the results of analyzing the detected values, It may be output to processor 33 . The analysis result is a signal or the like indicating whether or not the detected value satisfies a predetermined condition. Therefore, the signal may be a signal indicating that the behavior (vibration) of the own vehicle 1 is small.

携帯情報端末417は、スマートフォン、ノートパソコン、スマートウォッチ、又は観察者(又は自車両1の他の乗員)が携帯可能なその他の情報機器である。I/Oインタフェース31は、携帯情報端末417とペアリングすることで、携帯情報端末417と通信を行うことが可能であり、携帯情報端末417(又は携帯情報端末を通じたサーバ)に記録されたデータを取得する。携帯情報端末417は、例えば、上述の道路情報データベース403及び自車位置検出部405と同様の機能を有し、前記道路情報(実オブジェクト関連情報の一例。)を取得し、プロセッサ33に送信してもよい。また、携帯情報端末417は、自車両1の近傍の商業施設に関連するコマーシャル情報(実オブジェクト関連情報の一例。)を取得し、プロセッサ33に送信してもよい。なお、携帯情報端末417は、携帯情報端末417の所持者(例えば、観察者)のスケジュール情報、携帯情報端末417での着信情報、メールの受信情報などをプロセッサ33に送信し、プロセッサ33及び画像処理回路35は、これらに関する画像データを生成及び/又は送信してもよい。 The mobile information terminal 417 is a smart phone, a notebook computer, a smart watch, or other information equipment that can be carried by the observer (or other occupant of the own vehicle 1). By pairing with the mobile information terminal 417, the I/O interface 31 can communicate with the mobile information terminal 417, and can read data recorded in the mobile information terminal 417 (or a server through the mobile information terminal). to get The mobile information terminal 417 has, for example, the same functions as the road information database 403 and the own vehicle position detection unit 405 described above, acquires the road information (an example of real object related information), and transmits it to the processor 33. may Also, the mobile information terminal 417 may acquire commercial information (an example of real object related information) related to commercial facilities near the own vehicle 1 and transmit it to the processor 33 . In addition, the mobile information terminal 417 transmits schedule information of the owner of the mobile information terminal 417 (for example, an observer), incoming call information at the mobile information terminal 417, mail reception information, etc. to the processor 33, and the processor 33 and the image Processing circuitry 35 may generate and/or transmit image data for these.

外部通信機器419は、自車両1と情報のやりとりをする通信機器であり、例えば、自車両1と車車間通信(V2V:Vehicle To Vehicle)により接続される他車両、歩車間通信(V2P:Vehicle To Pedestrian)により接続される歩行者(歩行者が携帯する携帯情報端末)、路車間通信(V2I:Vehicle To roadside Infrastructure)により接続されるネットワーク通信機器であり、広義には、自車両1との通信(V2X:Vehicle To Everything)により接続される全てのものを含む。外部通信機器419は、例えば、歩行者、自転車、自動二輪車、他車両(先行車等)、路面、区画線、路側物、及び/又は地物(建物など)の位置を取得し、プロセッサ33へ出力してもよい。また、外部通信機器419は、上述の自車位置検出部405と同様の機能を有し、自車両1の位置情報を取得し、プロセッサ33に送信してもよく、さらに上述の道路情報データベース403の機能も有し、前記道路情報(実オブジェクト関連情報の一例。)を取得し、プロセッサ33に送信してもよい。なお、外部通信機器419から取得される情報は、上述のものに限定されない。 The external communication device 419 is a communication device that exchanges information with the own vehicle 1, for example, other vehicles connected to the own vehicle 1 by vehicle-to-vehicle communication (V2V: vehicle-to-vehicle), vehicle-to-pedestrian communication (V2P: vehicle Pedestrian) connected by pedestrians (mobile information terminals carried by pedestrians), road-to-vehicle communication (V2I: Vehicle To roadside Infrastructure) is a network communication device connected by, in a broad sense, the vehicle 1 Includes everything connected by communication (V2X: Vehicle To Everything). The external communication device 419 acquires, for example, the positions of pedestrians, bicycles, motorcycles, other vehicles (preceding vehicles, etc.), road surfaces, lane markings, roadside objects, and/or features (buildings, etc.), and sends them to the processor 33. may be output. Further, the external communication device 419 has the same function as the vehicle position detection unit 405 described above, may acquire the position information of the vehicle 1 and transmit it to the processor 33, and furthermore, the road information database 403 described above may be used. and may acquire the road information (an example of real object related information) and transmit it to the processor 33 . Information acquired from the external communication device 419 is not limited to the above.

メモリ37に記憶されたソフトウェア構成要素は、表示パラメータ設定モジュール502、グラフィックモジュール504、光源駆動モジュール506、及びアクチュエータ駆動モジュール508、を含む。 The software components stored in memory 37 include display parameter setting module 502 , graphics module 504 , light source driving module 506 and actuator driving module 508 .

図10は、パースペクティブ虚像を第1の表示態様(第1の幅表示態様、第1の厚み表示態様)又は第2の表示態様(第2の幅表示態様、第2の厚み表示態様)で表示させる表示制御処理を実行する方法S100を示すフロー図である。方法S100は、ディスプレイを含むHUD装置20と、このHUD装置20を制御する表示制御装置30と、において実行される。方法S100内のいくつかの動作は任意選択的に組み合わされ、いくつかの動作の手順は任意選択的に変更され、いくつかの動作は任意選択的に省略される。 FIG. 10 shows the perspective virtual image in the first display mode (first width display mode, first thickness display mode) or second display mode (second width display mode, second thickness display mode). FIG. 4 is a flow diagram illustrating a method S100 of performing display control processing to cause the display to be displayed. The method S100 is performed in a HUD device 20 that includes a display and a display controller 30 that controls the HUD device 20 . Some acts in method S100 are optionally combined, some acts are optionally reordered, and some acts are optionally omitted.

表示制御装置30(後述するグラフィックモジュール504)は、例えば、道路情報データベース403から出発地から目的地までの適切な経路(ナビゲーション情報)、車外センサ411から実オブジェクト情報(実オブジェクトの有無、実オブジェクトが存在する場合には実オブジェクト毎の位置、大きさ、及び/又は種類等の情報)などを取得し、表示する仮想オブジェクトを選択する設定する(S110)。 The display control device 30 (a graphic module 504 to be described later) receives, for example, an appropriate route (navigation information) from the departure point to the destination from the road information database 403, real object information (presence or absence of a real object, real object exists, information such as the position, size and/or type of each real object) is acquired, and the virtual object to be displayed is selected and set (S110).

表示パラメータ設定モジュール502は、S131に示すように、I/Oインタフェース31から取得する1つ又は複数の情報に基づき、パースペクティブ虚像Vの表示態様を変化させる。表示パラメータ設定モジュール502は、I/Oインタフェース31から取得する1つ又は複数の情報に基づき、(11)パースペクティブ虚像Vを、遠近方向に移動する又は伸縮する動画に設定する場合、第3消失点VP30を有する第2の幅表示態様に設定(第2の幅表示処理の一例)し、(12)パースペクティブ虚像Vを、静止画、あまり遠近方向に移動しない動画、又はあまり遠近方向に伸縮しない動画に設定する場合、第1消失点VP10を有する第1の幅表示態様に設定する(第1の幅表示処理の一例)。また、いくつかの実施形態に置いて、表示パラメータ設定モジュール502は、I/Oインタフェース31から取得する1つ又は複数の情報に基づき、(16)パースペクティブ虚像Vを、遠近方向に移動する又は伸縮する動画に設定する場合、第4消失点(不図示)を有する第2の厚み表示態様に設定(第2の厚み表示処理の一例)し、(17)パースペクティブ虚像Vを、静止画、あまり遠近方向に移動しない動画、又はあまり遠近方向に伸縮しない動画に設定する場合、第2消失点VP20を有する第1の厚み表示態様に設定する(第1の厚み表示処理の一例)。 The display parameter setting module 502 changes the display mode of the perspective virtual image V based on one or more pieces of information acquired from the I/O interface 31, as shown in S131. The display parameter setting module 502, based on one or more pieces of information acquired from the I/O interface 31, (11) when setting the perspective virtual image V to a moving image that moves in the perspective direction or expands and contracts, the third vanishing point The second width display mode having VP30 is set (an example of second width display processing), and (12) the perspective virtual image V is changed to a still image, a moving image that does not move much in the perspective direction, or a moving image that does not expand or contract in the perspective direction. , the first width display mode having the first vanishing point VP10 is set (an example of first width display processing). In some embodiments, the display parameter setting module 502 also (16) moves or scales the perspective virtual image V in the perspective direction based on one or more information obtained from the I/O interface 31. (17) Perspective virtual image V is set to a still image with a relatively far perspective When setting a moving image that does not move in any direction or a moving image that does not expand or contract in the perspective direction, the first thickness display mode having the second vanishing point VP20 is set (an example of first thickness display processing).

また、表示パラメータ設定モジュール502は、S132に示すように、I/Oインタフェース31から取得する1つ又は複数の情報に基づき、(21)パースペクティブ虚像Vの動画の移動速度を所定の閾値より速く設定する場合、第3消失点VP30を有する第2の幅表示態様に設定し(第2の幅表示処理の一例)、(22)パースペクティブ虚像Vの動画の移動速度を所定の閾値より速く設定する場合、第1消失点VP10を有する第1の幅表示態様に設定する(第1の幅表示処理の一例)。また、いくつかの実施形態において、表示パラメータ設定モジュール502は、S132に示すように、I/Oインタフェース31から取得する1つ又は複数の情報に基づき、(26)パースペクティブ虚像Vの動画の移動速度を所定の閾値より速く設定する場合、第4消失点(不図示)を有する第2の厚み表示態様に設定し(第2の厚み表示処理の一例)、(27)パースペクティブ虚像Vの動画の移動速度を所定の閾値より速く設定する場合、第2消失点VP20を有する第1の厚み表示態様に設定する(第1の厚み表示処理の一例)。 In addition, as shown in S132, the display parameter setting module 502 (21) sets the moving speed of the moving image of the perspective virtual image V faster than a predetermined threshold based on one or more pieces of information acquired from the I/O interface 31. In this case, the second width display mode having the third vanishing point VP30 is set (an example of the second width display process), and (22) the moving speed of the perspective virtual image V is set faster than a predetermined threshold. , a first width display mode having a first vanishing point VP10 (an example of first width display processing). Further, in some embodiments, the display parameter setting module 502, as shown in S132, based on one or more pieces of information obtained from the I/O interface 31, (26) moving speed of the moving image of the perspective virtual image V is set faster than a predetermined threshold value, a second thickness display mode having a fourth vanishing point (not shown) is set (an example of second thickness display processing), and (27) movement of the moving image of the perspective virtual image V When the speed is set faster than the predetermined threshold, the first thickness display mode having the second vanishing point VP20 is set (an example of first thickness display processing).

また、表示パラメータ設定モジュール502は、S133に示すように、明るさ検出部413から取得する情報(但し、これに限定されない。)に基づき、(31)自車両1の前方(周囲)が明るいと判定される場合、パースペクティブ虚像Vを、第3消失点VP30を有する第2の幅表示態様に設定し(第2の幅表示処理の一例)、(32)自車両1の前方(周囲)が暗いと判定される場合、パースペクティブ虚像Vを、第1消失点VP10を有する第1の幅表示態様に設定する(第1の幅表示処理の一例)。また、いくつかの実施形態において、表示パラメータ設定モジュール502は、S133に示すように、明るさ検出部413から取得する情報(但し、これに限定されない。)に基づき、(36)自車両1の前方(周囲)が明るいと判定される場合、パースペクティブ虚像Vを、第4消失点(不図示)を有する第2の厚み表示態様に設定し(第2の厚み表示処理の一例)、(37)自車両1の前方(周囲)が暗いと判定される場合、パースペクティブ虚像Vを、第2消失点VP20を有する第1の厚み表示態様に設定する(第1の厚み表示処理の一例)。 Further, as shown in S133, the display parameter setting module 502, based on the information (but not limited to this) acquired from the brightness detection unit 413, (31) determines that the front (surroundings) of the vehicle 1 is bright. If it is determined, the perspective virtual image V is set to the second width display mode having the third vanishing point VP30 (an example of the second width display processing), and (32) the front (surroundings) of the vehicle 1 is dark. , the perspective virtual image V is set to the first width display mode having the first vanishing point VP10 (an example of first width display processing). Further, in some embodiments, the display parameter setting module 502, as shown in S133, based on information (but not limited to) obtained from the brightness detection unit 413, (36) If it is determined that the front (surroundings) is bright, the perspective virtual image V is set to the second thickness display mode having a fourth vanishing point (not shown) (an example of second thickness display processing), (37) When it is determined that the front (surroundings) of the vehicle 1 is dark, the perspective virtual image V is set to the first thickness display mode having the second vanishing point VP20 (an example of first thickness display processing).

また、表示パラメータ設定モジュール502は、S134に示すように、道路情報データベース403から取得される道路情報や車外センサ411から取得される前景に存在する実オブジェクトの位置情報(但し、これに限定されない。)に基づき、(41)案内経路や前景に存在する実オブジェクトを指示するパースペクティブ虚像Vの上下方向(Y軸方向)の長さであり、ヒトの知覚では奥行き方向(Z軸方向)の距離が、メモリ37に予め記憶される所定の閾値と同じ又は長いである場合、パースペクティブ虚像Vを、第3消失点VP30を有する第2の幅表示態様に設定し(第2の幅表示処理の一例)、(42)パースペクティブ虚像Vの上下方向(Y軸方向)の長さであり、ヒトの知覚では奥行き方向(Z軸方向)の距離が、所定の閾値より短い場合、パースペクティブ虚像Vを、第1消失点VP10を有する第1の幅表示態様に設定する(第1の幅表示処理の一例)。また、いくつかの実施形態において、表示パラメータ設定モジュール502は、S134に示すように、道路情報データベース403から取得される道路情報や車外センサ411から取得される前景に存在する実オブジェクトの位置情報(但し、これに限定されない。)に基づき、(46)案内経路や前景に存在する実オブジェクトを指示するパースペクティブ虚像Vの上下方向(Y軸方向)の長さであり、ヒトの知覚では奥行き方向(Z軸方向)の距離が、メモリ37に予め記憶される所定の閾値と同じ又は長いである場合、パースペクティブ虚像Vを、第4消失点(不図示)を有する第2の厚み表示態様に設定し(第2の厚み表示処理の一例)、(47)パースペクティブ虚像Vの上下方向(Y軸方向)の長さであり、ヒトの知覚では奥行き方向(Z軸方向)の距離が、所定の閾値より短い場合、パースペクティブ虚像Vを、第2消失点VP20を有する第1の厚み表示態様に設定する(第1の厚み表示処理の一例)。 In addition, as shown in S134, the display parameter setting module 502 acquires road information acquired from the road information database 403 and position information of a real object existing in the foreground acquired from the vehicle exterior sensor 411 (but not limited to this). ), (41) is the length in the vertical direction (Y-axis direction) of the perspective virtual image V pointing to the guide route or the real object existing in the foreground. , is equal to or longer than a predetermined threshold stored in advance in the memory 37, the perspective virtual image V is set to a second width display mode having a third vanishing point VP30 (an example of second width display processing). , (42) is the length of the perspective virtual image V in the vertical direction (Y-axis direction), and when the distance in the depth direction (Z-axis direction) in human perception is shorter than a predetermined threshold, the perspective virtual image V is placed in the first A first width display mode having a vanishing point VP10 is set (an example of first width display processing). Further, in some embodiments, the display parameter setting module 502, as shown in S134, uses the road information acquired from the road information database 403 and the position information ( (46) is the vertical direction (Y-axis direction) length of the perspective virtual image V indicating the real object existing in the guide route or the foreground. Z-axis direction) is equal to or longer than a predetermined threshold pre-stored in the memory 37, the perspective virtual image V is set to the second thickness display mode having a fourth vanishing point (not shown). (Example of Second Thickness Display Processing), (47) The length of the perspective virtual image V in the vertical direction (Y-axis direction). If it is short, the perspective virtual image V is set to the first thickness display mode having the second vanishing point VP20 (an example of first thickness display processing).

また、表示パラメータ設定モジュール502は、S135に示すように、I/Oインタフェース31から取得する1つ又は複数の情報に基づき、(51)動画又は静止画のパースペクティブ虚像Vを表示し始めてから表示し終わるまでの期間が、メモリ37に予め定められた所定の閾値と同じ又は長い場合、パースペクティブ虚像Vを、第3消失点VP30を有する第2の幅表示態様に設定し(第2の幅表示処理の一例)、(52)動画又は静止画のパースペクティブ虚像Vを表示し始めてから表示し終わるまでの期間がメモリ37に予め記憶された所定の閾値より短い場合、パースペクティブ虚像Vを、第1消失点VP10を有する第1の幅表示態様に設定する(第1の幅表示処理の一例)。また、いくつかの実施形態において、表示パラメータ設定モジュール502は、S135に示すように、I/Oインタフェース31から取得する1つ又は複数の情報に基づき、(56)動画又は静止画のパースペクティブ虚像Vを表示し始めてから表示し終わるまでの期間が、メモリ37に予め定められた所定の閾値と同じ又は長い場合、パースペクティブ虚像Vを、第4消失点(不図示)を有する第2の厚み表示態様に設定し(第2の厚み表示処理の一例)、(57)動画又は静止画のパースペクティブ虚像Vを表示し始めてから表示し終わるまでの期間がメモリ37に予め記憶された所定の閾値より短い場合、パースペクティブ虚像Vを、第2消失点VP20を有する第1の厚み表示態様に設定する(第1の厚み表示処理の一例)。 In addition, as shown in S135, the display parameter setting module 502, based on one or more information acquired from the I/O interface 31, (51) displays the moving or still image perspective virtual image V after starting to display it. If the period until the end is equal to or longer than a predetermined threshold value predetermined in the memory 37, the perspective virtual image V is set to the second width display mode having the third vanishing point VP30 (second width display processing (Example), (52) When the period from the start of displaying the perspective virtual image V of the moving or still image to the end of displaying it is shorter than a predetermined threshold stored in advance in the memory 37, the perspective virtual image V is displayed at the first vanishing point. A first width display mode having VP10 is set (an example of first width display processing). In some embodiments, the display parameter setting module 502 may also (56) generate a moving or still perspective virtual image V based on one or more information obtained from the I/O interface 31, as shown at S135. is equal to or longer than a predetermined threshold value predetermined in the memory 37, the perspective virtual image V is displayed in a second thickness display mode having a fourth vanishing point (not shown). (an example of second thickness display processing), and (57) when the period from the start of displaying the perspective virtual image V of the moving or still image to the end of displaying is shorter than a predetermined threshold stored in advance in the memory 37 , the perspective virtual image V is set to a first thickness display mode having a second vanishing point VP20 (an example of first thickness display processing).

グラフィックモジュール504は、レンダリングなどの画像処理をして画像データを生成し、表示器40を駆動するための様々な既知のソフトウェア構成要素を含む。また、グラフィックモジュール504は、表示される画像の、種類(動画、静止画、形状)、配置(位置座標、角度)、サイズ、表示距離(3Dの場合。)、視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)、を変更するための様々な既知のソフトウェア構成要素を含んでいてもよい。グラフィックモジュール504は、画像の種類(表示パラメータの例の1つ。)、画像の位置座標(表示パラメータの例の1つ。)、画像の角度(X方向を軸としたピッチング角、Y方向を軸としたヨーレート角、Z方向を軸としたローリング角などであり、表示パラメータの例の1つ。)、画像のサイズ(表示パラメータの例の1つ。)、画像の色(色相、彩度、明度などで設定される表示パラメータの例の1つ。)、画像の遠近表現の強度(消失点の位置などで設定される表示パラメータの1つ。)で観察者に視認されるように画像データを生成し、光変調素子50を駆動し得る。 Graphics module 504 includes various known software components for performing image processing, such as rendering, to generate image data, and to drive display 40 . The graphic module 504 also controls the type (moving image, still image, shape), arrangement (positional coordinates, angle), size, display distance (in the case of 3D), visual effect (for example, brightness, (transparency, saturation, contrast, or other visual properties) may be included. The graphic module 504 stores the type of image (one example of the display parameter), the positional coordinates of the image (one example of the display parameter), the angle of the image (the pitching angle with the X direction as the axis, and the Y direction as the axis). yaw rate angle around the axis, rolling angle around the Z direction, etc., which are examples of display parameters), image size (one example of display parameters), image color (hue, saturation , one example of display parameters set by brightness, etc.), and the intensity of perspective expression of an image (one of display parameters set by the position of a vanishing point, etc.) to make an image visible to the observer. Data may be generated to drive the light modulating element 50 .

光源駆動モジュール506は、光源ユニット24を駆動することを実行するための様々な既知のソフトウェア構成要素を含む。光源駆動モジュール506は、設定された表示パラメータに基づき、光源ユニット24を駆動し得る。 Light source driving module 506 includes various known software components for performing driving of light source unit 24 . The light source driving module 506 can drive the light source unit 24 based on the set display parameters.

アクチュエータ駆動モジュール508は、第1アクチュエータ28及び/又は第2アクチュエータ29を駆動することを実行するための様々な既知のソフトウェア構成要素を含むアクチュエータ駆動モジュール508は、設定された表示パラメータに基づき、第1アクチュエータ28及び第2アクチュエータ29を駆動し得る。 Actuator drive module 508 includes various known software components for performing driving first actuator 28 and/or second actuator 29. One actuator 28 and a second actuator 29 can be driven.

目位置検出モジュール510は、観察者の目位置700を検出する。目位置検出モジュール510は、観察者の目位置700を示す座標(X,Y軸方向の位置であり、目位置700を示す信号の一例である。)観察者の目の高さを示す座標(Y軸方向の位置であり、目位置700を示す信号の一例である。)を検出すること、観察者の目の高さ及び奥行方向の位置を示す座標(Y及びZ軸方向の位置であり、目位置700を示す信号の一例である。)を検出すること、及び/又は観察者の目位置700を示す座標(X,Y,Z軸方向の位置であり、目位置700を示す信号の一例である。)を検出すること、に関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。 The eye position detection module 510 detects the eye position 700 of the observer. The eye position detection module 510 detects coordinates indicating the observer's eye position 700 (positions in the X and Y axis directions and is an example of a signal indicating the eye position 700), coordinates indicating the observer's eye height ( , which is an example of a signal indicating the eye position 700), and the coordinates indicating the position in the eye height and depth direction of the observer (which are the positions in the Y and Z axis directions). , which is an example of a signal indicating the eye position 700), and/or coordinates indicating the eye position 700 of the observer (which are positions in the X, Y, and Z axis directions and are signals indicating the eye position 700). is an example.) includes various software components for performing various operations related to detecting.

なお、第1消失点VP10、第2消失点VP20、第3消失点VP30、及び第4消失点(不図示)の位置は、目位置検出部409で検出される観察者の目位置700、又はIMU415で検出される自車両1の姿勢によって、調整されてもよい。例えば、表示制御装置30(表示パラメータ設定モジュール502)は、自車両1の姿勢(ピッチング角(X方向を軸とする角度))の変化に応じて第1消失点VP10、第2消失点VP20、第3消失点VP30、及び第4消失点(不図示)の位置を調整し得る。表示制御装置30(表示パラメータ設定モジュール502)は、自車両1の前方が下がるようなピッチング角である場合、観察者から見て虚像表示領域VSに対する第1消失点VP10、第2消失点VP20、第3消失点VP30、及び第4消失点(不図示)の相対位置が上側となるように調整し、一方、自車両1の前方が上がるようなピッチング角である場合、観察者から見て虚像表示領域VSに対する第1消失点VP10、第2消失点VP20、第3消失点VP30、及び第4消失点(不図示)の相対位置が下側となるように調整し得る。 Note that the positions of the first vanishing point VP10, the second vanishing point VP20, the third vanishing point VP30, and the fourth vanishing point (not shown) are the observer's eye position 700 detected by the eye position detection unit 409, or The attitude of the own vehicle 1 detected by the IMU 415 may be used for adjustment. For example, the display control device 30 (display parameter setting module 502) changes the position of the vehicle 1 (the pitching angle (the angle around the X direction)) by changing the first vanishing point VP10, the second vanishing point VP20, The positions of the third vanishing point VP30 and the fourth vanishing point (not shown) can be adjusted. When the pitching angle is such that the front of the vehicle 1 is lowered, the display control device 30 (display parameter setting module 502) controls the first vanishing point VP10, the second vanishing point VP20, and the virtual image display area VS as seen from the observer. When the relative positions of the third vanishing point VP30 and the fourth vanishing point (not shown) are adjusted to be on the upper side, and the pitching angle is such that the front of the own vehicle 1 rises, a virtual image seen from the observer The relative positions of the first vanishing point VP10, the second vanishing point VP20, the third vanishing point VP30, and the fourth vanishing point (not shown) with respect to the display area VS can be adjusted to be on the lower side.

上述の処理プロセスの動作は、汎用プロセッサ又は特定用途向けチップなどの情報処理装置の1つ以上の機能モジュールを実行させることにより実施することができる。これらのモジュール、これらのモジュールの組み合わせ、及び/又はそれらの機能を代替えし得る公知のハードウェアとの組み合わせは全て、本発明の保護の範囲内に含まれる。 The operations of the processing processes described above may be implemented by executing one or more functional modules of an information processing device such as a general purpose processor or an application specific chip. These modules, combinations of these modules, and/or combinations with known hardware that can replace their functions are all within the scope of protection of the present invention.

車両用虚像表示システム10の機能ブロックは、任意選択的に、説明される様々な実施形態の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実行される。図9で説明する機能ブロックが、説明される実施形態の原理を実施するために、任意選択的に、組み合わされ、又は1つの機能ブロックを2以上のサブブロックに分離されてもいいことは、当業者に理解されるだろう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割を、任意選択的に支持する。 The functional blocks of the vehicular virtual image display system 10 are optionally implemented in hardware, software, or a combination of hardware and software to carry out the principles of the various described embodiments. 9 may optionally be combined or separated into two or more sub-blocks to implement the principles of the described embodiments; will be understood by those skilled in the art. Accordingly, the description herein optionally supports any possible combination or division of the functional blocks described herein.

1 :自車両
2 :被投影部材
5 :ダッシュボード
6 :路面
6 :走行レーン(路面)
7 :境界線
8 :境界線
10 :車両用虚像表示システム
20 :HUD装置(ヘッドアップディスプレイ装置)
21 :光出射窓
22 :筐体
24 :光源ユニット
28 :第1アクチュエータ
29 :第2アクチュエータ
30 :表示制御装置
31 :I/Oインタフェース
33 :プロセッサ
35 :画像処理回路
37 :メモリ
40 :表示器
50 :光変調素子
51 :表示面
60 :光源ユニット
80 :リレー光学系
81 :第1ミラー
82 :第2ミラー
86 :アクチュエータ
87 :アクチュエータ
90 :虚像光学系
100 :虚像表示領域
200 :アイボックス
200A :境界
205 :中心
401 :車両ECU
403 :道路情報データベース
405 :自車位置検出部
407 :操作検出部
409 :目位置検出部(視線方向検出部)
411 :車外センサ
413 :明るさ検出部
417 :携帯情報端末
419 :外部通信機器
502 :表示パラメータ設定モジュール
504 :グラフィックモジュール
506 :光源駆動モジュール
508 :アクチュエータ駆動モジュール
510 :目位置検出モジュール
700 :観視者
700L :目位置(左目)
700R :目位置(右目)
1000 :虚像表示領域
1010 :走行レーン
1011 :左側ライン
1012 :右側ライン
1020 :消失点
1100 :パースペクティブ画像
1101 :上辺
1102 :下辺
1111 :第1の厚み部
1112 :第2の厚み部
1120 :厚み
1121 :第1の厚み
1122 :第2の厚み
1300 :遠方端
1400 :近傍端
AX1 :第1の回転軸
FU :仮想オブジェクト
FU10 :仮想オブジェクト
K :表示光
K11 :第1表示光
K12 :第2表示光
K13 :第3表示光
Kp :光軸
PT :ターゲット位置
V :画像
V :虚像
V10 :パースペクティブ虚像
V1A :延長線(左方パースペクティブ線)
V1B :延長線(右方パースペクティブ線)
V1C :延長線(上辺)
V1D :延長線(下辺)
V20 :パースペクティブ虚像
VP0 :実景消失点
VP0 :消失点
VP0' :消失点
VP10 :第1消失点(幅消失点、第1幅消失点)
VP20 :第2消失点(厚み消失点、第1厚み消失点)
VP30 :第3消失点(第2幅消失点)
VS :虚像表示領域
VS1 :上端
VS2 :下端
VT :厚み
VT1 :第1の厚み
VT2 :第2の厚み
VT3 :第3の厚み
VT4 :第4の厚み
VT5 :厚み
VT6 :厚み
VY1 :第1の厚み部
VY2 :第2の厚み部
VY3 :厚み部
WS :フロンウインドシールド
θd :縦配置角
θt :チルト角

1: Own vehicle 2: Projected member 5: Dashboard 6: Road surface 6: Driving lane (road surface)
7: Boundary line 8: Boundary line 10: Vehicle virtual image display system 20: HUD device (head-up display device)
21 : light exit window 22 : housing 24 : light source unit 28 : first actuator 29 : second actuator 30 : display control device 31 : I/O interface 33 : processor 35 : image processing circuit 37 : memory 40 : display 50 : Light modulation element 51 : Display surface 60 : Light source unit 80 : Relay optical system 81 : First mirror 82 : Second mirror 86 : Actuator 87 : Actuator 90 : Virtual image optical system 100 : Virtual image display area 200 : Eye box 200A : Boundary 205: Center 401: Vehicle ECU
403: road information database 405: own vehicle position detection unit 407: operation detection unit 409: eye position detection unit (line-of-sight direction detection unit)
411 : Exterior sensor 413 : Brightness detection unit 417 : Personal digital assistant 419 : External communication device 502 : Display parameter setting module 504 : Graphic module 506 : Light source drive module 508 : Actuator drive module 510 : Eye position detection module 700 : Observation Person 700L: Eye position (left eye)
700R: Eye position (right eye)
1000 : Virtual image display area 1010 : Driving lane 1011 : Left line 1012 : Right line 1020 : Vanishing point 1100 : Perspective image 1101 : Upper side 1102 : Lower side 1111 : First thickness portion 1112 : Second thickness portion 1120 : Thickness 1121 : First thickness 1122: Second thickness 1300: Far end 1400: Near end AX1: First rotation axis FU: Virtual object FU10: Virtual object K: Display light K11: First display light K12: Second display light K13 : Third display light Kp : Optical axis PT : Target position V : Image V : Virtual image V10 : Perspective virtual image V1A : Extension line (left perspective line)
V1B: Extension line (right perspective line)
V1C: Extension line (upper side)
V1D: Extension line (lower side)
V20: perspective virtual image VP0: real scene vanishing point VP0: vanishing point VP0': vanishing point VP10: first vanishing point (width vanishing point, first width vanishing point)
VP20: Second vanishing point (thickness vanishing point, first thickness vanishing point)
VP30: Third vanishing point (second width vanishing point)
VS: virtual image display area VS1: upper end VS2: lower end VT: thickness VT1: first thickness VT2: second thickness VT3: third thickness VT4: fourth thickness VT5: thickness VT6: thickness VY1: first thickness Part VY2: Second thickness part VY3: Thickness part WS: Front windshield θd: Vertical arrangement angle θt: Tilt angle

Claims (12)

画像を被投影部材に投影することで、観察者に前記画像の虚像を前景に重ねて視認させるヘッドアップディスプレイ装置における表示制御を実行する表示制御装置(30)であって、
1つ又は複数のプロセッサ(33)と、
メモリ(37)と、
前記メモリ(37)に格納され、前記1つ又は複数のプロセッサ(33)によって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、を備え、
前記プロセッサ(33)は、
前記観察者から見て上下方向に厚み(VT)を有し、前記厚み(VT)が厚み消失点(VP20)に収束するように徐々に小さくする奥行き表現をつけた1つ又は複数のパースペクティブ虚像として表示する厚み表示処理を実行し、
前記厚み消失点(VP20)は、前記観察者から見て前記前景の消失点(VP0)より下方に配置される、
表示制御装置(30)。
A display control device (30) for executing display control in a head-up display device that allows an observer to view a virtual image of the image superimposed on the foreground by projecting the image onto a projection target member,
one or more processors (33);
a memory (37);
one or more computer programs stored in said memory (37) and configured to be executed by said one or more processors (33);
Said processor (33)
One or more perspective virtual images having a thickness (VT) in the vertical direction as seen from the observer, and with a depth expression that gradually decreases so that the thickness (VT) converges to a thickness vanishing point (VP20). Execute thickness display processing to display as
The thickness vanishing point (VP20) is positioned below the foreground vanishing point (VP0) as seen from the observer.
A display controller (30).
前記1つ又は複数のパースペクティブ虚像は、観察者により視認される第1の厚み部(VY1)と、前記第1の厚み部(VY1)より遠方側にあるように表現され、前記第1の厚み部(VY1)より短い前記第2の厚み部(VY2)と、を有し、
前記厚み消失点(VP20)は、前記第1の厚み部(VY1)の所定の上端と前記第2の厚み部(VY2)の所定の上端とを結ぶ線分の延長線(V1C)と、前記第1の厚み部(VY1)の所定の下端と前記第2の厚み部(VY2)の所定の下端とを結ぶ線分の延長線(V1D)と、が交差する点である、
請求項1に記載の表示制御装置(30)。
The one or more perspective virtual images are represented to be a first thickness portion (VY1) visually recognized by an observer and to be farther than the first thickness portion (VY1), and the first thickness the second thickness portion (VY2) shorter than the portion (VY1);
The thickness vanishing point (VP20) consists of an extension line (V1C) connecting a predetermined upper end of the first thick portion (VY1) and a predetermined upper end of the second thick portion (VY2), and A point where an extension line (V1D) of a line segment connecting a prescribed lower end of the first thick portion (VY1) and a prescribed lower end of the second thick portion (VY2) intersects,
A display control device (30) according to claim 1.
前記プロセッサ(33)は、
前記観察者から見て左右方向に幅を有し、前記幅が幅消失点(VP10)に収束するように徐々に小さくする奥行き表現をつけた1つ又は複数のパースペクティブ虚像として表示する幅表示処理を実行し、
前記幅消失点(VP10)は、前記観察者から見て前記前景の消失点(VP0)より下方に配置され、
前記厚み表示処理において、前記厚み消失点(VP20)を、観察者から見て前記幅消失点(V10)より上側であり、かつ前記前景の消失点(VP0)より下側に配置する、
請求項1に記載の表示制御装置(30)。
Said processor (33)
Width display processing for displaying one or a plurality of perspective virtual images having a width in the horizontal direction as viewed from the observer and with a depth expression that gradually decreases so that the width converges to a width vanishing point (VP10). and run
The width vanishing point (VP10) is arranged below the foreground vanishing point (VP0) as seen from the observer,
In the thickness display process, the thickness vanishing point (VP20) is arranged above the width vanishing point (V10) and below the foreground vanishing point (VP0) as seen from the observer.
A display control device (30) according to claim 1.
前記プロセッサ(33)は、
観察者から見て前記前景の消失点(VP0)より下方に配置される第1の厚み消失点を有する第1の厚み表示態様の前記1つ又は複数のパースペクティブ虚像として表示する第1の厚み表示処理と、
観察者から見て前記第1の厚み消失点より上方に配置される第2の厚さ消失点を有する第2の厚み表示態様の前記1つ又は複数のパースペクティブ虚像として表示する第2の厚み表示処理と、を実行する、
請求項1に記載の表示制御装置(30)。
Said processor (33)
a first thickness representation displayed as said one or more perspective virtual images in a first thickness representation mode having a first thickness vanishing point positioned below said foreground vanishing point (VP0) as viewed by an observer. processing;
A second thickness representation displayed as the one or more perspective virtual images in a second thickness representation mode having a second thickness vanishing point located above the first thickness vanishing point as viewed by an observer. perform the processing and
A display control device (30) according to claim 1.
前記プロセッサ(33)は、
前記パースペクティブ虚像が静止画であれば、前記第1の厚み表示処理を実行し、
前記パースペクティブ虚像が動画であれば、前記第2の厚み表示処理を実行する、
請求項4に記載の表示制御装置(30)。
Said processor (33)
if the perspective virtual image is a still image, executing the first thickness display process;
If the perspective virtual image is a moving image, executing the second thickness display process.
A display control device (30) according to claim 4.
前記プロセッサ(33)は、
前記パースペクティブ虚像が、観察者から見て、遠近方向に伸縮しない動画、又は遠近方向に移動しない動画であれば、前記第1の厚み表示処理を実行し、
前記パースペクティブ虚像が、観察者から見て、遠近方向に伸縮しているように知覚される動画、又は遠近方向に移動しているように知覚される動画であれば、前記第2の厚み表示処理を実行する、
請求項4に記載の表示制御装置(30)。
Said processor (33)
If the perspective virtual image is a moving image that does not expand or contract in the perspective direction or a moving image that does not move in the perspective direction when viewed from the observer, executing the first thickness display process,
If the perspective virtual image is a moving image that is perceived by an observer to expand and contract in the perspective direction or a moving image that is perceived to be moving in the perspective direction, the second thickness display processing is performed. run the
A display control device (30) according to claim 4.
前記プロセッサ(33)は、
周囲が暗い場合、前記第1の厚み表示処理を実行し、
周囲が明るい場合、前記第2の厚み表示処理を実行する、
請求項4に記載の表示制御装置(30)。
Said processor (33)
When the surroundings are dark, executing the first thickness display process,
When the surroundings are bright, executing the second thickness display process;
A display control device (30) according to claim 4.
前記プロセッサ(33)は、
前記パースペクティブ虚像の移動速度又は変形速度が遅い場合、前記第1の厚み表示処理を実行し、
前記パースペクティブ虚像の移動速度又は変形速度が速い場合、前記第2の厚み表示処理を実行する、
請求項4に記載の表示制御装置(30)。
Said processor (33)
if the moving speed or deformation speed of the perspective virtual image is slow, executing the first thickness display process;
When the moving speed or deformation speed of the perspective virtual image is fast, executing the second thickness display process;
A display control device (30) according to claim 4.
前記プロセッサ(33)は、
前記パースペクティブ虚像の上下方向の長さが、所定の閾値より短い場合、前記第1の厚み表示処理を実行し、
前記パースペクティブ虚像の上下方向の長さが、前記所定の閾値より長い場合、前記第2の厚み表示処理を実行する、
請求項4に記載の表示制御装置(30)。
Said processor (33)
if the vertical length of the perspective virtual image is shorter than a predetermined threshold, executing the first thickness display process;
When the vertical length of the perspective virtual image is longer than the predetermined threshold, the second thickness display process is executed.
A display control device (30) according to claim 4.
前記プロセッサ(33)は、
前記パースペクティブを表示し始めてから表示し終わるまでの期間が、所定の閾値より短い場合、前記第1の厚み表示処理を実行し、
前記パースペクティブを表示し始めてから表示し終わるまでの期間が、前記所定の閾値より長い場合、前記第2の厚み表示処理を実行する、
請求項4に記載の表示制御装置(30)。
Said processor (33)
if the period from the start of displaying the perspective to the end of displaying the perspective is shorter than a predetermined threshold, executing the first thickness display process;
If the period from the start of displaying the perspective to the end of displaying the perspective is longer than the predetermined threshold, executing the second thickness display process;
A display control device (30) according to claim 4.
請求項1乃至10のいずれかに記載の表示制御装置(30)と、
表示光を出射する光変調素子(50)と、
前記光変調素子(50)からの前記表示光を被投影部にむけるリレー光学系(80)と、を備える、ヘッドアップディスプレイ装置(20)。
A display control device (30) according to any one of claims 1 to 10;
a light modulation element (50) for emitting display light;
A head-up display device (20), comprising: a relay optical system (80) for directing the display light from the light modulation element (50) to a projection target.
画像の表示制御方法であって、
前記観察者から見て上下方向に厚み(VT)を有し、前記厚み(VT)が厚み消失点(VP20)に収束するように徐々に小さくする奥行き表現をつけた1つ又は複数のパースペクティブ虚像として表示する厚み表示処理を実行し、
前記厚み消失点(VP20)は、前記観察者から見て前記前景の消失点(VP0)より下方に配置される、
表示制御方法。

An image display control method comprising:
One or more perspective virtual images having a thickness (VT) in the vertical direction as seen from the observer, and with a depth expression that gradually decreases so that the thickness (VT) converges to a thickness vanishing point (VP20). Execute thickness display processing to display as
The thickness vanishing point (VP20) is positioned below the foreground vanishing point (VP0) as seen from the observer.
Display control method.

JP2021009418A 2021-01-25 2021-01-25 Display control device, head-up display device, and display control method Pending JP2022113292A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021009418A JP2022113292A (en) 2021-01-25 2021-01-25 Display control device, head-up display device, and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021009418A JP2022113292A (en) 2021-01-25 2021-01-25 Display control device, head-up display device, and display control method

Publications (1)

Publication Number Publication Date
JP2022113292A true JP2022113292A (en) 2022-08-04

Family

ID=82657990

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021009418A Pending JP2022113292A (en) 2021-01-25 2021-01-25 Display control device, head-up display device, and display control method

Country Status (1)

Country Link
JP (1) JP2022113292A (en)

Similar Documents

Publication Publication Date Title
JP7254832B2 (en) HEAD-UP DISPLAY, VEHICLE DISPLAY SYSTEM, AND VEHICLE DISPLAY METHOD
WO2022230995A1 (en) Display control device, head-up display device, and display control method
JP2018077400A (en) Head-up display
JP2016109645A (en) Information providing device, information providing method, and control program for providing information
JP2019202589A (en) Display device
JP2019147546A (en) Information providing device, information providing method, and control program for providing information
JP7255608B2 (en) DISPLAY CONTROLLER, METHOD, AND COMPUTER PROGRAM
JP7459883B2 (en) Display control device, head-up display device, and method
JP2023077857A (en) Head up display device
WO2023048213A1 (en) Display control device, head-up display device, and display control method
WO2021200914A1 (en) Display control device, head-up display device, and method
JP2020117105A (en) Display control device, method and computer program
JP2019206262A (en) Display device
WO2020158601A1 (en) Display control device, method, and computer program
JP2022113292A (en) Display control device, head-up display device, and display control method
WO2020039855A1 (en) Display control device, display control program, and continuous tangible computer-readable medium thereof
WO2023003045A1 (en) Display control device, head-up display device, and display control method
JP2022077138A (en) Display controller, head-up display device, and display control method
JP7434894B2 (en) Vehicle display device
JP2021056358A (en) Head-up display device
WO2021200913A1 (en) Display control device, image display device, and method
JP2020121607A (en) Display control device, method and computer program
JP2022190724A (en) Display control device, head-up display device and display control method
JP2022057051A (en) Display controller and virtual display device
JP2021160409A (en) Display control device, image display device, and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240919