JP2022077138A - Display controller, head-up display device, and display control method - Google Patents

Display controller, head-up display device, and display control method Download PDF

Info

Publication number
JP2022077138A
JP2022077138A JP2020187825A JP2020187825A JP2022077138A JP 2022077138 A JP2022077138 A JP 2022077138A JP 2020187825 A JP2020187825 A JP 2020187825A JP 2020187825 A JP2020187825 A JP 2020187825A JP 2022077138 A JP2022077138 A JP 2022077138A
Authority
JP
Japan
Prior art keywords
display
perspective
image
virtual image
vanishing point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020187825A
Other languages
Japanese (ja)
Inventor
崇 中村
Takashi Nakamura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2020187825A priority Critical patent/JP2022077138A/en
Publication of JP2022077138A publication Critical patent/JP2022077138A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Instrument Panels (AREA)

Abstract

To provide a display controller which displays an image that is easy-to-realize so as to be parallel to a face of a travel lane, a head-up display device, and a display control method and so on.SOLUTION: A head-up display device, which causes an observer to visually recognize a virtual image of an image while overlaying the same on a foreground, executes: first display processing for displaying as a perspective virtual image of a first display mode having a first vanishing point VP1 that is located below a vanishing point VP0 of the foreground when viewed from the observer; and second display processing for displaying as a perspective virtual image of a second display mode having a second vanishing point VP2 that is located above the first vanishing point VP1 when viewed from the observer.SELECTED DRAWING: Figure 6

Description

本開示は、車両等の移動体で使用され、移動体の前景(車両の乗員から見た移動体の前進方向の実景)に画像を重畳して視認させる表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法等に関する。 The present disclosure is used in a moving body such as a vehicle, and is a display control device, a head-up display device, and a head-up display device that superimposes an image on the foreground of the moving body (the actual view in the forward direction of the moving body as seen from the occupant of the vehicle). Regarding display control method, etc.

特許文献1には、車両のフロントウインドシールド等の被投影部に投射される表示光が、車両の内側にいる車両の乗員(観察者)に向けて反射されることで、観察者に、車両の前景と重なる虚像を視認させるヘッドアップディスプレイ装置(虚像表示装置の一例)が記載されている。特に、特許文献1に記載のヘッドアップディスプレイ装置は、前景の空間内の奥行きや上下左右方向の所定の位置(ここでは、前記位置をターゲット位置ということにする。)に仮想的に表示オブジェクト(虚像)を配置し、車両の姿勢の変化があった場合や観察者の目位置の変化があった場合であっても、あたかも前景のターゲット位置に表示オブジェクトが存在するかのように、ヘッドアップディスプレイ装置の内部で表示する画像を制御する。すなわち、このようなヘッドアップディスプレイ装置は、現実の風景(前景)に仮想オブジェクトを付加して表示する拡張現実を形成する。 In Patent Document 1, the display light projected on the projected portion such as the front windshield of the vehicle is reflected toward the occupant (observer) of the vehicle inside the vehicle, so that the observer can see the vehicle. A head-up display device (an example of a virtual image display device) for visually recognizing a virtual image overlapping the foreground of the light is described. In particular, the head-up display device described in Patent Document 1 virtually displays an object (here, the position is referred to as a target position) at a predetermined position in the depth in the foreground space or in the vertical and horizontal directions. (Imaginary image) is placed, and even if there is a change in the posture of the vehicle or a change in the eye position of the observer, the head-up is as if the display object exists at the target position in the foreground. Controls the image displayed inside the display device. That is, such a head-up display device forms an augmented reality in which a virtual object is added to and displayed in a real landscape (foreground).

特許文献1の図4の例では、自車両が走行する路面から少し浮遊した位置(路面の上方向に離れた位置)に、前方を指示する矢印形状(換言すると、後方から前方に向かって延びる矢印形状)の仮想オブジェクトを表示している。このような場合、観察者は、特許文献1の図5の例のように、矢印の後端側の幅(典型的には、左右方向の幅)が、先端に向かうにつれて徐々に狭くなることで、遠近感が表現される。すなわち、矢印の後端が近傍で矢印の先端が遠方であるように知覚される。このような遠近感を生じさせる表現は、典型的には、線遠近法(透視図法)などの手法が用いられる。 In the example of FIG. 4 of Patent Document 1, an arrow shape indicating the front (in other words, extending from the rear to the front) is provided at a position slightly floating from the road surface on which the own vehicle is traveling (a position away from the road surface in the upward direction). A virtual object (in the shape of an arrow) is displayed. In such a case, the observer gradually narrows the width on the rear end side of the arrow (typically, the width in the left-right direction) toward the tip, as in the example of FIG. 5 of Patent Document 1. So, a sense of perspective is expressed. That is, it is perceived that the rear end of the arrow is near and the tip of the arrow is far away. As an expression that causes such a sense of perspective, a method such as a line perspective method (perspective drawing method) is typically used.

特開2010-156608号公報Japanese Unexamined Patent Publication No. 2010-156608

ところで、上記のようなヘッドアップディスプレイ装置は、典型的には、虚像を表示可能な領域が平面又は局面の領域(ここでは、前記領域を虚像表示領域ということにする。)であり、前記虚像表示領域は、観察者の視線に対して正対するように配置される。すなわち、自車両の左右方向から見た場合、虚像が表示される虚像表示領域と、自車両が走行する路面との間の角度は、概ね90度に設定される(虚像表示領域が路面と概ね平行となるように配置されない)。 By the way, in a head-up display device as described above, a region in which a virtual image can be displayed is typically a plane or an aspect region (here, the region is referred to as a virtual image display region), and the virtual image is described. The display area is arranged so as to face the line of sight of the observer. That is, when viewed from the left-right direction of the own vehicle, the angle between the virtual image display area where the virtual image is displayed and the road surface on which the own vehicle travels is set to approximately 90 degrees (the virtual image display area is approximately the same as the road surface). Not arranged to be parallel).

図10は、自車両の走行中において、観察者が視認する、自車両のフロンウインドシールドWSを介して視認する前景及び、前記前景と重なる虚像表示領域1000に表示されるパースペクティブ画像1100の様子を示す図である。図10では、線遠近法を用いて路面に平行に配置されたように表現したパースペクティブ画像の態様を示しており、自車両の走行レーン1010の左側ラインを符号1011で示し、右側ラインを符号1012で示し、これら左側ライン1011の延長線と右側ライン1012の延長線との交点を消失点1020とする。図10のパースペクティブ画像1100は、台形であり、線遠近法(一点透視法)により、台形の左辺1101の延長線と右辺1102の延長線との交点が前記消失点1020と一致するように表現される。これにより、走行レーン1010の面に平行にパースペクティブ画像1100が配置されているように絵画的には表現される。 FIG. 10 shows a foreground that is visually recognized by the observer through the front windshield WS of the own vehicle while the own vehicle is traveling, and a perspective image 1100 displayed in the virtual image display area 1000 that overlaps with the foreground. It is a figure which shows. FIG. 10 shows an aspect of a perspective image expressed as if it is arranged parallel to the road surface using the linear perspective method. The left side line of the traveling lane 1010 of the own vehicle is indicated by reference numeral 1011 and the right side line is indicated by reference numeral 1012. The intersection of the extension line of the left side line 1011 and the extension line of the right side line 1012 is defined as a vanishing point 1020. The perspective image 1100 of FIG. 10 is a trapezoid, and is represented by the line perspective method (one-point perspective method) so that the intersection of the extension line of the left side 1101 and the extension line of the right side 1102 of the trapezoid coincides with the vanishing point 1020. To. As a result, the perspective image 1100 is pictorially represented as if it were arranged parallel to the plane of the traveling lane 1010.

しかしながら、上述したように、虚像表示領域が路面と概ね平行となるように配置されていない、すなわち、自車両が走行する路面に対して、概ね90度だけ観察者側に起き上がった虚像表示領域に、図10に示すようなパースペクティブ画像1100を表示しても、パースペクティブ画像1100の遠方端1110と走行レーン1010との間の距離が、近傍端1120と走行レーン1010との間の距離より長く、走行レーン1010の平行面に対して、パースペクティブ画像1100の遠方端1110が観察者側に起き上がったように知覚されてしまい、走行レーン1010の面に平行であるように感得することが困難となり、改善の余地があった。 However, as described above, the virtual image display area is not arranged so as to be substantially parallel to the road surface, that is, in the virtual image display area that rises to the observer side by approximately 90 degrees with respect to the road surface on which the own vehicle travels. Even if the perspective image 1100 as shown in FIG. 10 is displayed, the distance between the far end 1110 and the traveling lane 1010 of the perspective image 1100 is longer than the distance between the near end 1120 and the traveling lane 1010, and the vehicle travels. With respect to the parallel plane of the lane 1010, the far end 1110 of the perspective image 1100 is perceived as rising to the observer side, and it becomes difficult to perceive that the perspective image 1100 is parallel to the plane of the traveling lane 1010. There was room.

本明細書に開示される特定の実施形態の要約を以下に示す。これらの態様が、これらの特定の実施形態の概要を読者に提供するためだけに提示され、この開示の範囲を限定するものではないことを理解されたい。実際に、本開示は、以下に記載されない種々の態様を包含し得る。 A summary of the particular embodiments disclosed herein is presented below. It should be understood that these embodiments are presented solely to provide the reader with an overview of these particular embodiments and do not limit the scope of this disclosure. In fact, the present disclosure may include various aspects not described below.

本開示の概要は、走行レーンの面に平行であるように感得しやすい画像を表示する表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法等を提供することに関する。 The outline of the present disclosure relates to a display control device, a head-up display device, a display control method, and the like for displaying an image that is easily perceived as being parallel to a plane of a traveling lane.

したがって、本明細書に記載される表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法等は、前記課題を解決するため、以下の手段を採用した。本実施形態は、観察者から見て前景の消失点より下方に配置される第1消失点を有する第1の表示態様のパースペクティブ虚像として表示する第1の表示処理と、観察者から見て第1消失点より上方に配置される第2の消失点を有する第2の表示態様のパースペクティブ虚像として表示する第2の表示処理と、を実行する、ことをその要旨とする。 Therefore, the display control device, the head-up display device, the display control method, and the like described in the present specification employ the following means in order to solve the above-mentioned problems. The present embodiment includes a first display process for displaying as a perspective virtual image of the first display mode having a first vanishing point arranged below the vanishing point of the foreground when viewed from the observer, and a first display process when viewed from the observer. (1) The gist is to execute a second display process of displaying as a perspective virtual image of a second display mode having a second vanishing point arranged above the vanishing point.

したがって、本明細書に記載される表示制御装置は、画像を被投影部材に投影することで、観察者に画像の虚像を前景に重ねて視認させるヘッドアップディスプレイ装置における表示制御を実行する表示制御装置であって、1つ又は複数のプロセッサと、メモリと、メモリに格納され、1つ又は複数のプロセッサによって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、を備え、プロセッサは、観察者から見て前景の消失点より下方に配置される第1消失点を有する第1の表示態様のパースペクティブ虚像として表示する第1の表示処理と、観察者から見て第1消失点より上方に配置される第2の消失点を有する第2の表示態様のパースペクティブ虚像として表示する第2の表示処理と、を実行する。 Therefore, the display control device described in the present specification is a display control that executes display control in a head-up display device that causes an observer to visually recognize an imaginary image of an image superimposed on the foreground by projecting an image onto a projected member. A device comprising one or more processors, a memory, and one or more computer programs stored in the memory and configured to be executed by the one or more processors. Is a first display process for displaying as a perspective imaginary image of the first display mode having a first vanishing point arranged below the vanishing point of the foreground when viewed from the observer, and a first vanishing point when viewed from the observer. The second display process of displaying as a perspective imaginary image of the second display mode having the second vanishing point arranged above is executed.

図1は、車両用虚像表示システムの車両への適用例を示す図である。FIG. 1 is a diagram showing an example of application of a virtual image display system for a vehicle to a vehicle. 図2は、ヘッドアップディスプレイ装置の構成を示す図である。FIG. 2 is a diagram showing a configuration of a head-up display device. 図3は、実景のターゲット位置に配置される仮想オブジェクトと、仮想オブジェクトが実景のターゲット位置に視認されるように虚像表示領域に表示される画像と、を概念的に示した図である。FIG. 3 is a diagram conceptually showing a virtual object arranged at the target position of the actual scene and an image displayed in the virtual image display area so that the virtual object can be visually recognized at the target position of the actual scene. 図4は、自車両の走行中において、観察者が視認する前景と、前景に重畳して表示される第1の表示態様の虚像の例を示す図である。FIG. 4 is a diagram showing an example of a foreground visually recognized by an observer and a virtual image of a first display mode superimposed on the foreground while the own vehicle is traveling. 図5Aは、パースペクティブ画像の変形例を示す図である。FIG. 5A is a diagram showing a modified example of the perspective image. 図5Bは、パースペクティブ画像の変形例を示す図である。FIG. 5B is a diagram showing a modified example of the perspective image. 図5Cは、パースペクティブ画像の変形例を示す図である。FIG. 5C is a diagram showing a modified example of the perspective image. 図5Dは、パースペクティブ画像の変形例を示す図である。FIG. 5D is a diagram showing a modified example of the perspective image. 図6は、自車両の走行中において、観察者が視認する前景と、前景に重畳して表示される第2の表示態様の虚像の例を示す図である。FIG. 6 is a diagram showing an example of a foreground to be visually recognized by an observer and a virtual image of a second display mode superimposed on the foreground while the own vehicle is traveling. 図7Aは、第2消失点を有する第2の表示態様のパースペクティブ虚像Vを示す図である。FIG. 7A is a diagram showing a perspective virtual image V of a second display mode having a second vanishing point. 図7Bは、第2消失点を有する第2の表示態様のパースペクティブ虚像Vを示す図である。FIG. 7B is a diagram showing a perspective virtual image V of a second display mode having a second vanishing point. 図8は、いくつかの実施形態の車両用虚像表示システムのブロック図である。FIG. 8 is a block diagram of a vehicle virtual image display system of some embodiments. 図9は、パースペクティブ虚像を第1の表示態様又は第2の表示態様で表示させる表示制御処理を実行する表示制御方法を示すフロー図である。FIG. 9 is a flow chart showing a display control method for executing a display control process for displaying a perspective virtual image in the first display mode or the second display mode. 図10は、従来例に関する図であり、自車両の走行中において、観察者が視認する前景と、前景に重畳して表示される虚像の例を示す図である。FIG. 10 is a diagram relating to a conventional example, and is a diagram showing an example of a foreground visually recognized by an observer and a virtual image superimposed on the foreground while the own vehicle is traveling.

以下、図1ないし図8では、例示的な車両用虚像表示システムの構成、及び動作の説明を提供する。なお、本発明は以下の実施形態(図面の内容も含む)によって限定されるものではない。下記の実施形態に変更(構成要素の削除も含む)を加えることができるのはもちろんである。また、以下の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略する。 Hereinafter, FIGS. 1 to 8 provide a description of the configuration and operation of an exemplary vehicle virtual image display system. The present invention is not limited to the following embodiments (including the contents of the drawings). Of course, changes (including deletion of components) can be made to the following embodiments. Further, in the following description, in order to facilitate understanding of the present invention, description of known technical matters will be omitted as appropriate.

図1を参照する。図1は、車両用虚像表示システムの車両への適用例を示す図である。なお、図1において、車両(移動体の一例。以下では、自車両とも呼ぶ。)1の左右方向(換言すると、車両1の幅方向)をX軸(X軸の正方向は、車両1の前方を向いた際の左方向。)とし、左右方向に直交すると共に、地面又は地面に相当する面(ここでは路面6)に直交する線分に沿う上下方向(換言すると、車両1の高さ方向)をY軸(Y軸の正方向は、上方向。)とし、左右方向及び上下方向の各々に直交する線分に沿う前後方向をZ軸(Z軸の正方向は、車両1の直進方向。)とする。この点は、他の図面においても同様である。 See FIG. FIG. 1 is a diagram showing an example of application of a virtual image display system for a vehicle to a vehicle. In FIG. 1, the left-right direction (in other words, the width direction of the vehicle 1) of the vehicle (an example of a moving body; hereinafter also referred to as the own vehicle) 1 is defined as the X-axis (the positive direction of the X-axis is the vehicle 1). (Left direction when facing forward)), which is orthogonal to the left-right direction and vertically along the ground or a line line orthogonal to the surface corresponding to the ground (here, the road surface 6) (in other words, the height of the vehicle 1). The direction) is the Y-axis (the positive direction of the Y-axis is the upward direction), and the front-rear direction along the lines orthogonal to each of the left-right direction and the up-down direction is the Z-axis (the positive direction of the Z-axis is the straight direction of the vehicle 1). Direction.). This point is the same in other drawings.

車両用虚像表示システム10におけるヘッドアップディスプレイ装置(虚像表示装置の一例。)20は、車両(移動体の一例。)1のダッシュボード5内に設けられたヘッドアップディスプレイ(HUD:Head-Up Display)装置である。HUD装置20は、表示光Kをフロントウインドシールド2(被投影部の一例である)に向けて出射し、フロントウインドシールド2は、HUD装置20が表示する画像の表示光Kをアイボックス200へ反射する。HUD装置20は、車両1に関する情報(以下、車両情報と言う。)だけでなく、車両情報以外の情報も統合的に車両1の乗員(前記乗員は、典型的には、車両1の運転者である。)に報知する。なお、車両情報は、車両1自体の情報だけでなく、車両1の運行に関連した車両1の外部の情報も含む。 The head-up display device (an example of a virtual image display device) 20 in the virtual image display system 10 for a vehicle is a head-up display (HUD: Head-Up Display) provided in a dashboard 5 of a vehicle (an example of a moving body) 1. ) It is a device. The HUD device 20 emits the display light K toward the front window shield 2 (an example of the projected portion), and the front windshield 2 transmits the display light K of the image displayed by the HUD device 20 to the eye box 200. reflect. The HUD device 20 integrates not only information about the vehicle 1 (hereinafter referred to as vehicle information) but also information other than the vehicle information as an occupant of the vehicle 1 (the occupant is typically a driver of the vehicle 1). Is notified.). The vehicle information includes not only the information of the vehicle 1 itself but also the external information of the vehicle 1 related to the operation of the vehicle 1.

図示するように、車両(自車両)1に備わる車両用虚像表示システム10は、観察者(典型的には車両1の運転席に着座する運転者)の左目700Lと右目700Rの位置や視線方向を検出する瞳(あるいは顔)検出用の目位置検出部(視線検出部)409、車両1の前方(広義には周囲)を撮像するカメラ(例えばステレオカメラ)などで構成される車外センサ411、ヘッドアップディスプレイ装置(以下では、HUD装置とも呼ぶ)20及び、HUD装置20を制御する表示制御装置30、を有する。 As shown in the figure, the vehicle virtual image display system 10 provided in the vehicle (own vehicle) 1 is the position and line-of-sight direction of the left eye 700L and the right eye 700R of the observer (typically, the driver sitting in the driver's seat of the vehicle 1). An external sensor 411 composed of an eye position detection unit (line-of-sight detection unit) 409 for detecting pupils (or faces), a camera (for example, a stereo camera) that captures the front (in a broad sense, the surroundings) of the vehicle 1, and the like. It has a head-up display device (hereinafter, also referred to as a HUD device) 20 and a display control device 30 that controls the HUD device 20.

また、本実施形態の説明で用いる「アイボックス」とは、(1)領域内では画像の虚像Vの全部が視認でき、領域外では画像の虚像Vの少なくとも一部分が視認されない領域、(2)領域内では画像の虚像Vの少なくとも一部が視認でき、領域外では画像の虚像Vの一部分も視認されない領域、(3)領域内では画像の虚像Vの少なくとも一部が所定の輝度以上で視認でき、領域外では画像の虚像Vの全体が前記所定の輝度未満である領域、又は(4)HUD装置20が立体視可能な虚像Vを表示可能である場合、虚像Vの少なくとも一部が立体視でき、領域外では虚像Vの一部分も立体視されない領域である。すなわち、観察者が目(両目)をアイボックス200外に配置すると、観察者は、画像の虚像Vの全体が視認できない、画像の虚像Vの全体の視認性が非常に低く知覚しづらい、又は画像の虚像Vが立体視できない。前記所定の輝度とは、例えば、アイボックスの中心で視認される画像の虚像の輝度に対して1/50程度である。「アイボックス」は、HUD装置20が搭載される車両で観察者の視点位置の配置が想定されるエリア(アイリプスとも呼ぶ。)と同じ、又は前記アイリプスの大部分(例えば、80%以上。)を含むように設定される。 Further, the "eye box" used in the description of the present embodiment is (1) a region where the entire virtual image V of the image can be visually recognized within the region, and at least a part of the virtual image V of the image cannot be visually recognized outside the region, (2). At least a part of the virtual image V of the image can be visually recognized in the area, and a part of the virtual image V of the image cannot be visually recognized outside the area. Yes, outside the region, the entire virtual image V of the image is less than the predetermined brightness, or (4) when the HUD device 20 can display the virtual image V that can be viewed stereoscopically, at least a part of the virtual image V is stereoscopic. It is a region that can be seen and a part of the virtual image V is not stereoscopically viewed outside the region. That is, when the observer places the eyes (both eyes) outside the eye box 200, the observer cannot see the entire virtual image V of the image, the visibility of the entire virtual image V of the image is very low, or it is difficult to perceive. The virtual image V of the image cannot be viewed stereoscopically. The predetermined luminance is, for example, about 1/50 of the luminance of the virtual image of the image visually recognized at the center of the eye box. The "eye box" is the same as the area (also referred to as eye lip) where the observer's viewpoint position is expected to be arranged in the vehicle on which the HUD device 20 is mounted, or most of the eye lip (for example, 80% or more). Is set to include.

虚像表示領域VSは、HUD装置20の内部で生成された画像が、虚像Vとして結像する平面、曲面、又は一部曲面の領域であり、結像面とも呼ばれる。虚像表示領域VSは、HUD装置20の後述する表示器40の表示面(例えば、液晶光変調素子の出射面)51が虚像として結像される位置であり、すなわち、虚像表示領域VSは、HUD装置20の後述する表示面51に対応し(言い換えると、虚像表示領域VSは、後述する表示器40の表示面51と、共役関係となる。)、そして、虚像表示領域VSで視認される虚像は、HUD装置20の後述する表示面51に表示される画像に対応している、と言える。虚像表示領域VS自体は、実際に観察者の目に視認されない、又は視認されにくい程度に視認性が低いことが好ましい。 The virtual image display region VS is a region of a plane, a curved surface, or a partially curved surface in which an image generated inside the HUD device 20 forms an image as a virtual image V, and is also called an image plane. The virtual image display area VS is a position where the display surface (for example, the emission surface of the liquid crystal optical modulation element) 51 of the display 40 described later of the HUD device 20 is imaged as a virtual image, that is, the virtual image display area VS is the HUD. Corresponding to the display surface 51 described later of the apparatus 20 (in other words, the virtual image display area VS has a conjugate relationship with the display surface 51 of the display 40 described later), and the virtual image visually recognized in the virtual image display area VS. Can be said to correspond to the image displayed on the display surface 51 described later of the HUD device 20. It is preferable that the virtual image display area VS itself has low visibility to the extent that it is not actually visible to the observer's eyes or is difficult to see.

虚像表示領域VSには、車両1の左右方向(X軸方向)を軸とした水平方向(XZ平面)とのなす角度(図1のチルト角θt)と、アイボックス200の中心205と虚像表示領域VSの上端VS1とを結ぶ線分と、アイボックス中心と虚像表示領域VSの下端VS2とを結ぶ線分とのなす角度を虚像表示領域VSの縦画角として、この縦画角の二等分線と水平方向(XZ平面)とのなす角度(図1の縦配置角θd)と、が設定される。縦配置角θdは、典型的には、水平方向(XZ平面)より下向きに設定され、例えば、+2[degree]である(ここでは、縦配置角θdの正方向は、前記縦画角の二等分線が、アイボックス200の中心205から下向きとなる俯角であり、縦配置角θdの負方向は、前記縦画角の二等分線が、アイボックス200の中心205から上向きとなる仰角であるとも言える。)。 In the imaginary image display area VS, the angle (tilt angle θt in FIG. 1) formed by the horizontal direction (XZ plane) with respect to the left-right direction (X-axis direction) of the vehicle 1 and the center 205 of the eyebox 200 and the imaginary image display are displayed. The angle formed by the line segment connecting the upper end VS1 of the area VS and the line segment connecting the center of the eyebox and the lower end VS2 of the imaginary image display area VS is defined as the vertical angle of the imaginary image display area VS, and is the second grade of this vertical angle. The angle (vertical arrangement angle θd in FIG. 1) formed by the branch line and the horizontal direction (XZ plane) is set. The vertical arrangement angle θd is typically set downward from the horizontal direction (XZ plane), and is, for example, +2 [degree] (here, the positive direction of the vertical arrangement angle θd is two of the vertical image angles. The equidistant line is the depression angle downward from the center 205 of the eyebox 200, and the negative direction of the vertical arrangement angle θd is the elevation angle at which the bisector of the vertical angle is upward from the center 205 of the eyebox 200. It can also be said that.).

また、本実施形態の虚像表示領域VSは、前方(Z軸正方向)を向いた際に概ね正対するように、概ね90[degree]のチルト角θtを有する。但し、チルト角θtは、これに限定されるものではなく、-10≦θt<90[degree]の範囲で変更し得る。チルト角θtは、例えば、60[degree]に設定され、虚像表示領域VSは、観察者から見て上側の領域が下側の領域より遠方になるように配置されてもよい。但し、チルト角θtの範囲は、これに限定されない。 Further, the virtual image display region VS of the present embodiment has a tilt angle θt of approximately 90 [degree] so as to substantially face the front (Z-axis positive direction). However, the tilt angle θt is not limited to this, and can be changed in the range of −10 ≦ θt <90 [degree]. The tilt angle θt may be set to, for example, 60 [degree], and the virtual image display area VS may be arranged so that the upper area is farther than the lower area when viewed from the observer. However, the range of the tilt angle θt is not limited to this.

図2は、ヘッドアップディスプレイ装置の構成の一態様を示す図である。HUD装置20は、例えばダッシュボード(図1の符号5)内に設置される。このHUD装置20は、表示器40、リレー光学系80及び、これら表示器40とリレー光学系80を収納し、表示器40からの表示光Kを内部から外部に向けて出射可能な光出射窓21を有する筐体22、を有する。 FIG. 2 is a diagram showing one aspect of the configuration of the head-up display device. The HUD device 20 is installed, for example, in a dashboard (reference numeral 5 in FIG. 1). The HUD device 20 houses the display 40, the relay optical system 80, and the display 40 and the relay optical system 80, and is capable of emitting the display light K from the display 40 from the inside to the outside. It has a housing 22 having 21.

図2の表示器40は、典型的には、液晶ディスプレイパネル(光変調素子)50と、光源ユニット60と、から主に構成される。表示面51は、液晶ディスプレイパネル50の視認側の表面であり、画像の表示光Kを出射する。表示面51の中心からリレー光学系80及び前記被投影部を介してアイボックス200(アイボックス200の中心205)へ向かう表示光Kの光軸Kpに対する、表示面51の角度の設定により、虚像表示領域VSの角度(チルト角θtを含む。)が設定され得る。 The display 40 of FIG. 2 is typically mainly composed of a liquid crystal display panel (light modulation element) 50 and a light source unit 60. The display surface 51 is a surface on the visual side of the liquid crystal display panel 50, and emits the display light K of the image. A virtual image is set by setting the angle of the display surface 51 with respect to the optical axis Kp of the display light K from the center of the display surface 51 toward the eye box 200 (center 205 of the eye box 200) via the relay optical system 80 and the projected portion. The angle of the display area VS (including the tilt angle θt) can be set.

液晶ディスプレイパネル(光変調素子)50は、光源ユニット60から光を入射し、2D画像に空間光変調した表示光Kをリレー光学系80(第2ミラー82)へ向けて出射する。液晶ディスプレイパネル50は、例えば、観察者から見た虚像Vの上下方向(Y軸方向)に対応する画素が配列される方向が短辺である矩形状である。観察者は、液晶ディスプレイパネル50の透過光を、虚像光学系90を介して視認する。虚像光学系90は、図2で示すリレー光学系80とフロントウインドシールド2とを合わせたものである。なお、光変調素子50(表示器40)は、自発光型ディスプレイであってもよく、又は、スクリーンに画像を投影するプロジェクション型ディスプレイ(例えば、LCoSやDMDを用いた反射型表示パネル)であってもよく、これらに限定されない。この場合、表示面51は、プロジェクション型ディスプレイのスクリーンである。 The liquid crystal display panel (light modulation element) 50 incidents light from the light source unit 60 and emits the display light K spatially light-modulated to the 2D image toward the relay optical system 80 (second mirror 82). The liquid crystal display panel 50 has, for example, a rectangular shape whose short side is the direction in which the pixels corresponding to the vertical direction (Y-axis direction) of the virtual image V seen from the observer are arranged. The observer visually recognizes the transmitted light of the liquid crystal display panel 50 via the virtual image optical system 90. The virtual image optical system 90 is a combination of the relay optical system 80 shown in FIG. 2 and the front windshield 2. The light modulation element 50 (display 40) may be a self-luminous display, or a projection type display (for example, a reflection type display panel using LCoS or DMD) that projects an image on a screen. However, it is not limited to these. In this case, the display surface 51 is a screen of a projection type display.

光源ユニット60は、光源(不図示)と、照明光学系(不図示)と、によって構成される。 The light source unit 60 includes a light source (not shown) and an illumination optical system (not shown).

光源(不図示)は、例えば、複数のチップ型のLEDであり、液晶ディスプレイパネル(光変調素子の一例)22へ照明光を出射する。光源ユニット60は、例えば、4つの光源で構成されており、液晶ディスプレイパネル50の長辺に沿って一列に配置される。光源ユニット60は、表示制御装置30からの制御のもと、照明光を液晶ディスプレイパネル50に向けて出射する。光源ユニット60の構成や光源の配置などはこれに限定されない。 The light source (not shown) is, for example, a plurality of chip-type LEDs, and emits illumination light to a liquid crystal display panel (an example of a light modulation element) 22. The light source unit 60 is composed of, for example, four light sources, and is arranged in a row along the long side of the liquid crystal display panel 50. The light source unit 60 emits illumination light toward the liquid crystal display panel 50 under the control of the display control device 30. The configuration of the light source unit 60 and the arrangement of the light sources are not limited to this.

照明光学系(不図示)は、例えば、光源ユニット60の照明光の出射方向に配置された1つ又は複数のレンズ(不図示)と、1つ又は複数のレンズの出射方向に配置された拡散板(不図示)と、によって構成される。 The illumination optical system (not shown) includes, for example, one or a plurality of lenses (not shown) arranged in the emission direction of the illumination light of the light source unit 60, and diffusion arranged in the emission direction of the one or a plurality of lenses. It is composed of a board (not shown).

なお、光源ユニット60は、ローカルディミング可能に構成され、表示制御装置30からの制御のもと、表示面51のエリア毎の照明の度合いを変更してもよい。これにより、光源ユニット60は、表示面51に表示される画像の輝度をエリア毎に調整することができる。 The light source unit 60 is configured to be locally dimmable, and the degree of illumination for each area of the display surface 51 may be changed under the control of the display control device 30. As a result, the light source unit 60 can adjust the brightness of the image displayed on the display surface 51 for each area.

リレー光学系80は、表示器40から出射された表示光K(表示器40からアイボックス200へ向かう光。)の光路上に配置され、表示器40からの表示光KをHUD装置20の外側のフロントウインドシールド2に投影する1つ又はそれ以上の光学部材で構成される。図2のリレー光学系80は、1つの凹状の第1ミラー81と、1つの平面の第2ミラー82と、を含む。 The relay optical system 80 is arranged on the optical path of the display light K (light toward the eyebox 200 from the display 40) emitted from the display 40, and the display light K from the display 40 is directed to the outside of the HUD device 20. It is composed of one or more optical members projected onto the front windshield 2 of the above. The relay optical system 80 of FIG. 2 includes one concave first mirror 81 and one flat second mirror 82.

第1ミラー81は、例えば、正の光学的パワーを有する自由曲面形状である。換言すると、第1ミラー81は、領域毎に光学的パワーが異なる曲面形状であってもよく、すなわち、表示光Kが通る領域(光路)に応じて表示光Kに付加される光学的パワーが異なってもよい。具体的には、表示面51の各領域からアイボックス200へ向かう第1表示光K11、第2表示光K12、第3表示光K13(図2参照)とで、リレー光学系80によって付加される光学的パワーが異なってもよい。 The first mirror 81 is, for example, a free curved surface shape having positive optical power. In other words, the first mirror 81 may have a curved surface shape in which the optical power differs for each region, that is, the optical power added to the display light K according to the region (optical path) through which the display light K passes. It may be different. Specifically, the first display light K11, the second display light K12, and the third display light K13 (see FIG. 2) heading from each region of the display surface 51 toward the eye box 200 are added by the relay optical system 80. The optical power may be different.

なお、第2ミラー82は、例えば、平面ミラーであるが、これに限定されるものではなく、光学的パワーを有する曲面であってもよい。すなわち、リレー光学系80は、複数のミラー(例えば、本実施形態の第1ミラー81、第2ミラー82。)を合成することで、表示光Kが通る領域(光路)に応じて付加される光学的パワーを異ならせてもよい。なお、第2ミラー82は、省略されてもよい。すなわち、表示器40から出射される表示光Kは、第1ミラー81により被投影部(フロントウインドシールド)2に反射されてもよい。 The second mirror 82 is, for example, a planar mirror, but is not limited to this, and may be a curved surface having optical power. That is, the relay optical system 80 is added according to the region (optical path) through which the display light K passes by synthesizing a plurality of mirrors (for example, the first mirror 81 and the second mirror 82 of the present embodiment). The optical power may be different. The second mirror 82 may be omitted. That is, the display light K emitted from the display 40 may be reflected by the first mirror 81 on the projected portion (front windshield) 2.

また、リレー光学系80は、本実施形態では2つのミラー(反射光学系)を含んでいたが、これに限定されるものではない。リレー光学系80は、1つ又はそれ以上の、レンズなどの屈折光学部材、ホログラムなどの回折光学部材、上述のものとは異なる反射光学部材、又はこれらの組み合わせを含んでいてもよく、これらは、上述の反射光学系に追加されてもよく、並びに上述の反射光学系の一部又は全部と代替されてもよい。 Further, the relay optical system 80 includes, but is not limited to, two mirrors (reflection optical system) in the present embodiment. The relay optics 80 may include one or more refractive optics such as lenses, diffractive optics such as holograms, reflective optics different from those described above, or combinations thereof. , May be added to the above-mentioned reflective optics, and may replace some or all of the above-mentioned reflected optics.

また、リレー光学系80は、この曲面形状(光学的パワーの一例。)により、虚像表示領域VSまでの距離を設定する機能、及び表示面51に表示された画像を拡大した虚像を生成する機能、を有するが、これに加えて、フロントウインドシールド2の湾曲形状により生じ得る虚像の歪みを抑制する(補正する)機能、又はこれら以外の公知の光学的機能を有していてもよい。 Further, the relay optical system 80 has a function of setting the distance to the virtual image display area VS by the curved surface shape (an example of optical power) and a function of generating an enlarged virtual image of the image displayed on the display surface 51. , But in addition to this, it may have a function of suppressing (correcting) the distortion of the virtual image that may occur due to the curved shape of the front windshield 2, or a known optical function other than these.

また、リレー光学系80は、表示制御装置30により制御される1つ又はそれ以上のアクチュエータ86、87が取り付けられ、回転可能であってもよい。例えば、アクチュエータ86は、第1ミラー81を、第1の回転軸AX1を中心に回転(及び/又は移動)させてもよい。アクチュエータ87は、第2ミラー82を、第1の回転軸AX1を中心に回転(及び/又は移動)させてもよい。 Further, the relay optical system 80 may be rotatable with one or more actuators 86, 87 controlled by the display control device 30 attached. For example, the actuator 86 may rotate (and / or move) the first mirror 81 about the first rotation axis AX1. The actuator 87 may rotate (and / or move) the second mirror 82 about the first rotation axis AX1.

ヘッドアップディスプレイ装置20は、後述する表示制御装置30の制御に基づいて、車両1のフロントウインドシールド2を介して視認される現実空間(実景)である前景に存在する、走行レーンの路面、分岐路、道路標識、障害物(歩行者、自転車、自動二輪車、他車両など)、及び地物(建物、橋など)などのオブジェクトの近傍、オブジェクトに重なる位置、又はオブジェクトを基準に設定された位置に画像を表示することで、視覚的な拡張現実(AR:Augmented Reality)を観察者(典型的には、車両1の運転席に着座する観察者)に知覚させることもできる。本実施形態の説明では、実景に存在する実オブジェクト又は表示制御装置30が定める実景における所定の空間内の奥行きや上下左右方向のターゲット位置に応じて、表示される位置を変化させ得る画像をAR画像と定義し、実オブジェクトの位置によらず、表示される位置が設定される画像を非AR画像と定義することとする。また、本実施形態の説明では、遠近感を生じさせる透視図法で表現される1つ又は複数からなる画像をパースペクティブ画像と定義し、透視図法で表現されない画像を非パースペクティブ画像と定義することとする。パースペクティブ画像は、典型的には、AR画像である。 The head-up display device 20 is a road surface and a branch of a traveling lane existing in a foreground which is a real space (actual view) visually recognized through the front windshield 2 of the vehicle 1 based on the control of the display control device 30 described later. Near objects such as roads, road signs, obstacles (pedestrians, bicycles, motorcycles, other vehicles, etc.), and features (buildings, bridges, etc.), positions that overlap objects, or positions set relative to the object. By displaying an image on the vehicle, an observer (typically, an observer sitting in the driver's seat of the vehicle 1) can perceive a visual augmented reality (AR). In the description of the present embodiment, an image in which the displayed position can be changed according to the depth in a predetermined space or the target position in the vertical and horizontal directions in the real object existing in the real scene or the real scene defined by the display control device 30 is AR. It is defined as an image, and an image in which the displayed position is set regardless of the position of the actual object is defined as a non-AR image. Further, in the description of the present embodiment, an image composed of one or more represented by a perspective projection that causes a sense of perspective is defined as a perspective image, and an image not represented by the perspective projection is defined as a non-perspective image. .. The perspective image is typically an AR image.

後述する表示制御装置30は、例えば、画像レンダリング処理(グラフィック処理)、表示器駆動処理などを実行することで、HUD装置20が表示する(観察者が知覚する)画像Vの態様を制御することができる。 The display control device 30, which will be described later, controls the mode of the image V displayed (perceived by the observer) by the HUD device 20 by executing, for example, image rendering processing (graphic processing), display drive processing, and the like. Can be done.

図3は、実景のターゲット位置に配置される仮想オブジェクトと、仮想オブジェクトが実景のターゲット位置に視認されるように虚像表示領域に表示される画像と、を概念的に示した図である。図3に表したように、観視者700から見て、奥行き方向をZ軸方向とし、左右方向(自車両1の幅方向)をX軸方向とし、上下方向(自車両1の上下方向)をY軸方向とする。なお、観視者から見て遠ざかる方向をZ軸の正の方向とし、観視者から見て左方向がX軸の正の方向とし、観視者から見て上方向をY軸の正の方向とする。 FIG. 3 is a diagram conceptually showing a virtual object arranged at the target position of the actual scene and an image displayed in the virtual image display area so that the virtual object can be visually recognized at the target position of the actual scene. As shown in FIG. 3, when viewed from the viewer 700, the depth direction is the Z-axis direction, the left-right direction (the width direction of the own vehicle 1) is the X-axis direction, and the vertical direction (the vertical direction of the own vehicle 1). Is the Y-axis direction. The direction away from the viewer is the positive direction of the Z axis, the left direction of the viewer is the positive direction of the X axis, and the upward direction of the viewer is the positive direction of the Y axis. The direction.

観視者700は、被投影部2を介して虚像表示領域VSに形成された(結像された)虚像Vを視認することで、実景の所定のターゲット位置PTに、仮想オブジェクトFUを知覚する。観視者は、被投影部2で反射した表示光Kの映像の虚像Vを視認する。この時、虚像Vが、例えば進路を示す矢印である場合、自車両1の前景の所定のターゲット位置PTに仮想オブジェクトFUが配置されて視認されるように、虚像Vの矢印は虚像表示領域VSに表示される。 The viewer 700 perceives the virtual object FU at a predetermined target position PT in the actual scene by visually recognizing the virtual image V formed (imaged) in the virtual image display area VS through the projected portion 2. .. The viewer visually recognizes the virtual image V of the image of the display light K reflected by the projected portion 2. At this time, when the virtual image V is, for example, an arrow indicating a course, the arrow of the virtual image V is the virtual image display area VS so that the virtual object FU is arranged and visually recognized at a predetermined target position PT in the foreground of the own vehicle 1. Is displayed in.

(第1の表示態様のパースペクティブ虚像V10)
図4は、自車両1の走行中において、観察者が視認する前景と、前景に重畳して表示される第1の表示態様の虚像の例を示す図である。第1の表示態様の虚像V10(以下では、パースペクティブ虚像V10とも呼ぶ。)は、消失点VP1(第1消失点VP1)を有する。すなわち、パースペクティブ虚像V10の図形は、奥行きを知覚させる消失点VP1を有する形状を有しており、例えば「矢印」の幹の部分の左辺の延長線V1A及び右辺の延長線V1Bは、消失点VP1で交差する。
(Perspective virtual image V10 of the first display mode)
FIG. 4 is a diagram showing an example of a foreground to be visually recognized by an observer and a virtual image of a first display mode superimposed on the foreground while the own vehicle 1 is traveling. The virtual image V10 of the first display mode (hereinafter, also referred to as a perspective virtual image V10) has a vanishing point VP1 (first vanishing point VP1). That is, the figure of the perspective imaginary image V10 has a shape having a vanishing point VP1 that allows the depth to be perceived. Cross at.

図示するように、観視者から見てパースペクティブ虚像V10が下方(縦配置角θdが正の方向である位置)に配置される場合は、消失点VP1は、虚像V10の位置よりも上方に配置される。一方、観視者から見てパースペクティブ虚像V10が上方(縦配置角θdが負の方向である位置)に配置される場合は、消失点VP1は、虚像の位置よりも下方に配置される。 As shown in the figure, when the perspective virtual image V10 is arranged below (the position where the vertical arrangement angle θd is in the positive direction) when viewed from the viewer, the vanishing point VP1 is arranged above the position of the virtual image V10. Will be done. On the other hand, when the perspective virtual image V10 is arranged above (the position where the vertical arrangement angle θd is in the negative direction) when viewed from the viewer, the vanishing point VP1 is arranged below the position of the virtual image.

観視者は、消失点VP1とパースペクティブ虚像V10との位置との関係に基づいて、観視者から見た時のパースペクティブ虚像V10の奥行き感を得る。このように、パースペクティブ虚像V10が消失点VP1を有することで、観視者におけるパースペクティブ虚像V10の奥行き位置の推定が容易になる。 The viewer obtains a sense of depth of the perspective virtual image V10 when viewed from the viewer, based on the relationship between the vanishing point VP1 and the position of the perspective virtual image V10. As described above, since the perspective virtual image V10 has a vanishing point VP1, it becomes easy for the viewer to estimate the depth position of the perspective virtual image V10.

一方、図4に示したように、自車両1の走行レーン6は、消失点VP0(実景消失点VP0)を有する。本具体例では、観視者から見て、前方に直進する走行レーン6が存在し、その走行レーン6の両側の境界線7及び8の延長線が、消失点VP0で実質的に交差(点となる)する。このように、走行レーン(路面)6が消失点VP0を有することから、観視者は、実景(走行レーン6)において奥行き感を得る。 On the other hand, as shown in FIG. 4, the traveling lane 6 of the own vehicle 1 has a vanishing point VP0 (actual vanishing point VP0). In this specific example, there is a traveling lane 6 that goes straight ahead when viewed from the viewer, and the extension lines of the boundary lines 7 and 8 on both sides of the traveling lane 6 substantially intersect at the vanishing point VP0 (point). (Becomes). As described above, since the traveling lane (road surface) 6 has the vanishing point VP0, the viewer obtains a sense of depth in the actual view (traveling lane 6).

そして、本実施形態に係る車両用虚像表示システム10においては、図4に示すように、パースペクティブ虚像V10の消失点VP1が、実景(走行レーン6)の消失点VP0よりも手前側(観察者から見ると下方)に配置される。 Then, in the vehicle virtual image display system 10 according to the present embodiment, as shown in FIG. 4, the vanishing point VP1 of the perspective virtual image V10 is on the front side (from the observer) of the vanishing point VP0 of the actual view (traveling lane 6). It is placed below) when viewed.

一般に、線遠近法(透視図法)を用いて、絵画などを含めて画像を作成する場合、画像内の各種のオブジェクトをそれぞれの奥行き位置に配置する際に、消失点が用いられる。例えば、所定の消失点から直線が放射状に仮想的に描かれ、その直線に各オブジェクトの輪郭線などを沿わせることで、各オブジェクトは所定の奥行き位置に定着されて知覚される。なお、消失点は複数設けることができるが、ここでは、説明を簡単にするために、1つの画像内において消失点が1つ設けられる場合として説明する。 Generally, when creating an image including paintings using the linear perspective method (perspective projection), vanishing points are used when arranging various objects in the image at their respective depth positions. For example, a straight line is virtually drawn radially from a predetermined vanishing point, and by aligning the contour line of each object along the straight line, each object is fixed and perceived at a predetermined depth position. Although a plurality of vanishing points can be provided, here, in order to simplify the explanation, a case where one vanishing point is provided in one image will be described.

一般の線遠近法(透視図法)を用いた場合、観察者に知覚させる仮想オブジェクトの輪郭を形成する各境界線の延長線が、前景(走行レーン6)の消失点VP0で交差するように、虚像が表示さされる、すなわち、虚像の消失点VP1の位置が、前景(走行レーン6)の消失点VP0の位置と一致するように、虚像が生成されるが、本実施形態においては、パースペクティブ虚像V10の消失点VP1の位置が、前景(走行レーン6)の消失点VP0の位置よりも手前側になるように、パースペクティブ虚像V10が生成される(第1の表示処理)。 When the general line perspective method (perspective method) is used, the extension lines of each boundary line forming the outline of the virtual object to be perceived by the observer intersect at the vanishing point VP0 of the foreground (traveling lane 6). The imaginary image is displayed, that is, the imaginary image is generated so that the position of the vanishing point VP1 of the imaginary image coincides with the position of the vanishing point VP0 of the foreground (traveling lane 6). The perspective imaginary image V10 is generated so that the position of the vanishing point VP1 of V10 is closer to the position of the vanishing point VP0 of the foreground (traveling lane 6) (first display process).

これにより、仮想オブジェクトFU10の知覚される配置角(図3のX2軸を回転軸とした路面に対する角度)が、走行レーン6と概ね平行であるように、観察者により感得されやすくすることができる。 This makes it easier for the observer to perceive the perceived placement angle of the virtual object FU10 (the angle with respect to the road surface with the X2 axis as the rotation axis in FIG. 3) substantially parallel to the traveling lane 6. can.

仮想オブジェクトFU10は「矢印」であり、通常は、仮想オブジェクトFU10が配置される(設定される)ターゲット位置PTは、前景(走行レーン6)の表面の高さに一致させる(すなわち、設定高さを0mに設定する)。但し、これは一例であり、限定されるものではない。他の例では、ターゲット位置PTは、前景(走行レーン6)の表面の高lさより高い位置に設定してもよい(すなわち、設定高さを0.5mや1mに設定してもよい)。また、他の例では、ターゲット位置PTは、前景(走行レーン6)の表面の高さより低い位置に設定してもよい(すなわち、設定高さを-1mや-2mに設定してもよい)。 The virtual object FU10 is an "arrow", and normally, the target position PT on which the virtual object FU10 is placed (set) matches the height of the surface of the foreground (traveling lane 6) (that is, the set height). To 0m). However, this is an example and is not limited. In another example, the target position PT may be set at a position higher than the height l of the surface of the foreground (travel lane 6) (that is, the set height may be set to 0.5 m or 1 m). Further, in another example, the target position PT may be set at a position lower than the height of the surface of the foreground (traveling lane 6) (that is, the set height may be set to -1 m or -2 m). ..

図5A、図5B、図5C及び、図5Dは、パースペクティブ画像の変形例を示す図である。上記実施形態のパースペクティブ虚像V10は、1つの直線の「矢印」から構成されていたが、これに限定されない。図5Aに示すパースペクティブ虚像V20は、画像(「矢印」)の途中から屈曲させたものであってもよい。この場合、左方パースペクティブ線V1Aは、パースペクティブ虚像V20が屈曲するまでの左辺の延長線と定義することができ、右方パースペクティブ線V1Bは、パースペクティブ虚像V20が屈曲するまでの右辺の延長線と定義することができる。 5A, 5B, 5C, and 5D are diagrams showing a modified example of the perspective image. The perspective virtual image V10 of the above embodiment is composed of one straight line "arrow", but is not limited thereto. The perspective virtual image V20 shown in FIG. 5A may be bent from the middle of the image (“arrow”). In this case, the left perspective line V1A can be defined as an extension of the left side until the perspective virtual image V20 bends, and the right perspective line V1B can be defined as an extension of the right side until the perspective virtual image V20 bends. can do.

また、図5Bに示すパースペクティブ虚像V30は、第1のパースペクティブ虚像V31と、第1のパースペクティブ虚像V31より上方に配置され、第1のパースペクティブ虚像V31よりサイズが小さく設定される第2のパースペクティブ虚像V32とで構成される。この場合、左方パースペクティブ線V1Aは、第1のパースペクティブV31の左端と第2のパースペクティブV32の左端とを結ぶ直線と定義することができ、右方パースペクティブ線V1Bは、第1のパースペクティブV31の右端と第2のパースペクティブV32の右端とを結ぶ直線と定義することができる。 Further, the perspective virtual image V30 shown in FIG. 5B is arranged above the first perspective virtual image V31 and the first perspective virtual image V31, and is set to be smaller in size than the first perspective virtual image V31. Consists of. In this case, the left perspective line V1A can be defined as a straight line connecting the left end of the first perspective V31 and the left end of the second perspective V32, and the right perspective line V1B is the right end of the first perspective V31. Can be defined as a straight line connecting and the right end of the second perspective V32.

また、図5Cに示すパースペクティブ虚像V40は、左右で分割された複数のパースペクティブ虚像V41~V49で構成されてもよい。この場合、左方パースペクティブ線V1Aは、左方のパースペクティブV41~V44の左端を結ぶ直線(近似直線)と定義することができ、右方パースペクティブ線V1Bは、右方のパースペクティブV45~V48の右端を結ぶ直線(近似直線)と定義することができる。 Further, the perspective virtual image V40 shown in FIG. 5C may be composed of a plurality of perspective virtual images V41 to V49 divided on the left and right. In this case, the left perspective line V1A can be defined as a straight line (approximate straight line) connecting the left ends of the left perspectives V41 to V44, and the right perspective line V1B can be defined as the right end of the right perspectives V45 to V48. It can be defined as a straight line connecting (approximate straight line).

また、図5Dに示すパースペクティブ虚像V50の消失点VP1(第1消失点VP1)は、観察者から見て、走行レーン6の境界線7,8同士の交点である消失点VP0の左右方向にずれた消失点VP0‘に向けられた位置(図5Dに示す消失点VP0’は、消失点VP0の左方に配置される)に設定されてもよい。このような場合でも、パースペクティブ虚像V50の消失点VP1(第1消失点VP1)は、消失点VP0‘(実景消失点VP0)よりも手前側に配置させることができる。 Further, the vanishing point VP1 (first vanishing point VP1) of the perspective imaginary image V50 shown in FIG. 5D is displaced in the left-right direction of the vanishing point VP0 which is the intersection of the boundary lines 7 and 8 of the traveling lane 6 when viewed from the observer. It may be set to a position directed to the vanishing point VP0'(the vanishing point VP0'shown in FIG. 5D is located to the left of the vanishing point VP0). Even in such a case, the vanishing point VP1 (first vanishing point VP1) of the perspective virtual image V50 can be arranged closer to the vanishing point VP0'(real scene vanishing point VP0).

(第2の表示態様のパースペクティブ虚像V60)
図6は、自車両1の走行中において、観察者が視認する前景と、前景に重畳して表示される第2の表示態様の虚像の例を示す図である。第2の表示態様の虚像V60(以下では、パースペクティブ虚像V60とも呼ぶ。)は、第1の表示態様のパースペクティブ虚像V10の第1消失点VP1よりも遠方側に消失点VP2(第2消失点VP2)を有する。すなわち、パースペクティブ虚像V60の図形は、奥行きを知覚させる第2消失点VP2を有する形状を有しており、例えば「矢印」の幹の部分の左辺の延長線V1B及び右辺の延長線V2Bは、第2消失点VP2で交差する。
(Perspective virtual image V60 of the second display mode)
FIG. 6 is a diagram showing an example of a foreground to be visually recognized by an observer and a virtual image of a second display mode superimposed on the foreground while the own vehicle 1 is traveling. The virtual image V60 in the second display mode (hereinafter, also referred to as a perspective virtual image V60) is a vanishing point VP2 (second vanishing point VP2) farther from the first vanishing point VP1 of the perspective virtual image V10 in the first display mode. ). That is, the figure of the perspective virtual image V60 has a shape having a second vanishing point VP2 for perceiving the depth. For example, the extension line V1B on the left side and the extension line V2B on the right side of the trunk portion of the "arrow" are the second 2 Crosses at vanishing point VP2.

図示するように、観視者から見て第2の表示態様のパースペクティブ虚像V60が下方(縦配置角θdが正の方向である位置)に配置される場合は、第2消失点VP2は、第1消失点VP1の位置よりも上方に配置される。一方、観視者から見て第2の表示態様のパースペクティブ虚像V60が上方(縦配置角θdが負の方向である位置)に配置される場合は、第2消失点VP2は、第1消失点VP1の位置よりも下方に配置される。 As shown in the figure, when the perspective virtual image V60 of the second display mode is arranged downward (the position where the vertical arrangement angle θd is in the positive direction) when viewed from the viewer, the second vanishing point VP2 is the second. It is located above the position of 1 vanishing point VP1. On the other hand, when the perspective virtual image V60 of the second display mode is arranged above (the position where the vertical arrangement angle θd is in the negative direction) when viewed from the viewer, the second vanishing point VP2 is the first vanishing point. It is located below the position of VP1.

いくつかの実施形態のHUD装置20(表示制御装置30)は、パースペクティブ虚像Vの表示態様を、パースペクティブ虚像Vの種類に応じて、第1消失点VP1を有する上記第1の表示態様、又は第1消失点VP1より遠方側に設定される第2消失点VP2を有する上記第2の表示態様、に変化させる。いくつかの実施形態のHUD装置20(表示制御装置30)は、(10)パースペクティブ虚像Vが遠近方向に移動する又は伸縮する動画であれば、第2消失点VP2を有する第2表示態様で表現(第2の表示処理の一例)し、(15)パースペクティブ虚像Vが静止画、あまり遠近方向に移動しない動画、又はあまり遠近方向に伸縮しない動画であれば、第1消失点VP1を有する第1表示態様で表現する。 The HUD device 20 (display control device 30) of some embodiments displays the perspective virtual image V in the first display mode having the first vanishing point VP1 depending on the type of the perspective virtual image V, or the first display mode. 1 The second display mode having the second vanishing point VP2 set on the far side from the vanishing point VP1 is changed. The HUD device 20 (display control device 30) of some embodiments is represented by a second display mode having a second vanishing point VP2 if (10) the perspective virtual image V moves or expands and contracts in the perspective direction. (An example of the second display process) If (15) the perspective virtual image V is a still image, a moving image that does not move in the perspective direction very much, or a moving image that does not expand / contract in the perspective direction too much, the first vanishing point VP1 is provided. Expressed in a display mode.

図7A、図7Bは、第2消失点VP2を有する第2の表示態様のパースペクティブ虚像Vを示す図である。いくつかの実施形態のHUD装置20(表示制御装置30)は、パースペクティブ虚像Vが、(11)遠近方向に徐々に伸縮しているように知覚される動画(図7Aの例では、近傍側から遠方側の第2消失点VP2に向かって徐々に延びる透視図法で表現される動画)、又は(12)遠近方向に徐々に移動するように知覚される動画(図7Bの例では、近傍側から遠方側の第2消失点VP2に向かって徐々に移動する透視図法で表現される動画)である場合、第2消失点VP2を有する第2表示態様で表現する(第2の表示処理の一例)。一方、HUD装置20(表示制御装置30)は、パースペクティブ虚像Vが、(16)静止画、(17)あまり遠近方向に伸縮して知覚されない動画、又は(18)あまり遠近方向に移動して知覚されない動画、などである場合、第1消失点VP1を有する第1表示態様で表現する(第1の表示処理の一例)。「(17)あまり遠近方向に伸縮しない動画、又は(18)あまり遠近方向に移動しない動画」は、具体的に例えば、左右方向(X軸方向)に動く動画、上下方向(Y軸方向)であり、ヒトの知覚では奥行き方向(Z軸方向)にも感得し得る方向に所定の閾値以下の微小な距離だけ動く動画(さらに具体的には、左右方向(X軸方向)に動く距離に対する上下方向(Y軸方向)に動く距離が1/10以下である動画)、などである。 7A and 7B are diagrams showing the perspective virtual image V of the second display mode having the second vanishing point VP2. In some embodiments, the HUD device 20 (display control device 30) is a moving image in which the perspective virtual image V is perceived as (11) gradually expanding and contracting in the perspective direction (in the example of FIG. 7A, from the near side). A moving image expressed in perspective that gradually extends toward the second vanishing point VP2 on the distant side) or (12) a moving image that is perceived to gradually move in the perspective direction (in the example of FIG. 7B, from the near side). In the case of a moving image expressed by a perspective method that gradually moves toward the second vanishing point VP2 on the distant side, it is expressed in the second display mode having the second vanishing point VP2 (an example of the second display process). .. On the other hand, the HUD device 20 (display control device 30) perceives the perspective virtual image V as (16) a still image, (17) a moving image that is not perceived by expanding and contracting in a very perspective direction, or (18) moving in a very perspective direction. In the case of a moving image that is not performed, it is expressed in the first display mode having the first vanishing point VP1 (an example of the first display process). The "(17) video that does not expand and contract in the perspective direction or (18) video that does not move in the perspective direction" specifically includes, for example, a video that moves in the left-right direction (X-axis direction) and a video that moves in the vertical direction (Y-axis direction). There is a moving image that moves by a minute distance below a predetermined threshold in a direction that can be perceived in the depth direction (Z-axis direction) by human perception (more specifically, for a distance that moves in the left-right direction (X-axis direction). A moving image in which the moving distance in the vertical direction (Y-axis direction) is 1/10 or less), and the like.

また、いくつかの実施形態のHUD装置20(表示制御装置30)は、パースペクティブ虚像Vの表示態様を、パースペクティブ虚像Vの動画の移動速度(変形速度)に応じて、第1消失点VP1を有する上記第1の表示態様、又は第1消失点VP1より遠方側に設定される第2消失点VP2を有する上記第2の表示態様、に変化させる。例えば、いくつかの実施形態のHUD装置20(表示制御装置30)は、(20)パースペクティブ虚像Vの動画の移動速度(変形速度)が速ければ、第2消失点VP2を有する第2表示態様で表現(第2の表示処理の一例)し、(25)パースペクティブ虚像Vの動画の移動速度が遅ければ、第1消失点VP1を有する第1表示態様で表現する(第1の表示処理の一例)。 Further, the HUD device 20 (display control device 30) of some embodiments has a first vanishing point VP1 for displaying the perspective virtual image V according to the moving speed (deformation speed) of the moving image of the perspective virtual image V. The display mode is changed to the first display mode or the second display mode having a second vanishing point VP2 set farther from the first vanishing point VP1. For example, the HUD device 20 (display control device 30) of some embodiments has (20) a second display mode having a second vanishing point VP2 if the moving speed (deformation speed) of the moving image of the perspective virtual image V is high. Expression (an example of a second display process) is performed, and (25) if the moving speed of the moving speed of the moving image of the perspective virtual image V is slow, it is expressed in the first display mode having the first vanishing point VP1 (an example of the first display process). ..

上記実施形態のHUD装置20(表示制御装置30)は、パースペクティブ虚像Vが、(21)遠近方向に徐々に伸縮する、又は遠近方向に徐々に移動する画像の速度が、所定の画像速度閾値以上であり、速いと判定される場合、第2消失点VP2を有する第2表示態様で表現する(第2の表示処理の一例)。一方、HUD装置20(表示制御装置30)は、パースペクティブ虚像Vが、(26)遠近方向に徐々に伸縮する、又は遠近方向に徐々に移動する画像の速度が、所定の画像速度閾値未満であり、遅いと判定される場合、第1消失点VP1を有する第1表示態様で表現する(第1の表示処理の一例)。 In the HUD device 20 (display control device 30) of the above embodiment, the speed of the image in which the perspective virtual image V gradually expands and contracts in the (21) perspective direction or gradually moves in the perspective direction is equal to or higher than a predetermined image speed threshold value. If it is determined to be fast, it is expressed in a second display mode having a second vanishing point VP2 (an example of a second display process). On the other hand, in the HUD device 20 (display control device 30), the speed of the image in which the perspective virtual image V gradually expands and contracts in the (26) perspective direction or gradually moves in the perspective direction is less than a predetermined image speed threshold value. If it is determined to be slow, it is expressed in the first display mode having the first vanishing point VP1 (an example of the first display process).

また、いくつかの実施形態のHUD装置20(表示制御装置30)は、パースペクティブ虚像Vの表示態様を、自車両1の前方(周囲)の明るさに応じて、第1消失点VP1を有する上記第1の表示態様、又は第1消失点VP1より遠方側に設定される第2消失点VP2を有する上記第2の表示態様、に変化させる(第2の表示処理の一例)。例えば、いくつかの実施形態のHUD装置20(表示制御装置30)は、(30)自車両1の前方(周囲)が明るいと判定される場合、第2消失点VP2を有する第2表示態様で表現し、(35)自車両1の前方(周囲)が暗いと判定される場合、第1消失点VP1を有する第1表示態様で表現する(第1の表示処理の一例)。 Further, the HUD device 20 (display control device 30) of some embodiments has the first vanishing point VP1 according to the brightness of the front (periphery) of the own vehicle 1 in the display mode of the perspective virtual image V. The display mode is changed to the first display mode or the second display mode having the second vanishing point VP2 set farther from the first vanishing point VP1 (an example of the second display process). For example, the HUD device 20 (display control device 30) of some embodiments has (30) a second display mode having a second vanishing point VP2 when it is determined that the front (periphery) of the own vehicle 1 is bright. (35) When it is determined that the front (periphery) of the own vehicle 1 is dark, it is expressed in the first display mode having the first vanishing point VP1 (an example of the first display process).

また、いくつかの実施形態のHUD装置20(表示制御装置30)は、パースペクティブ虚像Vの表示態様を、パースペクティブ虚像Vの上下方向(Y軸方向)であり、ヒトの知覚では奥行き方向(Z軸方向)の長さに応じて、第1消失点VP1を有する上記第1の表示態様、又は第1消失点VP1より遠方側に設定される第2消失点VP2を有する上記第2の表示態様、に変化させる。例えば、いくつかの実施形態のHUD装置20(表示制御装置30)は、(40)パースペクティブ虚像Vの上下方向(Y軸方向)の長さであり、ヒトの知覚では奥行き方向(Z軸方向)の距離が、所定の閾値と同じ又は長いである場合、第2消失点VP2を有する第2表示態様で表現(第2の表示処理の一例)し、(45)パースペクティブ虚像Vの上下方向(Y軸方向)の長さであり、ヒトの知覚では奥行き方向(Z軸方向)の距離が、所定の閾値より短い場合、第1消失点VP1を有する第1表示態様で表現する(第1の表示処理の一例)。 Further, the HUD device 20 (display control device 30) of some embodiments displays the perspective imaginary image V in the vertical direction (Y-axis direction) of the perspective imaginary image V, and is perceived by humans in the depth direction (Z-axis direction). The first display mode having the first vanishing point VP1 or the second display mode having the second vanishing point VP2 set farther from the first vanishing point VP1 depending on the length of the direction). Change to. For example, the HUD device 20 (display control device 30) of some embodiments is the length in the vertical direction (Y-axis direction) of the (40) perspective imaginary image V, and is the depth direction (Z-axis direction) in human perception. When the distance of is the same as or longer than a predetermined threshold value, it is expressed in the second display mode having the second vanishing point VP2 (an example of the second display process), and (45) the vertical direction (Y) of the perspective imaginary image V. It is the length in the axial direction, and in human perception, when the distance in the depth direction (Z-axis direction) is shorter than a predetermined threshold value, it is expressed in the first display mode having the first vanishing point VP1 (first display). An example of processing).

また、いくつかの実施形態のHUD装置20(表示制御装置30)は、パースペクティブ虚像Vの表示態様を、表示が継続される期間の長さに応じて、第1消失点VP1を有する上記第1の表示態様、又は第1消失点VP1より遠方側に設定される第2消失点VP2を有する上記第2の表示態様、に変化させる。例えば、いくつかの実施形態のHUD装置20(表示制御装置30)は、(50)動画又は静止画のパースペクティブ虚像Vを表示し始めてから表示し終わるまでの期間が所定の閾値と同じ又は長い場合、第2消失点VP2を有する第2表示態様で表現(第2の表示処理の一例)し、(55)動画又は静止画のパースペクティブ虚像Vを表示し始めてから表示し終わるまでの期間が所定の閾値より短い場合、第1消失点VP1を有する第1表示態様で表現する(第1の表示処理の一例)。 Further, the HUD device 20 (display control device 30) of some embodiments has the first vanishing point VP1 for displaying the perspective virtual image V according to the length of the period during which the display is continued. The display mode is changed to the above-mentioned second display mode having the second vanishing point VP2 set on the far side from the first vanishing point VP1. For example, in some embodiments, the HUD device 20 (display control device 30) has (50) a period from the start of displaying the perspective virtual image V of a moving image or a still image to the end of displaying the same or longer than a predetermined threshold value. , Expressed in the second display mode having the second vanishing point VP2 (an example of the second display process), and (55) the period from the start of displaying the perspective virtual image V of the moving image or the still image to the end of the display is predetermined. When it is shorter than the threshold value, it is expressed in the first display mode having the first vanishing point VP1 (an example of the first display process).

図8は、いくつかの実施形態に係る、車両用虚像表示システムのブロック図である。表示制御装置30は、1つ又は複数のI/Oインタフェース31、1つ又は複数のプロセッサ33、1つ又は複数の画像処理回路35、及び1つ又は複数のメモリ37を備える。図8に記載される様々な機能ブロックは、ハードウェア、ソフトウェア、又はこれら両方の組み合わせで構成されてもよい。図8は、1つの実施形態に過ぎず、図示された構成要素は、より数の少ない構成要素に組み合わされてもよく、又は追加の構成要素があってもよい。例えば、画像処理回路35(例えば、グラフィック処理ユニット)が、1つ又は複数のプロセッサ33に含まれてもよい。 FIG. 8 is a block diagram of a virtual image display system for a vehicle according to some embodiments. The display control device 30 includes one or more I / O interfaces 31, one or more processors 33, one or more image processing circuits 35, and one or more memories 37. The various functional blocks shown in FIG. 8 may consist of hardware, software, or a combination of both. FIG. 8 is only one embodiment, and the illustrated components may be combined with a smaller number of components or may have additional components. For example, the image processing circuit 35 (eg, graphic processing unit) may be included in one or more processors 33.

図示するように、プロセッサ33及び画像処理回路35は、メモリ37と動作可能に連結される。より具体的には、プロセッサ33及び画像処理回路35は、メモリ37に記憶されているプログラムを実行することで、例えば画像データを生成、及び/又は送信するなど、車両用虚像表示システム10(表示器40)の制御を行うことができる。プロセッサ33及び/又は画像処理回路35は、少なくとも1つの汎用マイクロプロセッサ(例えば、中央処理装置(CPU))、少なくとも1つの特定用途向け集積回路(ASIC)、少なくとも1つのフィールドプログラマブルゲートアレイ(FPGA)、又はそれらの任意の組み合わせを含むことができる。メモリ37は、ハードディスクのような任意のタイプの磁気媒体、CD及びDVDのような任意のタイプの光学媒体、揮発性メモリのような任意のタイプの半導体メモリ、及び不揮発性メモリを含む。揮発性メモリは、DRAM及びSRAMを含み、不揮発性メモリは、ROM及びNVRAMを含んでもよい。 As shown, the processor 33 and the image processing circuit 35 are operably connected to the memory 37. More specifically, the processor 33 and the image processing circuit 35 execute a program stored in the memory 37 to generate and / or transmit image data, for example, for a vehicle virtual image display system 10 (display). The device 40) can be controlled. The processor 33 and / or the image processing circuit 35 includes at least one general purpose microprocessor (eg, central processing unit (CPU)), at least one application specific integrated circuit (ASIC), and at least one field programmable gate array (FPGA). , Or any combination thereof. The memory 37 includes any type of magnetic medium such as a hard disk, any type of optical medium such as a CD and DVD, any type of semiconductor memory such as a volatile memory, and a non-volatile memory. Volatile memory may include DRAM and SRAM, and non-volatile memory may include ROM and NVRAM.

図示するように、プロセッサ33は、I/Oインタフェース31と動作可能に連結されている。I/Oインタフェース31は、例えば、車両に設けられた後述の車両ECU401及び/又は、他の電子機器(後述する符号403~419)と、CAN(Controller Area Network)の規格に応じて通信(CAN通信とも称する)を行う。なお、I/Oインタフェース31が採用する通信規格は、CANに限定されず、例えば、CANFD(CAN with Flexible Data Rate)、LIN(Local Interconnect Network)、Ethernet(登録商標)、MOST(Media Oriented Systems Transport:MOSTは登録商標)、UART、もしくはUSBなどの有線通信インタフェース、又は、例えば、Bluetooth(登録商標)ネットワークなどのパーソナルエリアネットワーク(PAN)、802.11x Wi-Fi(登録商標)ネットワークなどのローカルエリアネットワーク(LAN)等の数十メートル内の近距離無線通信インタフェースである車内通信(内部通信)インタフェースを含む。また、I/Oインタフェース31は、無線ワイドエリアネットワーク(WWAN0、IEEE802.16-2004(WiMAX:Worldwide Interoperability for Microwave Access))、IEEE802.16eベース(Mobile WiMAX)、4G、4G-LTE、LTE Advanced、5Gなどのセルラー通信規格により広域通信網(例えば、インターネット通信網)などの車外通信(外部通信)インタフェースを含んでいてもよい。 As shown, the processor 33 is operably linked to the I / O interface 31. The I / O interface 31 communicates (CAN) with, for example, the vehicle ECU 401 and / or other electronic devices (reference numerals 403 to 419 described later) provided in the vehicle according to the standard of CAN (Controller Area Network). Also called communication). The communication standard adopted by the I / O interface 31 is not limited to CAN, and is, for example, CANFD (CAN with Flexible Data Rate), LIN (Local Interconnect Network), Ethernet (registered trademark), MOST (Media Oriented Systems Transport). : MOST is a registered trademark), a wired communication interface such as UART, or USB, or a local such as a personal area network (PAN) such as a Bluetooth® network, or an 802.1x Wi-Fi® network. In-vehicle communication (internal communication) interface, which is a short-range wireless communication interface within several tens of meters such as an area network (LAN), is included. The I / O interface 31 is a wireless wide area network (WWAN0, IEEE 802.16-2004 (WiMAX: Worldwide Interoperability for Microwave Access)), an IEEE 802.16e base (Mobile WiMAX), 4G, 4G-LTE, LTE Advanced, It may include an out-of-vehicle communication (external communication) interface such as a wide area communication network (for example, an Internet communication network) according to a cellular communication standard such as 5G.

図示するように、プロセッサ33は、I/Oインタフェース31と相互動作可能に連結されることで、車両用虚像表示システム10(I/Oインタフェース31)に接続される種々の他の電子機器等と情報を授受可能となる。I/Oインタフェース31には、例えば、車両ECU401、道路情報データベース403、自車位置検出部405、操作検出部407、目位置検出部409、車外センサ411、明るさ検出部413、IMU415、携帯情報端末417、及び外部通信機器419などが動作可能に連結される。なお、I/Oインタフェース31は、車両用虚像表示システム10に接続される他の電子機器等から受信する情報を加工(変換、演算、解析)する機能を含んでいてもよい。 As shown in the figure, the processor 33 is interoperably connected to the I / O interface 31 to be connected to various other electronic devices and the like connected to the vehicle imaginary image display system 10 (I / O interface 31). Information can be exchanged. The I / O interface 31 includes, for example, a vehicle ECU 401, a road information database 403, a vehicle position detection unit 405, an operation detection unit 407, an eye position detection unit 409, an external sensor 411, a brightness detection unit 413, an IMU415, and mobile information. The terminal 417, the external communication device 419, and the like are operably connected. The I / O interface 31 may include a function of processing (converting, calculating, and analyzing) information received from another electronic device or the like connected to the vehicle virtual image display system 10.

表示器40は、プロセッサ33及び画像処理回路35に動作可能に連結される。したがって、光変調素子50によって表示される画像は、プロセッサ33及び/又は画像処理回路35から受信された画像データに基づいてもよい。プロセッサ33及び画像処理回路35は、I/Oインタフェース31から取得される情報に基づき、光変調素子50が表示する画像を制御する。 The display 40 is operably connected to the processor 33 and the image processing circuit 35. Therefore, the image displayed by the light modulation element 50 may be based on the image data received from the processor 33 and / or the image processing circuit 35. The processor 33 and the image processing circuit 35 control the image displayed by the light modulation element 50 based on the information acquired from the I / O interface 31.

車両ECU401は、車両1に設けられたセンサやスイッチから、車両1の状態(例えば、走行距離、車速、アクセルペダル開度、ブレーキペダル開度、エンジンスロットル開度、インジェクター燃料噴射量、エンジン回転数、モータ回転数、ステアリング操舵角、シフトポジション、ドライブモード、各種警告状態、姿勢(ロール角、及び/又はピッチング角を含む)、車両の振動(振動の大きさ、頻度、及び/又は周波数を含む))などを取得し、車両1の前記状態を収集、及び管理(制御も含んでもよい。)するものであり、機能の一部として、車両1の前記状態の数値(例えば、車両1の車速。)を示す信号を、表示制御装置30のプロセッサ33へ出力することができる。なお、車両ECU401は、単にセンサ等で検出した数値(例えば、ピッチング角が前傾方向に3[degree]。)をプロセッサ33へ送信することに加え、又はこれに代わり、センサで検出した数値を含む車両1の1つ又は複数の状態に基づく判定結果(例えば、車両1が予め定められた前傾状態の条件を満たしていること。)、若しくは/及び解析結果(例えば、ブレーキペダル開度の情報と組み合わせされて、ブレーキにより車両が前傾状態になったこと。)を、プロセッサ33へ送信してもよい。例えば、車両ECU401は、車両1が車両ECU401のメモリ(不図示)に予め記憶された所定の条件を満たすような判定結果を示す信号を表示制御装置30へ出力してもよい。なお、I/Oインタフェース31は、車両ECU401を介さずに、車両1に設けられた車両1に設けられたセンサやスイッチから、上述したような情報を取得してもよい。 The vehicle ECU 401 uses sensors and switches provided on the vehicle 1 to indicate the state of the vehicle 1 (for example, mileage, vehicle speed, accelerator pedal opening, brake pedal opening, engine throttle opening, injector fuel injection amount, engine rotation speed). , Motor speed, steering angle, shift position, drive mode, various warning states, posture (including roll angle and / or pitching angle), vehicle vibration (including magnitude, frequency, and / or frequency of vibration) )) And the like, and the state of the vehicle 1 is collected and managed (may include control), and as a part of the function, the numerical value of the state of the vehicle 1 (for example, the vehicle speed of the vehicle 1). ) Can be output to the processor 33 of the display control device 30. In addition, the vehicle ECU 401 simply transmits the numerical value detected by the sensor or the like (for example, the pitching angle is 3 [brake] in the forward tilt direction) to the processor 33, or instead, the numerical value detected by the sensor is used. A determination result based on one or more states of the vehicle 1 including (for example, the vehicle 1 satisfies a predetermined condition of a forward leaning state) and / and an analysis result (for example, a brake pedal opening degree). Combined with the information, the brake has caused the vehicle to lean forward.) May be transmitted to the processor 33. For example, the vehicle ECU 401 may output a signal indicating a determination result indicating that the vehicle 1 satisfies a predetermined condition stored in advance in a memory (not shown) of the vehicle ECU 401 to the display control device 30. The I / O interface 31 may acquire the above-mentioned information from the sensors and switches provided in the vehicle 1 provided in the vehicle 1 without going through the vehicle ECU 401.

また、車両ECU401は、車両用虚像表示システム10が表示する画像を指示する指示信号を表示制御装置30へ出力してもよく、この際、画像の座標、サイズ、種類、表示態様、画像の報知必要度、及び/又は報知必要度を判定する元となる必要度関連情報を、前記指示信号に付加して送信してもよい。 Further, the vehicle ECU 401 may output an instruction signal indicating an image displayed by the vehicle virtual image display system 10 to the display control device 30, and at this time, the coordinates, size, type, display mode, and image notification of the image may be output. Necessity-related information that is a source for determining the necessity and / or the necessity of notification may be added to the instruction signal and transmitted.

道路情報データベース403は、車両1に設けられた図示しないナビゲーション装置、又は車両1と車外通信インタフェース(I/Oインタフェース31)を介して接続される外部サーバー、に含まれ、後述する自車位置検出部405から取得される車両1の位置に基づき、車両1の周辺の情報(車両1の周辺の実オブジェクト関連情報)である車両1が走行する道路情報(車線,白線,停止線,横断歩道,道路の幅員,車線数,交差点,カーブ,分岐路,交通規制など)、地物情報(建物、橋、河川など)の、有無、位置(車両1までの距離を含む)、方向、形状、種類、詳細情報などを読み出し、プロセッサ33に送信してもよい。また、道路情報データベース403は、出発地から目的地までの適切な経路(ナビゲーション情報)を算出し、当該ナビゲーション情報を示す信号、又は経路を示す画像データをプロセッサ33へ出力してもよい。 The road information database 403 is included in a navigation device (not shown) provided in the vehicle 1 or an external server connected to the vehicle 1 via an external communication interface (I / O interface 31), and the vehicle position detection described later. Based on the position of the vehicle 1 acquired from the unit 405, the road information (lane, white line, stop line, crosswalk, etc.) on which the vehicle 1 travels, which is the information around the vehicle 1 (information related to the actual object around the vehicle 1). Road width, number of lanes, intersections, curves, branch roads, traffic regulations, etc.), feature information (buildings, bridges, rivers, etc.), presence / absence, position (including distance to vehicle 1), direction, shape, type , Detailed information and the like may be read out and transmitted to the processor 33. Further, the road information database 403 may calculate an appropriate route (navigation information) from the departure point to the destination, and output a signal indicating the navigation information or image data indicating the route to the processor 33.

自車位置検出部405は、車両1に設けられたGNSS(全地球航法衛星システム)等であり、現在の車両1の位置、方位を検出し、検出結果を示す信号を、プロセッサ33を介して、又は直接、道路情報データベース403、後述する携帯情報端末417、及び/もしくは外部通信機器419へ出力する。道路情報データベース403、後述する携帯情報端末417、及び/又は外部通信機器419は、自車位置検出部405から車両1の位置情報を連続的、断続的、又は所定のイベント毎に取得することで、車両1の周辺の情報を選択・生成して、プロセッサ33へ出力してもよい。 The own vehicle position detection unit 405 is a GNSS (Global Navigation Satellite System) or the like provided in the vehicle 1, detects the current position and direction of the vehicle 1, and transmits a signal indicating the detection result via the processor 33. , Or directly output to the road information database 403, the portable information terminal 417 described later, and / or the external communication device 419. The road information database 403, the mobile information terminal 417 described later, and / or the external communication device 419 obtains the position information of the vehicle 1 from the own vehicle position detection unit 405 continuously, intermittently, or at a predetermined event. , Information around the vehicle 1 may be selected and generated and output to the processor 33.

操作検出部407は、例えば、車両1のCID(Center Information Display)、インストルメントパネルなどに設けられたハードウェアスイッチ、又は画像とタッチセンサなどとを兼ね合わされたソフトウェアスイッチなどであり、車両1の乗員(運転席の着座するユーザ、及び/又は助手席に着座するユーザ)による操作に基づく操作情報を、プロセッサ33へ出力する。例えば、操作検出部407は、ユーザの操作により、虚像表示領域100を移動させる操作に基づく表示領域設定情報、アイボックス200を移動させる操作に基づくアイボックス設定情報、観察者の目位置700を設定する操作に基づく情報などを、プロセッサ33へ出力する。 The operation detection unit 407 is, for example, a CID (Center Information Display) of the vehicle 1, a hardware switch provided on an instrument panel, or a software switch that combines an image and a touch sensor, and is a vehicle 1. The operation information based on the operation by the occupant (the user sitting in the driver's seat and / or the user sitting in the passenger seat) is output to the processor 33. For example, the operation detection unit 407 sets display area setting information based on the operation of moving the virtual image display area 100, eye box setting information based on the operation of moving the eye box 200, and the observer's eye position 700 by the user's operation. Information and the like based on the operation to be performed are output to the processor 33.

目位置検出部409は、車両1の運転席に着座する観察者の目位置700(図1参照。)を検出する赤外線カメラなどのカメラを含み、撮像した画像を、プロセッサ33に出力してもよい。プロセッサ33は、目位置検出部409から撮像画像(目位置700を推定可能な情報の一例。)を取得し、この撮像画像を、パターンマッチングなどの手法で解析することで、観察者の目位置700の座標を検出し、検出した目位置700の座標を示す信号を、プロセッサ33へ出力してもよい。 The eye position detection unit 409 includes a camera such as an infrared camera that detects the eye position 700 (see FIG. 1) of the observer sitting in the driver's seat of the vehicle 1, and even if the captured image is output to the processor 33. good. The processor 33 acquires an image taken from the eye position detection unit 409 (an example of information that can estimate the eye position 700), and analyzes the captured image by a method such as pattern matching to obtain the eye position of the observer. The coordinates of 700 may be detected, and a signal indicating the detected coordinates of the eye position 700 may be output to the processor 33.

また、目位置検出部409は、カメラの撮像画像を解析した解析結果(例えば、観察者の目位置700が、予め設定された複数の表示パラメータが対応する空間的な領域のどこに属しているかを示す信号。)を、プロセッサ33に出力してもよい。なお、車両1の観察者の目位置700、又は観察者の目位置700を推定可能な情報を取得する方法は、これらに限定されるものではなく、既知の目位置検出(推定)技術を用いて取得されてもよい。 Further, the eye position detection unit 409 determines where in the spatial region corresponding to the plurality of preset display parameters the eye position 700 of the observer belongs to the analysis result obtained by analyzing the image captured by the camera (for example, the eye position 700 of the observer belongs to). The indicated signal) may be output to the processor 33. The method for acquiring information capable of estimating the eye position 700 of the observer of the vehicle 1 or the eye position 700 of the observer is not limited to these, and a known eye position detection (estimation) technique is used. May be obtained.

また、目位置検出部409は、観察者の目位置700の移動速度、及び/又は移動方向を検出し、観察者の目位置700の移動速度、及び/又は移動方向を示す信号を、プロセッサ33に出力してもよい。 Further, the eye position detection unit 409 detects the moving speed and / or moving direction of the observer's eye position 700, and outputs a signal indicating the moving speed and / or moving direction of the observer's eye position 700 to the processor 33. It may be output to.

また、目位置検出部409は、(10)観察者の目位置700がアイボックス200外にあることを示す信号、(20)観察者の目位置700がアイボックス200外にあると推定される信号、又は(30)観察者の目位置700がアイボックス200外になると予測される信号、を検出した場合、所定の条件を満たしたと判定し、当該状態を示す信号を、プロセッサ33に出力してもよい。 Further, the eye position detection unit 409 is presumed to have (10) a signal indicating that the observer's eye position 700 is outside the eye box 200, and (20) the observer's eye position 700 is outside the eye box 200. When a signal or (30) a signal in which the observer's eye position 700 is predicted to be outside the eye box 200 is detected, it is determined that a predetermined condition is satisfied, and a signal indicating the state is output to the processor 33. You may.

(20)観察者の目位置700がアイボックス200外にあると推定される信号は、(21)観察者の目位置700が検出できないことを示す信号、(22)観察者の目位置700の移動が検出された後、観察者の目位置700が検出できないことを示す信号、及び/又は(23)観察者の目位置700R、700Lのいずれかがアイボックス200の境界200Aの近傍(前記近傍は、例えば、境界200Aから所定の座標以内であることを含む。)にあることを示す信号、などを含む。 (20) The signal presumed that the observer's eye position 700 is outside the eye box 200 is (21) a signal indicating that the observer's eye position 700 cannot be detected, and (22) the observer's eye position 700. After the movement is detected, a signal indicating that the observer's eye position 700 cannot be detected, and / or (23) either of the observer's eye positions 700R or 700L is near the boundary 200A of the eyebox 200 (near the above). Includes, for example, a signal indicating that it is within a predetermined coordinate from the boundary 200A).

(30)観察者の目位置700がアイボックス200外になると予測される信号は、(31)新たに検出した目位置700が、過去に検出した目位置700に対して、メモリ37に予め記憶された目位置移動距離閾値以上であること(所定の単位時間内における目位置の移動が規定範囲より大きいこと。)を示す信号、(32)目位置の移動速度が、メモリ37に予め記憶された目位置移動速度閾値以上であることを示す信号、などを含む。 (30) The signal predicted that the observer's eye position 700 is outside the eye box 200 is (31) stored in advance in the memory 37 with respect to the previously detected eye position 700 by the newly detected eye position 700. A signal indicating that the eye position movement distance is equal to or greater than the specified eye position movement distance threshold (the movement of the eye position within a predetermined unit time is larger than the specified range), and (32) the movement speed of the eye position are stored in advance in the memory 37. Includes a signal indicating that the eye position movement speed is equal to or higher than the threshold value, and the like.

また、目位置検出部409は、視線方向検出部409としての機能を有していても良い。視線方向検出部409は、車両1の運転席に着座する観察者の顔を撮像する赤外線カメラ、又は可視光カメラを含み、撮像した画像を、プロセッサ33に出力してもよい。プロセッサ33は、視線方向検出部409から撮像画像(視線方向を推定可能な情報の一例。)を取得し、この撮像画像を解析することで観察者の視線方向(及び/又は前記注視位置)を特定することができる。なお、視線方向検出部409は、カメラからの撮像画像を解析し、解析結果である観察者の視線方向(及び/又は前記注視位置)を示す信号をプロセッサ33に出力してもよい。なお、車両1の観察者の視線方向を推定可能な情報を取得する方法は、これらに限定されるものではなく、EOG(Electro-oculogram)法、角膜反射法、強膜反射法、プルキンエ像検出法、サーチコイル法、赤外線眼底カメラ法などの他の既知の視線方向検出(推定)技術を用いて取得されてもよい。 Further, the eye position detection unit 409 may have a function as a line-of-sight direction detection unit 409. The line-of-sight direction detection unit 409 may include an infrared camera or a visible light camera that captures the face of an observer sitting in the driver's seat of the vehicle 1, and may output the captured image to the processor 33. The processor 33 acquires a captured image (an example of information capable of estimating the line-of-sight direction) from the line-of-sight direction detection unit 409, and analyzes the captured image to determine the line-of-sight direction (and / or the gaze position) of the observer. Can be identified. The line-of-sight direction detection unit 409 may analyze the captured image from the camera and output a signal indicating the line-of-sight direction (and / or the gaze position) of the observer, which is the analysis result, to the processor 33. The method for acquiring information that can estimate the line-of-sight direction of the observer of the vehicle 1 is not limited to these, and the EOG (Electro-oculogram) method, the corneal reflex method, the scleral reflex method, and the Purkinje image detection. It may be obtained using other known line-of-sight detection (estimation) techniques such as method, search coil method, infrared fundus camera method.

車外センサ411は、車両1の周辺(前方、側方、及び後方)に存在する実オブジェクトを検出する。車外センサ411が検知する実オブジェクトは、例えば、障害物(歩行者、自転車、自動二輪車、他車両など)、後述する走行レーンの路面、区画線、路側物、及び/又は地物(建物など)などを含んでいてもよい。車外センサとしては、例えば、ミリ波レーダ、超音波レーダ、レーザレーダ等のレーダセンサ、カメラ、又はこれらの組み合わせからなる検出ユニットと、当該1つ又は複数の検出ユニットからの検出データを処理する(データフュージョンする)処理装置と、から構成される。これらレーダセンサやカメラセンサによる物体検知については従来の周知の手法を適用する。これらのセンサによる物体検知によって、三次元空間内での実オブジェクトの有無、実オブジェクトが存在する場合には、その実オブジェクトの位置(車両1からの相対的な距離、車両1の進行方向を前後方向とした場合の左右方向の位置、上下方向の位置等)、大きさ(横方向(左右方向)、高さ方向(上下方向)等の大きさ)、移動方向(横方向(左右方向)、奥行き方向(前後方向))、移動速度(横方向(左右方向)、奥行き方向(前後方向))、及び/又は種類等を検出してもよい。1つ又は複数の車外センサ411は、各センサの検知周期毎に、車両1の前方の実オブジェクトを検知して、実オブジェクト情報の一例である実オブジェクト情報(実オブジェクトの有無、実オブジェクトが存在する場合には実オブジェクト毎の位置、大きさ、及び/又は種類等の情報)をプロセッサ33に出力することができる。なお、これら実オブジェクト情報は、他の機器(例えば、車両ECU401)を経由してプロセッサ33に送信されてもよい。また、夜間等の周辺が暗いときでも実オブジェクトが検知できるように、センサとしてカメラを利用する場合には赤外線カメラや近赤外線カメラが望ましい。また、センサとしてカメラを利用する場合、視差で距離等も取得できるステレオカメラが望ましい。 The out-of-vehicle sensor 411 detects real objects existing around the vehicle 1 (front, side, and rear). The actual objects detected by the out-of-vehicle sensor 411 are, for example, obstacles (pedestrians, bicycles, motorcycles, other vehicles, etc.), road surfaces, lane markings, roadside objects, and / or features (buildings, etc.) of the traveling lane described later. Etc. may be included. As the out-of-vehicle sensor, for example, a detection unit composed of a radar sensor such as a millimeter wave radar, an ultrasonic radar, a laser radar, a camera, or a combination thereof, and detection data from the one or a plurality of detection units are processed (. It consists of a processing device (data fusion) and a processing device. Conventional well-known methods are applied to object detection by these radar sensors and camera sensors. By object detection by these sensors, the presence or absence of a real object in the three-dimensional space, and if the real object exists, the position of the real object (relative distance from the vehicle 1 and the traveling direction of the vehicle 1 in the front-rear direction). (Horizontal position, vertical position, etc.), size (horizontal direction (horizontal direction), height direction (vertical direction), etc.), movement direction (horizontal direction (horizontal direction), depth) Direction (front-back direction)), movement speed (horizontal direction (left-right direction), depth direction (front-back direction)), and / or type may be detected. One or a plurality of out-of-vehicle sensors 411 detect a real object in front of the vehicle 1 in each detection cycle of each sensor, and the real object information (presence / absence of the real object, existence of the real object exists) which is an example of the real object information. In this case, information such as the position, size, and / or type of each real object can be output to the processor 33. It should be noted that these real object information may be transmitted to the processor 33 via another device (for example, vehicle ECU 401). Infrared cameras and near-infrared cameras are desirable when using a camera as a sensor so that a real object can be detected even when the surroundings are dark, such as at night. When using a camera as a sensor, a stereo camera that can acquire a distance or the like by parallax is desirable.

明るさ検出部413は、車両1の車室の前方に存在する前景の所定範囲の照度又は輝度を外界明るさ(明るさ情報の一例)、又は車室内の照度又は輝度を車内明るさ(明るさ情報の一例)として検知する。明るさ検出部413は、例えばフォトトランジスタ若しくはフォトダイオード等であり、図1に示す車両1のインストルメントパネル、ルームミラー又はHUD装置20等に搭載される。 The brightness detection unit 413 determines the illuminance or brightness in a predetermined range of the foreground existing in front of the vehicle interior of the vehicle 1 as the outside brightness (an example of brightness information), or the illuminance or brightness in the vehicle interior as the brightness inside the vehicle (brightness). It is detected as an example of information). The brightness detection unit 413 is, for example, a phototransistor, a photodiode, or the like, and is mounted on an instrument panel, a rearview mirror, a HUD device 20, or the like of the vehicle 1 shown in FIG.

IMU415は、慣性加速に基づいて、車両1の位置、向き、及びこれらの変化(変化速度、変化加速度)を検知するように構成された1つ又は複数のセンサ(例えば、加速度計及びジャイロスコープ)の組み合わせを含むことができる。IMU415は、検出した値(前記検出した値は、車両1の位置、向き、及びこれらの変化(変化速度、変化加速度)を示す信号などを含む。)、検出した値を解析した結果を、プロセッサ33に出力してもよい。前記解析した結果は、前記検出した値が、所定の条件を満たしたか否かの判定結果を示す信号などであり、例えば、車両1の位置又は向きの変化(変化速度、変化加速度)に関する値から、車両1の挙動(振動)が少ないことを示す信号であってもよい。 The IMU415 is one or more sensors (eg, accelerometers and gyroscopes) configured to detect the position, orientation, and changes (speed of change, acceleration of change) of vehicle 1 based on inertial acceleration. Can include combinations of. The IMU415 is a processor that analyzes the detected values (the detected values include the position and orientation of the vehicle 1, and signals indicating these changes (change speed, change acceleration), etc.) and the detected values. It may be output to 33. The analysis result is a signal or the like indicating a determination result of whether or not the detected value satisfies a predetermined condition, and is, for example, from a value related to a change (change speed, change acceleration) in the position or orientation of the vehicle 1. , It may be a signal indicating that the behavior (vibration) of the vehicle 1 is small.

携帯情報端末417は、スマートフォン、ノートパソコン、スマートウォッチ、又は観察者(又は車両1の他の乗員)が携帯可能なその他の情報機器である。I/Oインタフェース31は、携帯情報端末417とペアリングすることで、携帯情報端末417と通信を行うことが可能であり、携帯情報端末417(又は携帯情報端末を通じたサーバ)に記録されたデータを取得する。携帯情報端末417は、例えば、上述の道路情報データベース403及び自車位置検出部405と同様の機能を有し、前記道路情報(実オブジェクト関連情報の一例。)を取得し、プロセッサ33に送信してもよい。また、携帯情報端末417は、車両1の近傍の商業施設に関連するコマーシャル情報(実オブジェクト関連情報の一例。)を取得し、プロセッサ33に送信してもよい。なお、携帯情報端末417は、携帯情報端末417の所持者(例えば、観察者)のスケジュール情報、携帯情報端末417での着信情報、メールの受信情報などをプロセッサ33に送信し、プロセッサ33及び画像処理回路35は、これらに関する画像データを生成及び/又は送信してもよい。 The personal digital assistant 417 is a smartphone, a laptop computer, a smart watch, or other information device that can be carried by an observer (or another occupant of vehicle 1). The I / O interface 31 can communicate with the mobile information terminal 417 by pairing with the mobile information terminal 417, and the data recorded in the mobile information terminal 417 (or the server through the mobile information terminal). To get. The mobile information terminal 417 has, for example, the same functions as the above-mentioned road information database 403 and own vehicle position detection unit 405, acquires the road information (an example of real object-related information), and transmits it to the processor 33. You may. Further, the personal digital assistant 417 may acquire commercial information (an example of information related to a real object) related to a commercial facility in the vicinity of the vehicle 1 and transmit it to the processor 33. The mobile information terminal 417 transmits schedule information of the owner (for example, an observer) of the mobile information terminal 417, incoming information on the mobile information terminal 417, mail reception information, and the like to the processor 33, and the processor 33 and an image. The processing circuit 35 may generate and / or transmit image data relating to these.

外部通信機器419は、車両1と情報のやりとりをする通信機器であり、例えば、車両1と車車間通信(V2V:Vehicle To Vehicle)により接続される他車両、歩車間通信(V2P:Vehicle To Pedestrian)により接続される歩行者(歩行者が携帯する携帯情報端末)、路車間通信(V2I:Vehicle To roadside Infrastructure)により接続されるネットワーク通信機器であり、広義には、車両1との通信(V2X:Vehicle To Everything)により接続される全てのものを含む。外部通信機器419は、例えば、歩行者、自転車、自動二輪車、他車両(先行車等)、路面、区画線、路側物、及び/又は地物(建物など)の位置を取得し、プロセッサ33へ出力してもよい。また、外部通信機器419は、上述の自車位置検出部405と同様の機能を有し、車両1の位置情報を取得し、プロセッサ33に送信してもよく、さらに上述の道路情報データベース403の機能も有し、前記道路情報(実オブジェクト関連情報の一例。)を取得し、プロセッサ33に送信してもよい。なお、外部通信機器419から取得される情報は、上述のものに限定されない。 The external communication device 419 is a communication device that exchanges information with the vehicle 1, for example, another vehicle connected to the vehicle 1 by vehicle-to-vehicle communication (V2V: Vehicle To Vehicle), and pedestrian-to-vehicle communication (V2P: Vehicle To Pestation). ), A network communication device connected by pedestrians (portable information terminals carried by pedestrians) and road-to-vehicle communication (V2I: Vehicle To Roadside Infrastructure), and in a broad sense, communication with vehicle 1 (V2X). : Vehicle To Everything) includes everything connected. The external communication device 419 acquires, for example, the positions of pedestrians, bicycles, motorcycles, other vehicles (preceding vehicles, etc.), road surfaces, lane markings, roadside objects, and / or features (buildings, etc.) and transfers them to the processor 33. It may be output. Further, the external communication device 419 has the same function as the own vehicle position detection unit 405 described above, and may acquire the position information of the vehicle 1 and transmit it to the processor 33, and further, the road information database 403 described above. It also has a function, and may acquire the road information (an example of information related to a real object) and transmit it to the processor 33. The information acquired from the external communication device 419 is not limited to the above.

メモリ37に記憶されたソフトウェア構成要素は、表示パラメータ設定モジュール502、グラフィックモジュール504、光源駆動モジュール506、及びアクチュエータ駆動モジュール508、を含む。 The software components stored in the memory 37 include a display parameter setting module 502, a graphic module 504, a light source drive module 506, and an actuator drive module 508.

図9は、パースペクティブ虚像を第1の表示態様又は第2の表示態様で表示させる表示制御処理を実行する方法S100を示すフロー図である。方法S100は、ディスプレイを含むHUD装置20と、このHUD装置20を制御する表示制御装置30と、において実行される。方法S100内のいくつかの動作は任意選択的に組み合わされ、いくつかの動作の手順は任意選択的に変更され、いくつかの動作は任意選択的に省略される。 FIG. 9 is a flow chart showing a method S100 for executing a display control process for displaying a perspective virtual image in the first display mode or the second display mode. The method S100 is executed in the HUD device 20 including the display and the display control device 30 that controls the HUD device 20. Some actions in the method S100 are optionally combined, some steps are optionally modified, and some actions are optionally omitted.

表示制御装置30(後述するグラフィックモジュール504)は、例えば、道路情報データベース403から出発地から目的地までの適切な経路(ナビゲーション情報)、車外センサ411から実オブジェクト情報(実オブジェクトの有無、実オブジェクトが存在する場合には実オブジェクト毎の位置、大きさ、及び/又は種類等の情報)などを取得し、表示する仮想オブジェクトを選択する設定する(S110)。 The display control device 30 (graphic module 504 described later) is, for example, an appropriate route (navigation information) from the road information database 403 to the destination, and real object information (presence / absence of a real object, real object) from the outside sensor 411. If there is, information such as the position, size, and / or type of each real object) is acquired, and a virtual object to be displayed is selected (S110).

表示パラメータ設定モジュール502は、S131に示すように、I/Oインタフェース31から取得する1つ又は複数の情報に基づき、パースペクティブ虚像Vの表示態様を変化させる。表示パラメータ設定モジュール502は、I/Oインタフェース31から取得する1つ又は複数の情報に基づき、(10)パースペクティブ虚像Vを、遠近方向に移動する又は伸縮する動画に設定する場合、第2消失点VP2を有する第2表示態様に設定(第2の表示処理の一例)し、(15)パースペクティブ虚像Vを、静止画、あまり遠近方向に移動しない動画、又はあまり遠近方向に伸縮しない動画に設定する場合、第1消失点VP1を有する第1表示態様に設定する(第1の表示処理の一例)。 As shown in S131, the display parameter setting module 502 changes the display mode of the perspective virtual image V based on one or more information acquired from the I / O interface 31. The display parameter setting module 502 sets the (10) perspective virtual image V as a moving or expanding moving image in the perspective direction based on one or more information acquired from the I / O interface 31, a second vanishing point. Set to the second display mode having VP2 (an example of the second display process), and (15) set the perspective virtual image V to a still image, a moving image that does not move in a very perspective direction, or a moving image that does not expand / contract in a very perspective direction. In this case, the first display mode having the first vanishing point VP1 is set (an example of the first display process).

また、表示パラメータ設定モジュール502は、S132に示すように、I/Oインタフェース31から取得する1つ又は複数の情報に基づき、(20)パースペクティブ虚像Vの動画の移動速度を所定の閾値より速く設定する場合、第2消失点VP2を有する第2表示態様に設定し(第2の表示処理の一例)、(25)パースペクティブ虚像Vの動画の移動速度を所定の閾値より速く設定する場合、第1消失点VP1を有する第1表示態様に設定する(第1の表示処理の一例)。 Further, as shown in S132, the display parameter setting module 502 sets the moving speed of the moving image of the (20) perspective virtual image V faster than a predetermined threshold value based on one or a plurality of information acquired from the I / O interface 31. In this case, the second display mode having the second vanishing point VP2 is set (an example of the second display process), and (25) the moving speed of the moving speed of the moving image of the perspective virtual image V is set to be faster than a predetermined threshold value. It is set to the first display mode having the vanishing point VP1 (an example of the first display process).

また、表示パラメータ設定モジュール502は、S133に示すように、明るさ検出部413から取得する情報(但し、これに限定されない。)に基づき、(30)自車両1の前方(周囲)が明るいと判定される場合、パースペクティブ虚像Vを、第2消失点VP2を有する第2表示態様に設定し(第2の表示処理の一例)、(35)自車両1の前方(周囲)が暗いと判定される場合、パースペクティブ虚像Vを、第1消失点VP1を有する第1表示態様に設定する(第1の表示処理の一例)。 Further, as shown in S133, the display parameter setting module 502 determines that (30) the front (periphery) of the own vehicle 1 is bright based on the information acquired from the brightness detection unit 413 (but not limited to this). When it is determined, the perspective virtual image V is set in the second display mode having the second vanishing point VP2 (an example of the second display process), and (35) it is determined that the front (periphery) of the own vehicle 1 is dark. If so, the perspective virtual image V is set in the first display mode having the first vanishing point VP1 (an example of the first display process).

また、表示パラメータ設定モジュール502は、S134に示すように、道路情報データベース403から取得される道路情報や車外センサ411から取得される前景に存在する実オブジェクトの位置情報(但し、これに限定されない。)に基づき、(40)案内経路や前景に存在する実オブジェクトを指示するパースペクティブ虚像Vの上下方向(Y軸方向)の長さであり、ヒトの知覚では奥行き方向(Z軸方向)の距離が、メモリ37に予め記憶される所定の閾値と同じ又は長いである場合、パースペクティブ虚像Vを、第2消失点VP2を有する第2表示態様に設定し(第2の表示処理の一例)、(45)パースペクティブ虚像Vの上下方向(Y軸方向)の長さであり、ヒトの知覚では奥行き方向(Z軸方向)の距離が、所定の閾値より短い場合、パースペクティブ虚像Vを、第1消失点VP1を有する第1表示態様に設定する(第1の表示処理の一例)。 Further, as shown in S134, the display parameter setting module 502 is not limited to the road information acquired from the road information database 403 and the position information of the real object existing in the foreground acquired from the vehicle outside sensor 411 (but not limited to this). ), It is the length in the vertical direction (Y-axis direction) of the perspective virtual image V that indicates the real object existing in the guide path or the foreground, and the distance in the depth direction (Z-axis direction) in human perception. When the value is the same as or longer than the predetermined threshold value stored in the memory 37 in advance, the perspective virtual image V is set to the second display mode having the second vanishing point VP2 (an example of the second display process), (45). ) The length of the perspective imaginary image V in the vertical direction (Y-axis direction), and when the distance in the depth direction (Z-axis direction) is shorter than a predetermined threshold in human perception, the perspective imaginary image V is set to the first vanishing point VP1. (An example of the first display process).

また、表示パラメータ設定モジュール502は、S135に示すように、I/Oインタフェース31から取得する1つ又は複数の情報に基づき、(50)動画又は静止画のパースペクティブ虚像Vを表示し始めてから表示し終わるまでの期間が、メモリ37に予め定められた所定の閾値と同じ又は長い場合、パースペクティブ虚像Vを、第2消失点VP2を有する第2表示態様に設定し(第2の表示処理の一例)、(55)動画又は静止画のパースペクティブ虚像Vを表示し始めてから表示し終わるまでの期間がメモリ37に予め記憶された所定の閾値より短い場合、パースペクティブ虚像Vを、第1消失点VP1を有する第1表示態様に設定する(第1の表示処理の一例)。 Further, as shown in S135, the display parameter setting module 502 displays (50) the perspective virtual image V of the moving image or the still image after starting to display it based on one or a plurality of information acquired from the I / O interface 31. When the period until the end is the same as or longer than a predetermined threshold value predetermined in the memory 37, the perspective virtual image V is set to the second display mode having the second vanishing point VP2 (an example of the second display process). (55) When the period from the start of displaying the perspective virtual image V of the moving image or the still image to the end of displaying it is shorter than a predetermined threshold stored in advance in the memory 37, the perspective virtual image V has a first vanishing point VP1. It is set in the first display mode (an example of the first display process).

グラフィックモジュール504は、レンダリングなどの画像処理をして画像データを生成し、表示器40を駆動するための様々な既知のソフトウェア構成要素を含む。また、グラフィックモジュール504は、表示される画像の、種類(動画、静止画、形状)、配置(位置座標、角度)、サイズ、表示距離(3Dの場合。)、視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)、を変更するための様々な既知のソフトウェア構成要素を含んでいてもよい。グラフィックモジュール504は、画像の種類(表示パラメータの例の1つ。)、画像の位置座標(表示パラメータの例の1つ。)、画像の角度(X方向を軸としたピッチング角、Y方向を軸としたヨーレート角、Z方向を軸としたローリング角などであり、表示パラメータの例の1つ。)、画像のサイズ(表示パラメータの例の1つ。)、画像の色(色相、彩度、明度などで設定される表示パラメータの例の1つ。)、画像の遠近表現の強度(消失点の位置などで設定される表示パラメータの1つ。)で観察者に視認されるように画像データを生成し、光変調素子50を駆動し得る。 The graphic module 504 includes various known software components for performing image processing such as rendering to generate image data and driving the display 40. Further, the graphic module 504 has a type (moving image, still image, shape), arrangement (positional coordinates, angle), size, display distance (in the case of 3D), and visual effect (for example, brightness) of the displayed image. It may include various known software components for changing transparency, saturation, contrast, or other visual characteristics). The graphic module 504 determines the type of image (one of the examples of display parameters), the position coordinates of the image (one of the examples of display parameters), the angle of the image (the pitching angle about the X direction, and the Y direction). Yaw rate angle as an axis, rolling angle as an axis in the Z direction, etc., which is one of the examples of display parameters), image size (one of the examples of display parameters), image color (hue, saturation). , One of the display parameters set by brightness, etc.), the intensity of the perspective expression of the image (one of the display parameters set by the position of the vanishing point, etc.) so that the image can be visually recognized by the observer. It can generate data and drive the optical modulation element 50.

光源駆動モジュール506は、光源ユニット24を駆動することを実行するための様々な既知のソフトウェア構成要素を含む。光源駆動モジュール506は、設定された表示パラメータに基づき、光源ユニット24を駆動し得る。 The light source drive module 506 includes various known software components for performing driving of the light source unit 24. The light source drive module 506 can drive the light source unit 24 based on the set display parameters.

アクチュエータ駆動モジュール508は、第1アクチュエータ28及び/又は第2アクチュエータ29を駆動することを実行するための様々な既知のソフトウェア構成要素を含むアクチュエータ駆動モジュール508は、設定された表示パラメータに基づき、第1アクチュエータ28及び第2アクチュエータ29を駆動し得る。 The actuator drive module 508 contains various known software components for performing driving of the first actuator 28 and / or the second actuator 29. The actuator drive module 508 is based on set display parameters. 1 Actuator 28 and 2nd actuator 29 may be driven.

目位置検出モジュール510は、観察者の目位置700を検出する。目位置検出モジュール510は、観察者の目位置700を示す座標(X,Y軸方向の位置であり、目位置700を示す信号の一例である。)観察者の目の高さを示す座標(Y軸方向の位置であり、目位置700を示す信号の一例である。)を検出すること、観察者の目の高さ及び奥行方向の位置を示す座標(Y及びZ軸方向の位置であり、目位置700を示す信号の一例である。)を検出すること、及び/又は観察者の目位置700を示す座標(X,Y,Z軸方向の位置であり、目位置700を示す信号の一例である。)を検出すること、に関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。 The eye position detection module 510 detects the observer's eye position 700. The eye position detection module 510 is a coordinate indicating the eye position 700 of the observer (a position in the X and Y axis directions, which is an example of a signal indicating the eye position 700) and a coordinate indicating the height of the observer's eyes (a position indicating the eye position 700). It is a position in the Y-axis direction, which is an example of a signal indicating the eye position 700), and coordinates (positions in the Y and Z-axis directions) indicating the height and depth of the observer's eyes. , An example of a signal indicating the eye position 700), and / or coordinates indicating the observer's eye position 700 (positions in the X, Y, Z axis directions, and of the signal indicating the eye position 700). An example.) Includes various software components for performing various actions related to detecting).

なお、第1消失点VP1、及び第2消失点VP2の位置は、目位置検出部409で検出される観察者の目位置700、又はIMU415で検出される自車両1の姿勢によって、調整されてもよい。例えば、表示制御装置30(表示パラメータ設定モジュール502)は、自車両1の姿勢(ピッチング角(X方向を軸とする角度))の変化に応じて、第1消失点VP1、及び第2消失点VP2の位置を調整し得る。表示制御装置30(表示パラメータ設定モジュール502)は、自車両1の前方が下がるようなピッチング角である場合、観察者から見て虚像表示領域VSに対する第1消失点VP1、及び第2消失点VP2の相対位置が上側となるように調整し、一方、自車両1の前方が上がるようなピッチング角である場合、観察者から見て虚像表示領域VSに対する第1消失点VP1、及び第2消失点VP2の相対位置が下側となるように調整し得る。 The positions of the first vanishing point VP1 and the second vanishing point VP2 are adjusted by the posture of the observer's eye position 700 detected by the eye position detection unit 409 or the own vehicle 1 detected by the IMU 415. May be good. For example, the display control device 30 (display parameter setting module 502) has a first vanishing point VP1 and a second vanishing point according to a change in the posture (pitching angle (angle about the X direction)) of the own vehicle 1. The position of VP2 can be adjusted. The display control device 30 (display parameter setting module 502) has a first vanishing point VP1 and a second vanishing point VP2 with respect to the virtual image display area VS as seen from the observer when the pitching angle is such that the front of the own vehicle 1 is lowered. On the other hand, when the pitching angle is such that the front of the own vehicle 1 rises, the first vanishing point VP1 and the second vanishing point with respect to the virtual image display area VS from the observer's point of view are adjusted. It can be adjusted so that the relative position of VP2 is on the lower side.

上述の処理プロセスの動作は、汎用プロセッサ又は特定用途向けチップなどの情報処理装置の1つ以上の機能モジュールを実行させることにより実施することができる。これらのモジュール、これらのモジュールの組み合わせ、及び/又はそれらの機能を代替えし得る公知のハードウェアとの組み合わせは全て、本発明の保護の範囲内に含まれる。 The operation of the above-mentioned processing process can be carried out by executing one or more functional modules of an information processing apparatus such as a general-purpose processor or a chip for a specific application. All of these modules, combinations of these modules, and / or combinations with known hardware capable of substituting their functions are within the scope of the protection of the present invention.

車両用虚像表示システム10の機能ブロックは、任意選択的に、説明される様々な実施形態の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実行される。図8で説明する機能ブロックが、説明される実施形態の原理を実施するために、任意選択的に、組み合わされ、又は1つの機能ブロックを2以上のサブブロックに分離されてもいいことは、当業者に理解されるだろう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割を、任意選択的に支持する。 The functional blocks of the vehicle virtual image display system 10 are optionally performed by hardware, software, or a combination of hardware and software to implement the principles of the various embodiments described. The functional blocks described in FIG. 8 may be optionally combined or one functional block separated into two or more subblocks in order to implement the principles of the embodiments described. It will be understood by those skilled in the art. Accordingly, the description herein optionally supports any possible combination or division of functional blocks described herein.

1 :自車両
2 :被投影部(フロントウインドシールド)
5 :ダッシュボード
6 :走行レーン(路面)
7 :境界線
8 :境界線
10 :車両用虚像表示システム
20 :HUD装置(ヘッドアップディスプレイ装置)
21 :光出射窓
22 :筐体
24 :光源ユニット
28 :第1アクチュエータ
29 :第2アクチュエータ
30 :表示制御装置
31 :I/Oインタフェース
33 :プロセッサ
35 :画像処理回路
37 :メモリ
40 :表示器
50 :光変調素子
51 :表示面
60 :光源ユニット
80 :リレー光学系
81 :第1ミラー
82 :第2ミラー
86 :アクチュエータ
87 :アクチュエータ
90 :虚像光学系
100 :虚像表示領域
200 :アイボックス
200A :境界
205 :中心
401 :車両ECU
403 :道路情報データベース
405 :自車位置検出部
407 :操作検出部
409 :目位置検出部(視線方向検出部)
411 :車外センサ
413 :明るさ検出部
417 :携帯情報端末
419 :外部通信機器
502 :表示パラメータ設定モジュール
504 :グラフィックモジュール
506 :光源駆動モジュール
508 :アクチュエータ駆動モジュール
510 :目位置検出モジュール
700 :目位置(観視者)
700L :左目(目位置)
700R :右目(目位置)
AX1 :第1の回転軸
FU :仮想オブジェクト
FU10 :仮想オブジェクト
K :表示光
Kp :光軸
PT :ターゲット位置
V :パースペクティブ虚像
V10 :パースペクティブ虚像
V1A :左方パースペクティブ線
V20 :パースペクティブ虚像
V1B :右方パースペクティブ線
V30 :パースペクティブ虚像
V31 :第1のパースペクティブ虚像
V32 :第2のパースペクティブ虚像
VP0 :実景消失点
VP0' :消失点
VP1 :第1消失点
VP2 :第2消失点
VS :虚像表示領域
VS1 :上端
VS2 :下端
θd :縦配置角
θt :チルト角

1: Own vehicle 2: Projected part (front windshield)
5: Dashboard 6: Driving lane (road surface)
7: Boundary line 8: Boundary line 10: Virtual image display system for vehicles 20: HUD device (head-up display device)
21: Light emission window 22: Housing 24: Light source unit 28: First actuator 29: Second actuator 30: Display control device 31: I / O interface 33: Processor 35: Image processing circuit 37: Memory 40: Display 50 : Optical modulation element 51: Display surface 60: Light source unit 80: Relay optical system 81: First mirror 82: Second mirror 86: Actuator 87: Actuator 90: Virtual image optical system 100: Virtual image display area 200: Eyebox 200A: Boundary 205: Center 401: Vehicle ECU
403: Road information database 405: Own vehicle position detection unit 407: Operation detection unit 409: Eye position detection unit (line-of-sight direction detection unit)
411: External sensor 413: Brightness detection unit 417: Mobile information terminal 419: External communication device 502: Display parameter setting module 504: Graphic module 506: Light source drive module 508: Actuator drive module 510: Eye position detection module 700: Eye position (Viewer)
700L: Left eye (eye position)
700R: Right eye (eye position)
AX1: First rotation axis FU: Virtual object FU10: Virtual object K: Display light Kp: Optical axis PT: Target position V: Perspective virtual image V10: Perspective virtual image V1A: Left perspective line V20: Perspective virtual image V1B: Right perspective Line V30: Perspective virtual image V31: First perspective virtual image V32: Second perspective virtual image VP0: Real scene vanishing point VP0': Vanishing point VP1: First vanishing point VP2: Second vanishing point VS: Virtual image display area VS1: Upper end VS2 : Lower end θd: Vertical arrangement angle θt: Tilt angle

Claims (10)

画像を被投影部材に投影することで、観察者に前記画像の虚像を前景に重ねて視認させるヘッドアップディスプレイ装置における表示制御を実行する表示制御装置(30)であって、
1つ又は複数のプロセッサ(33)と、
メモリ(37)と、
前記メモリ(37)に格納され、前記1つ又は複数のプロセッサ(33)によって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、を備え、
前記プロセッサ(33)は、
前記観察者から見て前記前景の消失点(VP0)より下方に配置される第1消失点(VP1)を有する第1の表示態様のパースペクティブ虚像として表示する第1の表示処理と、
前記観察者から見て前記第1消失点(VP1)より上方に配置される第2の消失点(VP2)を有する第2の表示態様のパースペクティブ虚像として表示する第2の表示処理と、を実行する、
表示制御装置(30)。
A display control device (30) that executes display control in a head-up display device that allows an observer to visually recognize a virtual image of the image superimposed on the foreground by projecting an image onto a projected member.
With one or more processors (33),
Memory (37) and
It comprises one or more computer programs stored in the memory (37) and configured to be executed by the one or more processors (33).
The processor (33)
The first display process of displaying as a perspective virtual image of the first display mode having a first vanishing point (VP1) arranged below the vanishing point (VP0) of the foreground when viewed from the observer.
A second display process of displaying as a perspective virtual image of the second display mode having a second vanishing point (VP2) arranged above the first vanishing point (VP1) when viewed from the observer is executed. do,
Display control device (30).
前記第2の表示処理において、
前記第2の消失点(VP2)は、前記前景の消失点(VP0)より下方に配置される、
請求項1に記載の表示制御装置(30)。
In the second display process,
The second vanishing point (VP2) is located below the vanishing point (VP0) in the foreground.
The display control device (30) according to claim 1.
前記プロセッサ(33)は、
前記パースペクティブ虚像が静止画であれば、前記第1の表示処理を実行し、
前記パースペクティブ虚像が動画であれば、前記第2の表示処理を実行する、
請求項1に記載の表示制御装置(30)。
The processor (33)
If the perspective virtual image is a still image, the first display process is executed.
If the perspective virtual image is a moving image, the second display process is executed.
The display control device (30) according to claim 1.
前記プロセッサ(33)は、
前記パースペクティブ虚像が、観察者から見て、遠近方向に伸縮しない動画、又は遠近方向に移動しない動画であれば、前記第1の表示処理を実行し、
前記パースペクティブ虚像が、観察者から見て、遠近方向に伸縮しているように知覚される動画、又は遠近方向に移動しているように知覚される動画であれば、前記第2の表示処理を実行する、
請求項1に記載の表示制御装置(30)。
The processor (33)
If the perspective virtual image is a moving image that does not expand or contract in the perspective direction or a moving image that does not move in the perspective direction when viewed from the observer, the first display process is executed.
If the perspective virtual image is a moving image that is perceived as expanding or contracting in the perspective direction or a moving image that is perceived as moving in the perspective direction from the observer's point of view, the second display process is performed. Run,
The display control device (30) according to claim 1.
前記プロセッサ(33)は、
周囲が暗い場合、前記第1の表示処理を実行し、
周囲が明るい場合、前記第2の表示処理を実行する、
請求項1に記載の表示制御装置(30)。
The processor (33)
If the surroundings are dark, the first display process is executed.
When the surroundings are bright, the second display process is executed.
The display control device (30) according to claim 1.
前記プロセッサ(33)は、
前記パースペクティブ虚像の移動速度又は変形速度が遅い場合、前記第1の表示処理を実行し、
前記パースペクティブ虚像の移動速度又は変形速度が速い場合、前記第2の表示処理を実行する、
請求項1に記載の表示制御装置(30)。
The processor (33)
If the moving speed or deformation speed of the perspective virtual image is slow, the first display process is executed.
When the moving speed or the deformation speed of the perspective virtual image is high, the second display process is executed.
The display control device (30) according to claim 1.
前記プロセッサ(33)は、
前記パースペクティブ虚像の上下方向の長さが、所定の閾値より短い場合、前記第1の表示処理を実行し、
前記パースペクティブ虚像の上下方向の長さが、前記所定の閾値より長い場合、前記第2の表示処理を実行する、
請求項1に記載の表示制御装置(30)。
The processor (33)
When the vertical length of the perspective virtual image is shorter than a predetermined threshold value, the first display process is executed.
When the vertical length of the perspective virtual image is longer than the predetermined threshold value, the second display process is executed.
The display control device (30) according to claim 1.
前記プロセッサ(33)は、
前記パースペクティブを表示し始めてから表示し終わるまでの期間が、所定の閾値より短い場合、前記第1の表示処理を実行し、
前記パースペクティブを表示し始めてから表示し終わるまでの期間が、前記所定の閾値より長い場合、前記第2の表示処理を実行する、
請求項1に記載の表示制御装置(30)。
The processor (33)
When the period from the start of displaying the perspective to the end of displaying the perspective is shorter than a predetermined threshold value, the first display process is executed.
When the period from the start of displaying the perspective to the end of displaying the perspective is longer than the predetermined threshold value, the second display process is executed.
The display control device (30) according to claim 1.
請求項1乃至8のいずれかに記載の表示制御装置(30)と、
表示光を出射する光変調素子(50)と、
前記光変調素子(50)からの前記表示光を被投影部にむけるリレー光学系(80)と、を備える、ヘッドアップディスプレイ装置(20)。
The display control device (30) according to any one of claims 1 to 8.
A light modulation element (50) that emits display light and
A head-up display device (20) comprising a relay optical system (80) that directs the display light from the light modulation element (50) to a projected portion.
画像の表示制御方法であって、
観察者から見て前景の消失点(VP0)より下方に配置される第1消失点(VP1)を有する第1の表示態様のパースペクティブ虚像として表示する第1の表示処理と、
前記観察者から見て前記第1消失点(VP1)より上方に配置される第2の消失点(VP2)を有する第2の表示態様のパースペクティブ虚像として表示する第2の表示処理と、を実行する、
表示制御方法。

It is an image display control method.
The first display process of displaying as a perspective virtual image of the first display mode having a first vanishing point (VP1) arranged below the vanishing point (VP0) of the foreground when viewed from the observer.
A second display process of displaying as a perspective virtual image of the second display mode having a second vanishing point (VP2) arranged above the first vanishing point (VP1) when viewed from the observer is executed. do,
Display control method.

JP2020187825A 2020-11-11 2020-11-11 Display controller, head-up display device, and display control method Pending JP2022077138A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020187825A JP2022077138A (en) 2020-11-11 2020-11-11 Display controller, head-up display device, and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020187825A JP2022077138A (en) 2020-11-11 2020-11-11 Display controller, head-up display device, and display control method

Publications (1)

Publication Number Publication Date
JP2022077138A true JP2022077138A (en) 2022-05-23

Family

ID=81654230

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020187825A Pending JP2022077138A (en) 2020-11-11 2020-11-11 Display controller, head-up display device, and display control method

Country Status (1)

Country Link
JP (1) JP2022077138A (en)

Similar Documents

Publication Publication Date Title
EP3888965B1 (en) Head-up display, vehicle display system, and vehicle display method
JP2020032866A (en) Vehicular virtual reality providing device, method and computer program
JP2016109645A (en) Information providing device, information providing method, and control program for providing information
JP7255608B2 (en) DISPLAY CONTROLLER, METHOD, AND COMPUTER PROGRAM
JP2019147546A (en) Information providing device, information providing method, and control program for providing information
JP7459883B2 (en) Display control device, head-up display device, and method
JP2023077857A (en) Head up display device
WO2022230995A1 (en) Display control device, head-up display device, and display control method
WO2021200914A1 (en) Display control device, head-up display device, and method
WO2023048213A1 (en) Display control device, head-up display device, and display control method
JP2020117105A (en) Display control device, method and computer program
WO2020158601A1 (en) Display control device, method, and computer program
JP2022077138A (en) Display controller, head-up display device, and display control method
JP2022072954A (en) Display control device, head-up display device, and display control method
JP2020121607A (en) Display control device, method and computer program
WO2023003045A1 (en) Display control device, head-up display device, and display control method
JP2022113292A (en) Display control device, head-up display device, and display control method
JP2021056358A (en) Head-up display device
JP7434894B2 (en) Vehicle display device
WO2021200913A1 (en) Display control device, image display device, and method
JP2020121704A (en) Display control device, head-up display device, method and computer program
WO2023210682A1 (en) Display control device, head-up display device, and display control method
JP2022190724A (en) Display control device, head-up display device and display control method
JP2021160409A (en) Display control device, image display device, and method
JP2022057051A (en) Display controller and virtual display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230915