JP2021056358A - Head-up display device - Google Patents

Head-up display device Download PDF

Info

Publication number
JP2021056358A
JP2021056358A JP2019178778A JP2019178778A JP2021056358A JP 2021056358 A JP2021056358 A JP 2021056358A JP 2019178778 A JP2019178778 A JP 2019178778A JP 2019178778 A JP2019178778 A JP 2019178778A JP 2021056358 A JP2021056358 A JP 2021056358A
Authority
JP
Japan
Prior art keywords
image
eye
light source
light
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019178778A
Other languages
Japanese (ja)
Inventor
毅 笠原
Takeshi Kasahara
毅 笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2019178778A priority Critical patent/JP2021056358A/en
Publication of JP2021056358A publication Critical patent/JP2021056358A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a head-up display device for displaying a parallax type stereoscopic image suppressed in crosstalk.SOLUTION: A display control part includes the steps of: acquiring a position of a left eye 4L and a position of a right eye 4R of a visualizer; alternately increasing the emission intensity of a left eye light source in which the image light is condensed in a left viewing area where the left eye is arranged and a right eye light source in which the image light is condensed in a right viewing area where the right eye is arranged; increasing the emission intensity of the left eye light source when a transmission display panel displays a left eye image; and increasing the emission intensity of the right eye light source when the transmission display panel displays a right eye image.SELECTED DRAWING: Figure 6A

Description

本開示は、車両で使用され、両眼視差による立体画像を知覚させるヘッドアップディスプレイ装置に関する。 The present disclosure relates to a head-up display device used in a vehicle to perceive a stereoscopic image by binocular parallax.

複数のスリットを有する視差バリアやレンチキュラレンズを用いて、左右の視差画像を光学的に分離し、視認者に左右の目にそれぞれ対応する視差画像を視認させることで立体表示を可能とする裸眼式立体表示装置が知られている。 A parallax barrier with multiple slits and a lenticular lens are used to optically separate the left and right parallax images, allowing the viewer to see the corresponding parallax images for the left and right eyes, enabling stereoscopic display. A stereoscopic display device is known.

特開2014−50062号公報Japanese Unexamined Patent Publication No. 2014-50062

しかしながら、従来の立体表示装置は、レンチキュラレンズに光を照射する光源によっては、クロストーク等が生じる場合があった。 However, in the conventional stereoscopic display device, crosstalk or the like may occur depending on the light source that irradiates the lenticular lens with light.

本明細書に開示される特定の実施形態の要約を以下に示す。これらの態様が、これらの特定の実施形態の概要を読者に提供するためだけに提示され、この開示の範囲を限定するものではないことを理解されたい。実際に、本開示は、以下に記載されない種々の態様を包含し得る。 A summary of the particular embodiments disclosed herein is presented below. It should be understood that these aspects are presented solely to provide the reader with an overview of these particular embodiments and do not limit the scope of this disclosure. In fact, the present disclosure may include various aspects not described below.

本開示の概要は、クロストークを抑制した両眼視差による立体画像を視認させるヘッドアップディスプレイ装置を提供することに関する。 The outline of the present disclosure relates to providing a head-up display device for visually recognizing a stereoscopic image by binocular parallax with suppressed crosstalk.

したがって、本明細書に記載される実施形態のヘッドアップディスプレイ装置は、複数の光源が配列された光源群と、光源群からの照明光を空間光変調して、左目用画像、及び右目用画像の画像光を出射する透過表示パネルと、透過表示パネルからの画像光を、光源群の光源の位置に応じてシフトされた視域にそれぞれ集光させる集光光学系と、視認者の左目の位置、及び右目の位置を取得、又は推定し、左目が配置される左目視域に画像光が集光される左目用光源と、右目が配置される右目視域に画像光が集光される右目用光源と、を交互に発光強度を増加させ、透過表示パネルが左目用画像を表示する際、左目用光源の発光強度を増加させ、透過表示パネルが右目用画像を表示する際、右目用光源の発光強度を増加させる、表示制御部と、から構成される。 Therefore, in the head-up display device of the embodiment described in the present specification, the light source group in which a plurality of light sources are arranged and the illumination light from the light source group are spatially light-modulated to form an image for the left eye and an image for the right eye. A transmissive display panel that emits the image light of the above, a condensing optical system that condenses the image light from the transmissive display panel into a viewing area shifted according to the position of the light source of the light source group, and the left eye of the viewer. The position and the position of the right eye are acquired or estimated, and the image light is focused on the left visual area where the left eye is located and the image light is focused on the right visual area where the right eye is located. When the light emission intensity of the right eye light source is increased alternately and the transmission display panel displays the image for the left eye, the emission intensity of the light source for the left eye is increased, and when the transmission display panel displays the image for the right eye, it is for the right eye. It is composed of a display control unit that increases the emission intensity of the light source.

いくつかの実施形態に係る、ヘッドアップディスプレイ装置の車両への適用例を示す図であり、立体画像が知覚される仮想的な位置を示す図である。It is a figure which shows the application example of the head-up display device to the vehicle which concerns on some Embodiments, and is the figure which shows the virtual position where a stereoscopic image is perceived. いくつかの実施形態に係る、ヘッドアップディスプレイ装置が表示する画像の例を示す図である。It is a figure which shows the example of the image displayed by the head-up display device which concerns on some embodiments. いくつかの実施形態に係る、ヘッドアップディスプレイ装置が表示する画像の例を示す図である。It is a figure which shows the example of the image displayed by the head-up display device which concerns on some embodiments. いくつかの実施形態に係る、ヘッドアップディスプレイ装置の車両への適用例を示す図であり、立体画像が知覚される仮想的な位置を示す図である。It is a figure which shows the application example of the head-up display device to the vehicle which concerns on some Embodiments, and is the figure which shows the virtual position where a stereoscopic image is perceived. いくつかの実施形態に係る、ヘッドアップディスプレイ装置の構成を示す図である。It is a figure which shows the structure of the head-up display device which concerns on some embodiments. いくつかの実施形態に係る、光源群から視域までの第2方向から見た光路を示す図である。It is a figure which shows the optical path seen from the 2nd direction from a light source group to a visual area which concerns on some embodiments. いくつかの実施形態に係る、光源群から視域までの第2方向と直行する第1方向から見た光路を示す図である。It is a figure which shows the optical path seen from the 1st direction orthogonal to the 2nd direction from a light source group to a visual area, which concerns on some embodiments. 拡散異方性を有する拡散板の拡散角の違いを説明する図であり、左図が液晶パネルの長辺方向での拡散板による拡散角を示す図であり、右図が液晶パネルの短辺方向での拡散板による拡散角を示す図である。It is a figure explaining the difference in the diffusion angle of the diffusion plate which has diffusion anisotropy, the figure on the left shows the diffusion angle by a diffusion plate in the long side direction of a liquid crystal panel, and the figure on the right is a figure which shows the diffusion angle by a diffusion plate, and the figure on the right is a short side of a liquid crystal panel. It is a figure which shows the diffusion angle by the diffusion plate in a direction. いくつかの実施形態に係る、車両用表示システムのブロック図である。It is a block diagram of the display system for a vehicle which concerns on some embodiments. 図6Aに示す視認者の目の配置において、液晶パネルが表示する画像と、各光源の駆動状態との関係を示すタイミングチャートである。6 is a timing chart showing the relationship between the image displayed by the liquid crystal panel and the driving state of each light source in the arrangement of the eyes of the viewer shown in FIG. 6A. 図6Aに示す視認者の目の配置において、液晶パネルが表示する画像と、各光源の駆動状態との関係の変形例を示すタイミングチャートである。6 is a timing chart showing a modified example of the relationship between the image displayed by the liquid crystal panel and the driving state of each light source in the arrangement of the eyes of the viewer shown in FIG. 6A. 図6Aに示す視認者の目の配置において、液晶パネルが表示する画像と、各光源の駆動状態との関係の変形例を示すタイミングチャートである。6 is a timing chart showing a modified example of the relationship between the image displayed by the liquid crystal panel and the driving state of each light source in the arrangement of the eyes of the viewer shown in FIG. 6A. 図6Aに示す視認者の目の配置において、液晶パネルが表示する画像と、各光源の駆動状態との関係の変形例を示すタイミングチャートである。6 is a timing chart showing a modified example of the relationship between the image displayed by the liquid crystal panel and the driving state of each light source in the arrangement of the eyes of the viewer shown in FIG. 6A. いくつかの実施形態に係る、HUD装置が立体画像を表示する際の処理を示すフローチャートである。It is a flowchart which shows the process when the HUD apparatus displays a stereoscopic image which concerns on some Embodiments. いくつかの実施形態のヘッドアップディスプレイ装置における、左目用画像、及び/又は右目用画像が、複数の視域に表示される態様を示す図である。It is a figure which shows the mode in which the image for a left eye and / or the image for a right eye is displayed in a plurality of view areas in a head-up display device of some embodiments. いくつかの実施形態のヘッドアップディスプレイ装置における、左目用画像、及び/又は右目用画像が、複数の視域に表示される別の態様を示す図である。It is a figure which shows another aspect in which the image for a left eye and / or the image for a right eye is displayed in a plurality of view areas in some embodiments of a head-up display device. いくつかの実施形態のヘッドアップディスプレイ装置における、左目用画像、及び/又は右目用画像が、複数の視域に表示される別の態様を示す図である。It is a figure which shows another aspect in which the image for a left eye and / or the image for a right eye is displayed in a plurality of view areas in some embodiments of a head-up display device. いくつかの実施形態のヘッドアップディスプレイ装置における、左目用画像、及び/又は右目用画像が、複数の視域に表示される別の態様を示す図である。It is a figure which shows another aspect in which the image for a left eye and / or the image for a right eye is displayed in a plurality of view areas in some embodiments of a head-up display device.

以下、図1、図4では、知覚される立体画像の仮想的な位置の説明を提供する。図2,及び図3では、視認者が視認する立体画像の説明を提供する。図5及び図8では、例示的な車両用表示システム、及びヘッドアップディスプレイ装置の構成の説明を提供する。図6A、図6Bでは、光源群から視域までの光路の説明を提供する。図9A、図9B、図9C、図9D、図10、図11A、図11B、図11C、及び図11Dでは、本実施形態の表示制御部の処理の説明を提供する。なお、本発明は以下の実施形態(図面の内容も含む)によって限定されるものではない。下記の実施形態に変更(構成要素の削除も含む)を加えることができるのはもちろんである。また、以下の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略する。 Hereinafter, FIGS. 1 and 4 provide an explanation of a virtual position of a perceived stereoscopic image. 2 and 3 provide a description of a stereoscopic image visually recognized by a viewer. 5 and 8 provide a description of the configuration of an exemplary vehicle display system and head-up display device. 6A and 6B provide a description of the optical path from the light source group to the view area. 9A, 9B, 9C, 9D, 10, 11A, 11B, 11C, and 11D provide a description of the processing of the display control unit of the present embodiment. The present invention is not limited to the following embodiments (including the contents of the drawings). Of course, changes (including deletion of components) can be made to the following embodiments. Further, in the following description, in order to facilitate understanding of the present invention, description of known technical matters will be omitted as appropriate.

図1を参照する。車両用表示システム10は、HUD装置20と、HUD装置20を制御する表示制御装置30と、視点検出カメラ40(目位置検出部411)と、で構成される。なお、本実施形態の説明では、車両1の運転席に着座する視認者4(運転者)が車両1の前方を向いた際の左右方向をX軸(左方向がX軸正方向)、上下方向をY軸(上方向がY軸正方向)、前後方向をZ軸(前方向がZ軸正方向)とする。 See FIG. The vehicle display system 10 includes a HUD device 20, a display control device 30 that controls the HUD device 20, and a viewpoint detection camera 40 (eye position detection unit 411). In the description of the present embodiment, the left-right direction when the viewer 4 (driver) seated in the driver's seat of the vehicle 1 faces the front of the vehicle 1 is the X-axis (the left direction is the X-axis positive direction), and the top and bottom. The direction is the Y-axis (the upward direction is the Y-axis positive direction), and the front-rear direction is the Z-axis (the front direction is the Z-axis positive direction).

車両用表示システム10におけるHUD装置20は、車両1のダッシュボード5内に設けられたヘッドアップディスプレイ(HUD:Head−Up Display)装置である。HUD装置20は、画像光50をフロントウインドシールド2(被投影部の一例である)に向けて出射し、フロントウインドシールド2で反射された画像光50により後述する所定領域の視域Eを生成する。視認者4は、目位置を視域Eに配置することで、HUD装置20が表示する画像を立体画像として視認することができる。なお、ここでは、視域Eを、画像を立体画像として視認できる領域と定義するが、これに限定されるものではなく、HUD装置20が表示する画像の全体を視認することができる領域、視認者が視認するHUD装置20の表示する画像の歪みが所定閾値内に収まる領域など、HUD装置20が表示する画像が所望の状態で視認される領域である。HUD装置20は、フロントウインドシールド2(被投影部の一例である)よりも前方側(Z軸正方向)で立体画像(虚像)を視認させる。 The HUD device 20 in the vehicle display system 10 is a head-up display (HUD: Head-Up Display) device provided in the dashboard 5 of the vehicle 1. The HUD device 20 emits the image light 50 toward the front windshield 2 (an example of the projected portion), and the image light 50 reflected by the front windshield 2 generates a viewing area E in a predetermined region, which will be described later. To do. By arranging the eye position in the viewing area E, the viewer 4 can visually recognize the image displayed by the HUD device 20 as a stereoscopic image. Here, the viewing area E is defined as a region where the image can be visually recognized as a stereoscopic image, but the region is not limited to this, and the entire image displayed by the HUD device 20 can be visually recognized. This is an area where the image displayed by the HUD device 20 is visually recognized in a desired state, such as an area where the distortion of the image displayed by the HUD device 20 visually recognized by a person is within a predetermined threshold value. The HUD device 20 visually recognizes a stereoscopic image (virtual image) on the front side (Z-axis positive direction) of the front windshield 2 (an example of the projected portion).

虚像表示領域100は、平面、曲面、又は一部曲面の領域であり、結像面とも呼ばれる。虚像表示領域100は、HUD装置20の後述する3D表示器21の表示面(後述する液晶パネル22の出射面)の虚像が結像される位置であり、すなわち、虚像表示領域100は、HUD装置20の後述する表示面に対応し(言い換えると、虚像表示領域100は、後述する3D表示器21の表示面と、共役関係となる。)、虚像表示領域100で視認される虚像は、HUD装置20の後述する表示面に表示される画像に対応している、と言える。虚像表示領域100自体は、実際に視認者4に視認されない、又は視認されにくい程度に視認性が低いことが好ましい。3D表示器21は、左右の目に対応した視差をもつ視差画像を表示することで表示面を基準に奥行き感のある立体表示を実現できる。すなわち、HUD装置20は、視域Eに配置された前記アイポイント(左右の目)に対応した視差画像を表示することで、虚像表示領域100を基準に立体画像200を視認者4に知覚させることができる。これにより、視認者4は、フロントウインドシールド2を介して視認される現実空間である前景300に重なったZ軸方向に奥行き感のある立体画像200を知覚する。 The virtual image display area 100 is a plane, a curved surface, or a partially curved surface region, and is also called an image plane. The virtual image display area 100 is a position where a virtual image of the display surface of the 3D display 21 described later (the exit surface of the liquid crystal panel 22 described later) of the HUD device 20 is formed. That is, the virtual image display area 100 is the HUD device. Corresponding to the display surface described later of 20 (in other words, the virtual image display area 100 has a conjugate relationship with the display surface of the 3D display 21 described later), the virtual image visually recognized in the virtual image display area 100 is a HUD device. It can be said that it corresponds to the image displayed on the display surface described later in 20. It is preferable that the virtual image display area 100 itself has low visibility to the extent that it is not actually visible to the viewer 4 or is difficult to see. The 3D display 21 can realize a stereoscopic display with a sense of depth with respect to the display surface by displaying a parallax image having a parallax corresponding to the left and right eyes. That is, the HUD device 20 causes the viewer 4 to perceive the stereoscopic image 200 based on the virtual image display area 100 by displaying the parallax image corresponding to the eye points (left and right eyes) arranged in the view area E. be able to. As a result, the viewer 4 perceives the stereoscopic image 200 having a sense of depth in the Z-axis direction that overlaps the foreground 300, which is the real space that is visually recognized through the front windshield 2.

本実施形態の車両用表示システム10(HUD装置20)において、虚像表示領域100は、左右方向(X軸方向)を軸とした路面310(前景300における実オブジェクトの一例)と垂直な角度から傾いて配置される。言い換えると、左右方向(X軸方向)を軸とした路面310と虚像表示領域100との間に第1チルト角θt1(0≦θt1<90[degree])を設ける。第1チルト角θt1は、例えば、65[degree]であるが、これに限定されない。 In the vehicle display system 10 (HUD device 20) of the present embodiment, the virtual image display area 100 is tilted from an angle perpendicular to the road surface 310 (an example of a real object in the foreground 300) about the left-right direction (X-axis direction). Is placed. In other words, a first tilt angle θt1 (0 ≦ θt1 <90 [degree]) is provided between the road surface 310 about the left-right direction (X-axis direction) and the virtual image display area 100. The first tilt angle θt1 is, for example, 65 [degree], but is not limited thereto.

また、本実施形態の車両用表示システム10(HUD装置20)は、路面310に沿うように視認者4に知覚させる立体画像200を表示してもよい。具体的には、立体画像200は、視認者4から見て虚像表示領域100の上領域101に重なる位置に、虚像表示領域100の上領域101を基準に視認者から離れた位置にあるように知覚される遠方立体画像201と、視認者4から見て上領域101より下側(Y軸負方向)の下領域102に重なる位置に、虚像表示領域100よりも視認者に近い位置にあるように知覚される近傍立体画像202と、を含む一体的、又は断続的な立体画像である。 Further, the vehicle display system 10 (HUD device 20) of the present embodiment may display a stereoscopic image 200 to be perceived by the viewer 4 along the road surface 310. Specifically, the stereoscopic image 200 is located at a position overlapping the upper area 101 of the virtual image display area 100 when viewed from the viewer 4, and at a position away from the viewer with reference to the upper area 101 of the virtual image display area 100. The perceived distant stereoscopic image 201 is located at a position overlapping the lower region 102 below the upper region 101 (in the negative direction of the Y axis) when viewed from the viewer 4, and is closer to the viewer than the virtual image display region 100. It is an integral or intermittent stereo image including a near stereo image 202 perceived by the user.

本実施形態の車両用表示システム10(HUD装置20)において、立体画像200は、左右方向(X軸方向)を軸とした路面310(前景300の一例)との間に、第1チルト角θt1より小さい第2チルト角θt2(0≦θt2<θt1<90[degree])を設ける。第2チルト角θt2は、例えば、7[degree]であるが、これに限定されない。 In the vehicle display system 10 (HUD device 20) of the present embodiment, the stereoscopic image 200 has a first tilt angle θt1 between the stereoscopic image 200 and the road surface 310 (an example of the foreground 300) about the left-right direction (X-axis direction). A smaller second tilt angle θt2 (0 ≦ θt2 <θt1 <90 [image]) is provided. The second tilt angle θt2 is, for example, 7 [degree], but is not limited to this.

図2、図3は、HUD装置20が表示する立体画像200の表示例を示す図である。図2の立体画像200は、断続的な立体画像であり、案内経路を示す6つ(複数)の矢印状の画像(経路画像とも呼ぶ。)からなり、車両1の前景300における路面310に重なる位置に、案内経路のうち車両1に近い方から符号211、212、213、214、215、216の順に配置される。案内経路は、直進した後に交差点で右折を示しており、すなわち、交差点までの案内経路を示す立体画像211、212、213は、視認者4から見て車両1の走行レーンの路面310に重なり、前方の交差点に向かうように直進方向(Z軸正方向)を指示し、交差点から先の案内経路を示す立体画像214、215、216は、視認者4から見て右折方向の分岐路の路面310から起き上がっているように配置され、右方向(X軸負方向)を指示する。立体画像211〜216は、路面310に沿うように視認されるように配置されており、すなわち、後述する視差画像生成モジュール616は、立体画像211〜216が示す仮想オブジェクトを、路面310とのなす角度が7[degree]になる(換言すると、路面310に概ね平行になる)ように配置(角度)を設定する。 2 and 3 are views showing a display example of the stereoscopic image 200 displayed by the HUD device 20. The stereoscopic image 200 of FIG. 2 is an intermittent stereoscopic image, which is composed of six (plural) arrow-shaped images (also referred to as route images) showing a guide route, and overlaps the road surface 310 in the foreground 300 of the vehicle 1. At the positions, the reference numerals 211, 212, 213, 214, 215, and 216 are arranged in this order from the side of the guide path closest to the vehicle 1. The guide route indicates a right turn at the intersection after going straight, that is, the stereoscopic images 211, 212, and 213 showing the guide route to the intersection overlap the road surface 310 of the traveling lane of the vehicle 1 as seen from the viewer 4. The stereoscopic images 214, 215, and 216, which indicate the straight-ahead direction (Z-axis positive direction) toward the front intersection and show the guidance path ahead of the intersection, are the road surface 310 of the branch road in the right turn direction when viewed from the viewer 4. It is arranged so as to rise from, and indicates the right direction (X-axis negative direction). The stereoscopic images 211-216 are arranged so as to be visually recognized along the road surface 310, that is, the parallax image generation module 616 described later forms the virtual object indicated by the stereoscopic images 211-216 with the road surface 310. The arrangement (angle) is set so that the angle becomes 7 [image] (in other words, it is substantially parallel to the road surface 310).

図3の立体画像200は、一体的な立体画像であり、案内経路を示す1つ(単数)の矢印状の画像(経路画像とも呼ぶ。)からなり、車両1の前景300における路面310に重なる位置に、近傍から遠方に向かって延びた1つの経路画像が配置される。案内経路は、直進した後に交差点で右折を示しており、すなわち、交差点までの案内経路を示す立体画像217の一部は、視認者4から見て車両1の走行レーンの路面310に重なり、前方の交差点に向かうように直進方向(Z軸正方向)を指示し、交差点から先の案内経路を示す立体画像217の一部は、視認者4から見て右折方向の分岐路の路面310に沿っているように配置され、右方向(X軸負方向)を指示する。立体画像216は、路面310に沿うように視認されるように配置されており、すなわち、後述する視差画像生成モジュール616は、立体画像217が示す仮想オブジェクトを、路面310とのなす角度が7[degree]になる(換言すると、路面310と概ね平行になる)ように配置(角度)を設定する。 The stereoscopic image 200 of FIG. 3 is an integral stereoscopic image, which is composed of one (singular) arrow-shaped image (also referred to as a route image) showing a guide route, and overlaps the road surface 310 in the foreground 300 of the vehicle 1. At the position, one path image extending from the vicinity to the distance is arranged. The guidance route shows a right turn at an intersection after going straight, that is, a part of the stereoscopic image 217 showing the guidance route to the intersection overlaps the road surface 310 of the traveling lane of the vehicle 1 as seen from the viewer 4, and is ahead. A part of the stereoscopic image 217 that indicates the straight direction (Z-axis positive direction) toward the intersection and shows the guidance path beyond the intersection is along the road surface 310 of the branch road in the right turn direction when viewed from the viewer 4. It is arranged so as to indicate the right direction (X-axis negative direction). The stereoscopic image 216 is arranged so as to be visually recognized along the road surface 310, that is, the parallax image generation module 616 described later has an angle of 7 [] with the virtual object shown by the stereoscopic image 217 with the road surface 310. The arrangement (angle) is set so as to be [image] (in other words, substantially parallel to the road surface 310).

なお、立体画像200は、路面310に沿って配置されるものではなく、路面310に対して起き上がって知覚されるものであってもよい。図3の立体画像220は、路面310に対して起き上がって知覚されるものであり、車両1の速度「40km/h」を示す。図4は、図3の立体画像220が知覚される位置を模式的に示した図であり、図3の立体画像220は、左右方向(X軸方向)を軸とした路面310(前景300の一例)との間に、第2チルト角θt2より大きい第3チルト角θt3(0≦θt2<θ3≦90[degree])を有するように配置されてもよい。第3チルト角θt3は、例えば、90[degree]であるが、これに限定されない。すなわち、本実施形態の車両用表示システム10(HUD装置20)は、路面310に沿うように知覚する(Z軸方向に奥行きを感じる)立体画像211、212、213、214、215、216、及び217などであるパースペクティブ画像210と、路面310から起き上がっているように知覚する(Z軸方向に奥行きを感じにくい)非パースペクティブ画像220と、を表示し得る。 The stereoscopic image 200 is not arranged along the road surface 310, but may be one that rises up and is perceived with respect to the road surface 310. The stereoscopic image 220 of FIG. 3 is perceived by getting up with respect to the road surface 310, and shows the speed “40 km / h” of the vehicle 1. FIG. 4 is a diagram schematically showing the position where the stereoscopic image 220 of FIG. 3 is perceived, and the stereoscopic image 220 of FIG. 3 is a road surface 310 (foreground 300 of the foreground 300) centered in the left-right direction (X-axis direction). It may be arranged so as to have a third tilt angle θt3 (0 ≦ θt2 <θ3 ≦ 90 [image]) larger than the second tilt angle θt2. The third tilt angle θt3 is, for example, 90 [degree], but is not limited thereto. That is, the vehicle display system 10 (HUD device 20) of the present embodiment perceives along the road surface 310 (feels the depth in the Z-axis direction) stereoscopic images 211, 212, 213, 214, 215, 216, and It is possible to display a perspective image 210 such as 217 and a non-perspective image 220 that is perceived as rising from the road surface 310 (it is difficult to feel the depth in the Z-axis direction).

図5は、本実施形態のHUD装置20の構成を示す図である。HUD装置20は、画像を表示する表示面を有する3D表示器21と、リレー光学系25と、を含む。 FIG. 5 is a diagram showing the configuration of the HUD device 20 of the present embodiment. The HUD device 20 includes a 3D display 21 having a display surface for displaying an image, and a relay optical system 25.

図5の3D表示器21は、液晶パネル(表示面)22と、バックライトモジュール24と、から構成される。前記表示面は、前記表示面から、後述のリレー光学系25及び前記被投影部を介して視域E(視域Eの中央)へ向かう画像光50の光軸50pに対し垂直になる角度から傾いて配置され、これにより、虚像表示領域100を路面310に対して傾けて配置することができる。3D表示器21のさらなる説明は、後述する。なお、3D表示器21は、表示制御装置30により制御されるモータなどのアクチュエータ(不図示)が取り付けられ、表示面を移動、及び/又は回転可能であってもよい。 The 3D display 21 of FIG. 5 is composed of a liquid crystal panel (display surface) 22 and a backlight module 24. The display surface is from an angle perpendicular to the optical axis 50p of the image light 50 from the display surface toward the viewing area E (center of the viewing area E) via the relay optical system 25 described later and the projected portion. It is tilted so that the virtual image display area 100 can be tilted with respect to the road surface 310. Further description of the 3D display 21 will be described later. The 3D display 21 may be attached with an actuator (not shown) such as a motor controlled by the display control device 30, and may be movable and / or rotatable on the display surface.

リレー光学系25は、3D表示器21とフロントウインドシールド2(被投影部の一例。)との間の3D表示器21からの画像光50(3D表示器21から視域Eへ向かう光。)の光路上に配置され、3D表示器21からの画像光50をHUD装置20の外側のフロントウインドシールド2に投影する1つ又はそれ以上の光学部材で構成される。図5のリレー光学系25は、1つの凹状の第1ミラー26と、1つの平面の第2ミラー28と、を含む。 The relay optical system 25 is an image light 50 from the 3D display 21 between the 3D display 21 and the front windshield 2 (an example of the projected portion) (light from the 3D display 21 toward the view area E). It is composed of one or more optical members arranged on the optical path of the above and projecting the image light 50 from the 3D display 21 onto the front windshield 2 outside the HUD device 20. The relay optical system 25 of FIG. 5 includes one concave first mirror 26 and one flat second mirror 28.

第1ミラー26は、例えば、正の光学的パワーを有する自由曲面形状である。換言すると、第1ミラー26は、領域毎に光学的パワーが異なる曲面形状であってもよく、すなわち、画像光50が通る領域(光路)に応じて画像光50に付加される光学的パワーが異なる。具体的には、前記表示面の各領域から視域Eへ向かう第1画像光51、第2画像光52、第3画像光53(図5参照)とで、リレー光学系25によって付加される光学的パワーが異なってもよい。 The first mirror 26 has, for example, a free curved surface shape having positive optical power. In other words, the first mirror 26 may have a curved surface shape in which the optical power differs for each region, that is, the optical power applied to the image light 50 according to the region (optical path) through which the image light 50 passes. different. Specifically, the first image light 51, the second image light 52, and the third image light 53 (see FIG. 5) heading from each region of the display surface to the viewing area E are added by the relay optical system 25. The optical power may be different.

なお、第2ミラー28は、平面ではなく、光学的パワーを有する曲面であってもよい。すなわち、リレー光学系25は、複数のミラー(例えば、本実施形態の第1ミラー26、第2ミラー28。)を合成することで、画像光50が通る領域(光路)に応じて付加される光学的パワーを異ならせてもよい。 The second mirror 28 may be a curved surface having optical power instead of a flat surface. That is, the relay optical system 25 is added according to the region (optical path) through which the image light 50 passes by synthesizing a plurality of mirrors (for example, the first mirror 26 and the second mirror 28 of the present embodiment). The optical power may be different.

なお、本実施形態では、リレー光学系25は、2つのミラーを含んでいたが、これに限定されるものではなく、これらに追加又は代替で、1つ又はそれ以上の、レンズなどの屈折光学部材、ホログラムなどの回折光学部材、反射光学部材、又はこれらの組み合わせを含んでいてもよい。 In the present embodiment, the relay optical system 25 includes two mirrors, but the present invention is not limited to this, and one or more refractive optics such as a lens may be added or substituted to these. It may include a member, a diffractive optical member such as a hologram, a catoptric member, or a combination thereof.

また、本実施形態のリレー光学系25は、この曲面形状(光学的パワーの一例。)により、虚像表示領域100までの距離を設定する機能、及び前記表示面に表示された画像を拡大した虚像(立体画像200)を生成する機能、を有するが、これに加えて、フロントウインドシールド2の湾曲形状により生じ得る虚像の歪みを抑制する(補正する)機能、を有していてもよい。 Further, the relay optical system 25 of the present embodiment has a function of setting the distance to the virtual image display area 100 by the curved surface shape (an example of optical power), and a virtual image obtained by enlarging the image displayed on the display surface. It has a function of generating (stereoscopic image 200), but in addition to this, it may have a function of suppressing (correcting) distortion of a virtual image that may occur due to the curved shape of the front windshield 2.

また、リレー光学系25は、表示制御装置30により制御されるモータなどのアクチュエータ(不図示)が取り付けられ、移動、及び/又は回転可能であってもよい。 Further, the relay optical system 25 may be movable and / or rotatable to which an actuator (not shown) such as a motor controlled by the display control device 30 is attached.

液晶パネル22は、バックライトモジュール24から照明光を入射し、前記照明光を空間光変調した画像光50をリレー光学系25(第2ミラー28)へ向けて出射する。液晶パネル22は、視認者4から見た立体画像200の上下方向(Y軸方向)に対応する画素が配列される第1方向αに沿った短辺と、この第1方向αと直行する第2方向βに沿った長辺と、を有する矩形状である。視認者4は、液晶パネル22の透過光を、虚像光学系90を介して視認する。虚像光学系90は、図5で示すリレー光学系25とフロントウインドシールド2とを合わせたものである。また、集光光学系95は、図5で示すリレー光学系25と照明光学系70とを合わせたものである。図6Aは、液晶パネル22の短辺側(第2方向β)から見たときの光路を示し、図6Bは、液晶パネル22の長辺側(第1方向α)から見たときの光路を示している。 The liquid crystal panel 22 receives illumination light from the backlight module 24, and emits the image light 50 obtained by spatially light-modulating the illumination light toward the relay optical system 25 (second mirror 28). The liquid crystal panel 22 has a short side along the first direction α in which pixels corresponding to the vertical direction (Y-axis direction) of the stereoscopic image 200 viewed from the viewer 4 are arranged, and a first direction orthogonal to the first direction α. It is a rectangular shape having a long side along the two directions β. The viewer 4 visually recognizes the transmitted light of the liquid crystal panel 22 via the virtual image optical system 90. The virtual image optical system 90 is a combination of the relay optical system 25 shown in FIG. 5 and the front windshield 2. Further, the condensing optical system 95 is a combination of the relay optical system 25 and the illumination optical system 70 shown in FIG. FIG. 6A shows the optical path when viewed from the short side side (second direction β) of the liquid crystal panel 22, and FIG. 6B shows the optical path when viewed from the long side side (first direction α) of the liquid crystal panel 22. Shown.

図6Aを参照する。バックライトモジュール24は、光源群60と、照明光学系70と、によって構成される。 See FIG. 6A. The backlight module 24 includes a light source group 60 and an illumination optical system 70.

光源群60は、例えば、複数のチップ型のLEDであり、液晶パネル22へ照明光を出射する。光源群60は、例えば、4つの光源61、62、63、64で構成されており、第2方向βに沿って一列に配置される。光源群60は、表示制御装置30からの制御のもと、視認者4の目の位置に応じて、選択的に輝度が調整される。端的に言えば、視認者4の目がないと推定される位置に向かう照明光を出射する光源の出力強度を低下させる(消灯も含む。)ことで、視認者4の目がないと推定される位置に向かう画像光50の光強度を低下させる。これについては、後で説明する。 The light source group 60 is, for example, a plurality of chip-type LEDs, and emits illumination light to the liquid crystal panel 22. The light source group 60 is composed of, for example, four light sources 61, 62, 63, 64, and is arranged in a row along the second direction β. The brightness of the light source group 60 is selectively adjusted according to the position of the eyes of the viewer 4 under the control of the display control device 30. In short, it is estimated that the viewer 4 has no eyes by reducing the output intensity of the light source that emits the illumination light toward the position where the viewer 4 is estimated to have no eyes (including turning off the lights). The light intensity of the image light 50 toward the position is reduced. This will be described later.

照明光学系70は、光源群60の照明光の出射方向に配置された第1レンズ71と、第1レンズ71の出射方向に配置された第2レンズ73と、第2レンズ73の出射方向に配置された拡散板75と、によって構成される。 The illumination optical system 70 has a first lens 71 arranged in the emission direction of the illumination light of the light source group 60, a second lens 73 arranged in the emission direction of the first lens 71, and an emission direction of the second lens 73. It is composed of an arranged diffuser plate 75.

照明光学系70は、光源群60からの照明光を屈折させて、液晶パネル22を透過し、虚像光学系90を通過して、後述する視域Eに視差画像(左目用画像と右目用画像)を結像する。具体的には、図6Aに示すように、照明光学系70は、第1光源61からの照明光を屈折させて、液晶パネル22を透過し、虚像光学系90を通過して、視域E1に左目用画像を結像する。また、照明光学系70は、第3光源63からの照明光を屈折させて、液晶パネル22を透過し、虚像光学系90を通過して、視域E3に右目用画像を結像する。光源群60に含まれる光源の数を変更することで、光源からの照明光(液晶パネル22からの画像光)が結像する視域Eの数を変更することができる。 The illumination optical system 70 refracts the illumination light from the light source group 60, passes through the liquid crystal panel 22, passes through the virtual image optical system 90, and has a parallax image (left eye image and right eye image) in the visual range E described later. ) Is imaged. Specifically, as shown in FIG. 6A, the illumination optical system 70 refracts the illumination light from the first light source 61, passes through the liquid crystal panel 22, passes through the virtual image optical system 90, and has a viewing range E1. An image for the left eye is formed on the image. Further, the illumination optical system 70 refracts the illumination light from the third light source 63, passes through the liquid crystal panel 22, passes through the virtual image optical system 90, and forms an image for the right eye in the visual range E3. By changing the number of light sources included in the light source group 60, the number of viewing areas E in which the illumination light from the light source (image light from the liquid crystal panel 22) is imaged can be changed.

第1レンズ71は、入射面(光源群60側)及び/又は出射面(第2レンズ73側)の少なくともいずれかが、正の光学的パワーを有するように凸形状を有している。なお、本実施形態の第1レンズ71は、入射面のみ第1方向αを軸とした曲率と第2方向βを軸とした曲率とが異なる凸形状のトロイダル形状であるが、これに限定されるものではなく、入射面及び/又は出射面が、トロイダル形状、シリンドリカル形状、球面形状、自由曲面形状、又はこれらの組み合わせであってもよい。 The first lens 71 has a convex shape so that at least one of the incident surface (light source group 60 side) and / or the exit surface (second lens 73 side) has a positive optical power. The first lens 71 of the present embodiment has a convex toroidal shape in which the curvature centered on the first direction α and the curvature centered on the second direction β are different only on the incident surface, but the present invention is limited to this. The entrance surface and / or the exit surface may be a toroidal shape, a cylindrical shape, a spherical shape, a free curved surface shape, or a combination thereof.

第1レンズ71は、複数の光源群60からの照明光のそれぞれが拡散板75の位置で重畳するように、各光源群60からの出射光を偏向する。すなわち、第1レンズ71は、第1方向αから見たとき、複数の光源群60のそれぞれが液晶パネル22の全面(画像を表示し得る全領域)を照明するように、その屈折力が設定されている。例えば、図6Aに示すように、第1光源61からの照明光と、第3光源63からの照明光とは、双方とも、液晶パネル22全体の領域を照明する。他の光源62、64も同様である。よって、複数の視域E1、402、403、404からは、液晶パネル22全体の画像が視認可能であり、各視域E1、402、403、404内で視認できる立体画像200の輝度が均一になる。 The first lens 71 deflects the emitted light from each light source group 60 so that the illumination lights from the plurality of light source groups 60 are superimposed at the position of the diffuser plate 75. That is, the refractive power of the first lens 71 is set so that each of the plurality of light source groups 60 illuminates the entire surface of the liquid crystal panel 22 (the entire area where an image can be displayed) when viewed from the first direction α. Has been done. For example, as shown in FIG. 6A, both the illumination light from the first light source 61 and the illumination light from the third light source 63 illuminate the entire area of the liquid crystal panel 22. The same applies to the other light sources 62 and 64. Therefore, the image of the entire liquid crystal panel 22 can be visually recognized from the plurality of viewing areas E1, 402, 403, and 404, and the brightness of the three-dimensional image 200 that can be visually recognized within each viewing area E1, 402, 403, and 404 is uniform. Become.

第2レンズ73は、第1レンズ71の出射光を所望の方向に偏向する機能を有している。本実施形態の第2レンズ73の入射面のみが、第1方向αのみを軸とした凸形状を有している。なお、本実施形態の第2レンズ73は、これに限定されるものではなく、入射面及び/又は出射面が、トロイダル形状、シリンドリカル形状、球面形状、自由曲面形状、又はこれらの組み合わせであってもよい。なお、第2レンズ73は、必ずしも必要ではなく、省略されてもよい。 The second lens 73 has a function of deflecting the emitted light of the first lens 71 in a desired direction. Only the incident surface of the second lens 73 of the present embodiment has a convex shape centered only on the first direction α. The second lens 73 of the present embodiment is not limited to this, and the incident surface and / or the exit surface is a toroidal shape, a cylindrical shape, a spherical shape, a free curved surface shape, or a combination thereof. May be good. The second lens 73 is not always necessary and may be omitted.

図6Bを参照する。第1レンズ71及び第2レンズ73の屈折力(光学的パワー)は、液晶パネル22の出射面から出射される画像光の短辺方向(第1方向α)での照明光の配光角(図6B参照)が、長辺方向(第2方向β)での照明光の配光角(図6A参照)より狭くなるように設定される。 See FIG. 6B. The refractive force (optical power) of the first lens 71 and the second lens 73 is the light distribution angle (first direction α) of the illumination light in the short side direction (first direction α) of the image light emitted from the exit surface of the liquid crystal panel 22. (See FIG. 6B) is set to be narrower than the light distribution angle (see FIG. 6A) of the illumination light in the long side direction (second direction β).

拡散板75は、第1レンズ71及び第2レンズ73で偏向した光を拡散させて液晶パネル22に出射する。これにより、視域Eで視認される複数の光源群60により生成される画像光50における輝度ムラを低減できる。拡散板75は、光を拡散させる機能がある光学部材であれば良く、例えばその表面がビーズ部材や微細な凹凸構造、粗面で構成される。また、ドットシートや透過性の乳白色のシートでも良い。 The diffuser plate 75 diffuses the light deflected by the first lens 71 and the second lens 73 and emits the light to the liquid crystal panel 22. As a result, it is possible to reduce the luminance unevenness in the image light 50 generated by the plurality of light source groups 60 visually recognized in the viewing range E. The diffuser plate 75 may be an optical member having a function of diffusing light. For example, the surface thereof is composed of a bead member, a fine uneven structure, or a rough surface. Further, a dot sheet or a transparent milky white sheet may be used.

また、いくつかの実施形態において、拡散板75は、拡散異方性を有していてもよい。拡散異方性とは、通過(透過)した照明光が拡散する角度(拡散角)が方向によって異なることを示す。すなわち、円形の入射光束が、拡散異方性を有する拡散板75を通過すると、楕円形状の光束が出射する。拡散異方性を有する拡散板75は、例えば、アスペクト比が異なる微小の複数の突起を表面に一定の方向に沿って並列に配置されたものであり、金型成形や複数の微小な突起を設けた透明の板を一定方向に延伸することによって作製される。但し、拡散異方性を有する拡散板75の構成や製造方法は、これらに限定されない。 Further, in some embodiments, the diffusion plate 75 may have diffusion anisotropy. Diffusion anisotropy means that the angle (diffusion angle) at which the passing (transmitted) illumination light is diffused differs depending on the direction. That is, when the circular incident light flux passes through the diffusion plate 75 having diffusion anisotropy, an elliptical light flux is emitted. The diffusion plate 75 having diffusion anisotropy is, for example, formed by arranging a plurality of minute protrusions having different aspect ratios in parallel on the surface along a certain direction, and forming a mold or forming a plurality of minute protrusions. It is produced by stretching the provided transparent plate in a certain direction. However, the configuration and manufacturing method of the diffusion plate 75 having diffusion anisotropy are not limited to these.

図7は、拡散異方性を有する拡散板75の拡散角の違いを説明する図であり、左図が液晶パネル22の長辺方向(第2方向β)での拡散板75による拡散角を示す図であり、右図が液晶パネル22の短辺方向(第1方向α)での拡散板75による拡散角を示す図である。いくつかの実施形態の拡散板75の拡散特性は、第2方向βの拡散角が、第1方向αの拡散角より小さくなる(狭くなる)ように設定される。言い換えると、第1レンズ71及び第2レンズ73の屈折力(光学的パワー)の配光角が広い方向(第2方向β)において、拡散板75の拡散角が狭く設定され、第1レンズ71及び第2レンズ73の屈折力(光学的パワー)の配光角が狭い方向(第1方向α)において、拡散板75の拡散角が広く設定される。これにより、第2方向βにおいて、各光源61,62,63,64からの照明光は、第1レンズ71及び第2レンズ73により配光角が広く設定されるため、液晶パネル22の全体を照明でき、拡散異方性を有する拡散板75により拡散角が狭く設定されるため、液晶パネル22の各画素から出射される画像光の拡散角も狭くなる。したがって、液晶パネル22の各画素からの画像光が広い領域(視域E)に向かうことにより発生するクロストークを抑制することができる。 FIG. 7 is a diagram for explaining the difference in the diffusion angle of the diffusion plate 75 having diffusion anisotropy, and the left figure shows the diffusion angle by the diffusion plate 75 in the long side direction (second direction β) of the liquid crystal panel 22. The figure on the right shows the diffusion angle by the diffusion plate 75 in the short side direction (first direction α) of the liquid crystal panel 22. The diffusion characteristics of the diffusion plate 75 of some embodiments are set so that the diffusion angle of the second direction β is smaller (narrower) than the diffusion angle of the first direction α. In other words, the diffusion angle of the diffuser plate 75 is set narrow in the direction in which the light distribution angle of the refractive power (optical power) of the first lens 71 and the second lens 73 is wide (second direction β), and the first lens 71 In the direction in which the light distribution angle of the refractive power (optical power) of the second lens 73 is narrow (first direction α), the diffusion angle of the diffuser plate 75 is set wide. As a result, in the second direction β, the illumination light from each of the light sources 61, 62, 63, 64 has a wide light distribution angle set by the first lens 71 and the second lens 73, so that the entire liquid crystal panel 22 is covered. Since the diffusion angle is set narrow by the diffuser plate 75 that can illuminate and has diffusion anisotropy, the diffusion angle of the image light emitted from each pixel of the liquid crystal panel 22 is also narrowed. Therefore, it is possible to suppress crosstalk generated by the image light from each pixel of the liquid crystal panel 22 heading toward a wide region (viewing area E).

なお、照明光学系70は、第1レンズ71、第2レンズ73の代わりに、又はこれらに加えて、レンチキュラレンズを含んでいてもよい。レンチキュラレンズは、一例として、第1方向αにそれぞれ延伸する複数のシリンドリカルレンズを有する。複数のシリンドリカルレンズは、照明光学系70の第2方向βに沿った一端から他端まで並べて配列される。言い換えると、前記シリンドリカルレンズが延びている方向は、視認者4が前方(Z軸正方向)を向いた際の上下方向(Y軸方向)である。このように上下方向に延びている複数のシリンドリカルレンズが、それぞれ横に周期的に並んで配置されている。これにより照明光学系70は、右眼用画像、及びおよび左眼用画像の画像光を、それぞれ異なる視域にそれぞれ集光させてもよい。なお、複数のレンチキュレレンズのピッチは、光源群60のピッチより大きいことが好ましい。なお、シリンドリカルレンズが延びている方向は、第1方向αに平行ではなく、傾いて配置されてよい(但し、第2方向βとは非平行)。 The illumination optical system 70 may include a lenticular lens in place of or in addition to the first lens 71 and the second lens 73. As an example, the lenticular lens has a plurality of cylindrical lenses extending in each of the first directions α. The plurality of cylindrical lenses are arranged side by side from one end to the other end along the second direction β of the illumination optical system 70. In other words, the direction in which the cylindrical lens extends is the vertical direction (Y-axis direction) when the viewer 4 faces forward (Z-axis positive direction). A plurality of cylindrical lenses extending in the vertical direction in this way are arranged side by side periodically. As a result, the illumination optical system 70 may condense the image light of the image for the right eye and the image for the left eye into different viewing areas. The pitch of the plurality of wrench curry lenses is preferably larger than the pitch of the light source group 60. The direction in which the cylindrical lens extends is not parallel to the first direction α, but may be arranged at an angle (however, it is not parallel to the second direction β).

図8は、いくつかの実施形態に係る、車両用表示システム10のブロック図である。車両用表示システム10は、HUD装置20と、HUD装置20を制御する表示制御装置30と、で構成される。表示制御装置30は、1つ又はそれ以上のI/Oインタフェース32、1つ又はそれ以上のプロセッサ34、1つ又はそれ以上のメモリ36、及び1つ又はそれ以上の画像処理回路38を備える。図8に記載される様々な機能ブロックは、ハードウェア、ソフトウェア、又はこれら両方の組み合わせで構成されてもよい。図8は、実施態様の一実施形態に過ぎず、図示された構成要素は、より数の少ない構成要素に組み合わされてもよく、又は追加の構成要素があってもよい。例えば、画像処理回路38(例えば、グラフィック処理ユニット)が、1つ又はそれ以上のプロセッサ34に含まれてもよい。 FIG. 8 is a block diagram of the vehicle display system 10 according to some embodiments. The vehicle display system 10 includes a HUD device 20 and a display control device 30 that controls the HUD device 20. The display control device 30 includes one or more I / O interfaces 32, one or more processors 34, one or more memories 36, and one or more image processing circuits 38. The various functional blocks shown in FIG. 8 may consist of hardware, software, or a combination of both. FIG. 8 is only one embodiment of the embodiment, and the illustrated components may be combined with a smaller number of components, or there may be additional components. For example, the image processing circuit 38 (eg, graphic processing unit) may be included in one or more processors 34.

図示するように、プロセッサ34及び画像処理回路38は、メモリ36と動作可能に連結される。より具体的には、プロセッサ34及び画像処理回路38は、メモリ36に記憶されているプログラムを実行することで、例えば画像データを生成又は/及び送信するなど、車両用表示システム10の操作を行うことができる。プロセッサ34又は/及び画像処理回路38は、少なくとも1つの汎用マイクロプロセッサ(例えば、中央処理装置(CPU))、少なくとも1つの特定用途向け集積回路(ASIC)、少なくとも1つのフィールドプログラマブルゲートアレイ(FPGA)、又はそれらの任意の組み合わせを含むことができる。メモリ36は、ハードディスクのような任意のタイプの磁気媒体、CD及びDVDのような任意のタイプの光学媒体、揮発性メモリのような任意のタイプの半導体メモリ、及び不揮発性メモリを含む。揮発性メモリは、DRAM及びSRAMを含み、不揮発性メモリは、ROM及びNVROMを含んでもよい。 As shown, the processor 34 and the image processing circuit 38 are operably connected to the memory 36. More specifically, the processor 34 and the image processing circuit 38 operate the vehicle display system 10 by executing a program stored in the memory 36, for example, generating and / or transmitting image data. be able to. The processor 34 and / and the image processing circuit 38 include at least one general purpose microprocessor (eg, central processing unit (CPU)), at least one application specific integrated circuit (ASIC), and at least one field programmable gate array (FPGA). , Or any combination thereof. The memory 36 includes any type of magnetic medium such as a hard disk, any type of optical medium such as a CD and DVD, any type of semiconductor memory such as a volatile memory, and a non-volatile memory. Volatile memory may include DRAM and SRAM, and non-volatile memory may include ROM and NVROM.

図示するように、プロセッサ34は、I/Oインタフェース32と動作可能に連結されている。例えば、I/Oインタフェース32は、車両用表示システム10を、Bluetooth(登録商標)ネットワークなどのパーソナルエリアネットワーク(PAN)、802.11x Wi−Fi(登録商標)ネットワークなどのローカルエリアネットワーク(LAN)、LTE(登録商標)、4G、又は5Gセルラーネットワークなどの広域ネットワーク(WAN)に接続する無線通信インタフェースを含むことができる。また、I/Oインタフェース32は、例えば、USBポート、シリアルポート、パラレルポート、OBDII、及び/又は他の任意の適切な有線通信ポートなどの有線通信インタフェースを含むことができる。 As shown, the processor 34 is operably linked to the I / O interface 32. For example, the I / O interface 32 uses the vehicle display system 10 as a personal area network (PAN) such as a Bluetooth (registered trademark) network, or a local area network (LAN) such as an 802.1x Wi-Fi (registered trademark) network. , LTE®, 4G, or 5G cellular networks can include wireless communication interfaces that connect to wide area networks (WAN). The I / O interface 32 can also include a wired communication interface such as, for example, a USB port, a serial port, a parallel port, an OBDII, and / or any other suitable wired communication port.

図示するように、プロセッサ34は、I/Oインタフェース32と相互動作可能に連結されることで、車両用表示システム10(I/Oインタフェース32)に接続される種々の他の電子機器等と情報を授受可能となる。I/Oインタフェース32には、例えば、車両1に設けられた車両ECU501、道路情報データベース503、自車位置検出部505、車外センサ507、視線方向検出部509、目位置検出部511、携帯情報端末513、及び車外通信接続機器520などが動作可能に連結される。HUD装置20は、プロセッサ34及び画像処理回路38に動作可能に連結される。したがって、HUD装置20によって表示される画像は、プロセッサ34又は/及び画像処理回路38から受信された画像データに基づいてもよい。プロセッサ34及び画像処理回路38は、I/Oインタフェース32から得られる情報に基づき、HUD装置20が表示する画像を制御する。なお、I/Oインタフェース32は、車両用表示システム10に接続される他の電子機器等から受信する情報を加工(変換、演算、解析)する機能を含んでいてもよい。 As shown in the figure, the processor 34 is interoperably connected to the I / O interface 32 to provide information with various other electronic devices and the like connected to the vehicle display system 10 (I / O interface 32). Can be exchanged. The I / O interface 32 includes, for example, a vehicle ECU 501 provided in the vehicle 1, a road information database 503, a vehicle position detection unit 505, an external sensor 507, a line-of-sight direction detection unit 509, an eye position detection unit 511, and a mobile information terminal. The 513, the external communication connection device 520, and the like are operably connected. The HUD device 20 is operably connected to the processor 34 and the image processing circuit 38. Therefore, the image displayed by the HUD device 20 may be based on the image data received from the processor 34 and / and the image processing circuit 38. The processor 34 and the image processing circuit 38 control the image displayed by the HUD device 20 based on the information obtained from the I / O interface 32. The I / O interface 32 may include a function of processing (converting, calculating, analyzing) information received from another electronic device or the like connected to the vehicle display system 10.

車両1は、車両1の状態(例えば、走行距離、車速、アクセルペダル開度、エンジンスロットル開度、インジェクター燃料噴射量、エンジン回転数、モータ回転数、ステアリング操舵角、シフトポジション、ドライブモード、各種警告状態)などを検出する車両ECU501を含んでいる。車両ECU501は、車両1の各部を制御するものであり、例えば、車両1の現在の車速を示す車速情報をプロセッサ34へ送信することができる。なお、車両ECU501は、単にセンサで検出したデータをプロセッサ34へ送信することに加え、又は代わりに、センサで検出したデータの判定結果、若しくは/及び解析結果をプロセッサ34へ送信することができる。例えば、車両1が低速走行しているか、又は停止しているかを示す情報をプロセッサ34へ送信してもよい。 The vehicle 1 is described in various states (for example, mileage, vehicle speed, accelerator pedal opening, engine throttle opening, injector fuel injection amount, engine speed, motor speed, steering angle, shift position, drive mode, etc.). It includes a vehicle ECU 501 that detects (warning state) and the like. The vehicle ECU 501 controls each part of the vehicle 1, and can, for example, transmit vehicle speed information indicating the current vehicle speed of the vehicle 1 to the processor 34. In addition to simply transmitting the data detected by the sensor to the processor 34, the vehicle ECU 501 can transmit the determination result and / or the analysis result of the data detected by the sensor to the processor 34. For example, information indicating whether the vehicle 1 is traveling at a low speed or stopped may be transmitted to the processor 34.

また、車両ECU501は、車両用表示システム10が表示する立体画像200を指示する指示信号をI/Oインタフェース32に送信してもよく、この際、立体画像200の座標、立体画像200の報知必要度、又は/及び報知必要度を判定する元となる必要度関連情報を、指示信号に付加して送信してもよい。 Further, the vehicle ECU 501 may transmit an instruction signal instructing the stereoscopic image 200 displayed by the vehicle display system 10 to the I / O interface 32, and at this time, it is necessary to notify the coordinates of the stereoscopic image 200 and the stereoscopic image 200. The degree and / and the necessity-related information that is the basis for determining the notification necessity may be added to the instruction signal and transmitted.

車両1は、ナビゲーションシステム等からなる道路情報データベース503を含んでいてもよい。道路情報データベース503は、後述する自車位置検出部505から取得される車両1の位置に基づき、実オブジェクト関連情報の一例である車両1が走行する道路情報(車線,白線,停止線,横断歩道,道路の幅員,車線数,交差点,カーブ,分岐路,交通規制など)、地物情報(建物、橋、河川など)の、有無、位置(車両1までの距離を含む)、方向(車両1を基準とした方向)、形状、種類、詳細情報などを読み出し、プロセッサ34に送信してもよい。また、道路情報データベース503は、出発地から目的地までの適切な経路を算出し、ナビゲーション情報としてプロセッサ34に送信してもよい。 The vehicle 1 may include a road information database 503 including a navigation system or the like. The road information database 503 is based on the position of the vehicle 1 acquired from the own vehicle position detection unit 505, which will be described later, and is based on the road information (lane, white line, stop line, pedestrian crossing) on which the vehicle 1 which is an example of the actual object-related information travels. , Road width, number of lanes, intersections, curves, pedestrian crossings, traffic regulations, etc.), feature information (buildings, bridges, rivers, etc.), presence / absence, position (including distance to vehicle 1), direction (vehicle 1) The direction), shape, type, detailed information, etc. may be read out and transmitted to the processor 34. Further, the road information database 503 may calculate an appropriate route from the departure point to the destination and transmit it to the processor 34 as navigation information.

車両1は、GNSS(全地球航法衛星システム)等からなる自車位置検出部505を含んでいてもよい。道路情報データベース503、後述する携帯情報端末513、又は/及び車外通信接続機器520は、自車位置検出部505から車両1の位置情報を連続的、断続的、又は所定のイベント毎に取得することで、車両1の周辺の情報を選択、又は/及び生成して、プロセッサ34に送信することができる。 The vehicle 1 may include a vehicle position detection unit 505 made of GNSS (Global Navigation Satellite System) or the like. The road information database 503, the mobile information terminal 513 described later, and / and the vehicle external communication connection device 520 acquire the position information of the vehicle 1 from the own vehicle position detection unit 505 continuously, intermittently, or at a predetermined event. The information around the vehicle 1 can be selected and / and generated and transmitted to the processor 34.

車両1は、車両1の周辺(前方、側方、及び後方)に存在する実オブジェクトを検出する1つ又はそれ以上の車外センサ507を含んでいてもよい。車外センサ507が検知する実オブジェクトは、例えば、歩行者、自転車、自動二輪車、他車両、路面310、区画線、路側物、又は/及び地物(建物など)などを含んでいてもよい。車外センサとしては、例えば、ミリ波レーダ、超音波レーダ、レーザレーダ等のレーダセンサ、カメラと画像処理装置からなるカメラセンサがあり、レーダセンサ、カメラセンサの両方の組み合わせで構成されてもよく、どちらか一方だけで構成されてもよい。これらレーダセンサやカメラセンサによる物体検知については従来の周知の手法を適用する。これらのセンサによる物体検知によって、三次元空間内での実オブジェクトの有無、実オブジェクトが存在する場合には、その実オブジェクトの位置(車両1からの相対的な距離、車両1の進行方向を前後方向とした場合の左右方向の位置、上下方向の位置等)、大きさ(横方向(左右方向)、高さ方向(上下方向)等の大きさ)、移動方向(横方向(左右方向)、奥行き方向(前後方向))、移動速度(横方向(左右方向)、奥行き方向(前後方向))、又は/及び種類等を検出してもよい。1つ又はそれ以上の車外センサ507は、各センサの検知周期毎に、車両1の前方の実オブジェクトを検知して、実オブジェクト関連情報の一例である実オブジェクト関連情報(実オブジェクトの有無、実オブジェクトが存在する場合には実オブジェクト毎の位置、大きさ、又は/及び種類等の情報)をプロセッサ34に送信することができる。なお、これら実オブジェクト関連情報は、他の機器(例えば、車両ECU501)を経由してプロセッサ34に送信されてもよい。また、夜間等の周辺が暗いときでも実オブジェクトが検知できるように、センサとしてカメラを利用する場合には赤外線カメラや近赤外線カメラが望ましい。また、センサとしてカメラを利用する場合、視差で距離等も取得できるステレオカメラが望ましい。 The vehicle 1 may include one or more out-of-vehicle sensors 507 that detect real objects present around the vehicle 1 (front, side, and rear). The actual object detected by the vehicle exterior sensor 507 may include, for example, a pedestrian, a bicycle, a motorcycle, another vehicle, a road surface 310, a lane marking, a roadside object, or / and a feature (building, etc.). Examples of the vehicle exterior sensor include a radar sensor such as a millimeter wave radar, an ultrasonic radar, and a laser radar, and a camera sensor composed of a camera and an image processing device, which may be composed of a combination of both a radar sensor and a camera sensor. It may be composed of only one of them. Conventional well-known methods are applied to object detection by these radar sensors and camera sensors. By object detection by these sensors, the presence or absence of a real object in the three-dimensional space, and if the real object exists, the position of the real object (relative distance from the vehicle 1 and the traveling direction of the vehicle 1 in the front-rear direction). (Horizontal position, vertical position, etc.), size (horizontal direction (horizontal direction), height direction (vertical direction), etc.), movement direction (horizontal direction (horizontal direction), depth) Direction (front-back direction)), movement speed (horizontal direction (left-right direction), depth direction (front-back direction)), or / and type may be detected. One or more external sensors 507 detect a real object in front of the vehicle 1 for each detection cycle of each sensor, and the real object-related information (presence / absence of a real object, real object) which is an example of the real object-related information. If an object exists, information such as the position, size, or / and type of each real object) can be transmitted to the processor 34. Note that these real object-related information may be transmitted to the processor 34 via another device (for example, vehicle ECU 501). Further, when using a camera as a sensor, an infrared camera or a near-infrared camera is desirable so that a real object can be detected even when the surroundings are dark such as at night. When using a camera as a sensor, a stereo camera that can acquire a distance or the like by parallax is desirable.

車両1は、視認者4の注視方向(以下では「視線方向」ともいう)を検出する、視認者4の顔を撮像する赤外線カメラ等からなる視線方向検出部509を含んでいてもよい。プロセッサ34は、赤外線カメラが撮像した画像(視線方向を推定可能な情報の一例)を取得し、この撮像画像を解析することで視認者4の視線方向を特定することができる。なお、プロセッサ34は、赤外線カメラの撮像画像から視線方向検出部509(又は他の解析部)が特定した視認者4の視線方向をI/Oインタフェース32から取得するものであってもよい。また、車両1の視認者4の視線方向、又は視認者4の視線方向を推定可能な情報を取得する方法は、これらに限定されるものではなく、EOG(Electro−oculogram)法、角膜反射法、強膜反射法、プルキンエ像検出法、サーチコイル法、赤外線眼底カメラ法などの他の既知の視線方向検出(推定)技術を用いて取得されてもよい。 The vehicle 1 may include a line-of-sight direction detection unit 509 including an infrared camera or the like that captures the face of the viewer 4 to detect the gaze direction of the viewer 4 (hereinafter, also referred to as “line-of-sight direction”). The processor 34 acquires an image (an example of information capable of estimating the line-of-sight direction) captured by the infrared camera, and analyzes the captured image to identify the line-of-sight direction of the viewer 4. The processor 34 may acquire the line-of-sight direction of the viewer 4 specified by the line-of-sight direction detection unit 509 (or another analysis unit) from the image captured by the infrared camera from the I / O interface 32. Further, the method of acquiring the information capable of estimating the line-of-sight direction of the viewer 4 of the vehicle 1 or the line-of-sight direction of the viewer 4 is not limited to these, and is not limited to these, and is the EOG (Electro-occlera) method and the corneal reflex method. , The scleral reflex method, the Purkinje image detection method, the search coil method, the infrared fundus camera method, and other known line-of-sight detection (estimation) techniques may be used.

車両1は、視認者4の目の位置を検出する赤外線カメラ等からなる目位置検出部511を含んでいてもよい。プロセッサ34は、赤外線カメラが撮像した画像(目の位置を推定可能な情報の一例)を取得し、この撮像画像を解析することで視認者4の目の位置を特定することができる。なお、プロセッサ34は、赤外線カメラの撮像画像から特定された視認者4の目の位置の情報をI/Oインタフェース32から取得するものであってもよい。なお、車両1の視認者4の目の位置、又は視認者4の目の位置を推定可能な情報を取得する方法は、これらに限定されるものではなく、既知の目位置検出(推定)技術を用いて取得されてもよい。プロセッサ34は、視認者4の目の位置に基づき、立体画像200の位置を少なくとも調整することで、前景300の所望の位置に重畳した立体画像200を、目位置を検出した視認者(視認者4)に視認させてもよい。 The vehicle 1 may include an eye position detection unit 511 including an infrared camera or the like that detects the eye position of the viewer 4. The processor 34 acquires an image (an example of information capable of estimating the eye position) captured by the infrared camera, and can identify the eye position of the viewer 4 by analyzing the captured image. The processor 34 may acquire information on the eye position of the viewer 4 identified from the image captured by the infrared camera from the I / O interface 32. The method of acquiring information capable of estimating the eye position of the viewer 4 of the vehicle 1 or the eye position of the viewer 4 is not limited to these, and is a known eye position detection (estimation) technique. May be obtained using. The processor 34 adjusts at least the position of the stereoscopic image 200 based on the position of the eyes of the viewer 4, so that the stereoscopic image 200 superimposed on the desired position of the foreground 300 is superimposed on the desired position of the foreground 300. It may be visually recognized in 4).

携帯情報端末513は、スマートフォン、ノートパソコン、スマートウォッチ、又は視認者4(又は車両1の他の乗員)が携帯可能なその他の情報機器である。I/Oインタフェース32は、携帯情報端末513と通信を行うことが可能であり、携帯情報端末513(又は携帯情報端末を通じたサーバ)に記録されたデータを取得する。携帯情報端末513は、例えば、上述の道路情報データベース503及び自車位置検出部505と同様の機能を有し、前記道路情報(実オブジェクト関連情報の一例)を取得し、プロセッサ34に送信してもよい。また、携帯情報端末513は、車両1の近傍の商業施設に関連するコマーシャル情報(実オブジェクト関連情報の一例)を取得し、プロセッサ34に送信してもよい。なお、携帯情報端末513は、携帯情報端末513の所持者(例えば、視認者4)のスケジュール情報、携帯情報端末513での着信情報、メールの受信情報などをプロセッサ34に送信し、プロセッサ34及び画像処理回路38は、これらに関する画像データを生成又は/及び送信してもよい。 The personal digital assistant 513 is a smartphone, a laptop computer, a smart watch, or other information device that can be carried by the viewer 4 (or another occupant of the vehicle 1). The I / O interface 32 can communicate with the mobile information terminal 513 and acquires the data recorded in the mobile information terminal 513 (or the server through the mobile information terminal). The mobile information terminal 513 has, for example, the same functions as the road information database 503 and the vehicle position detection unit 505 described above, acquires the road information (an example of information related to an actual object), and transmits the road information to the processor 34. May be good. Further, the mobile information terminal 513 may acquire commercial information (an example of information related to a real object) related to a commercial facility in the vicinity of the vehicle 1 and transmit it to the processor 34. The mobile information terminal 513 transmits the schedule information of the owner (for example, the viewer 4) of the mobile information terminal 513, the incoming information on the mobile information terminal 513, the received information of the mail, etc. to the processor 34, and the processor 34 and The image processor 38 may generate and / or transmit image data relating to these.

車外通信接続機器520は、車両1と情報のやりとりをする通信機器であり、例えば、車両1と車車間通信(V2V:Vehicle To Vehicle)により接続される他車両、歩車間通信(V2P:Vehicle To Pedestrian)により接続される歩行者(歩行者が携帯する携帯情報端末)、路車間通信(V2I:Vehicle To roadside Infrastructure)により接続されるネットワーク通信機器であり、広義には、車両1との通信(V2X:Vehicle To Everything)により接続される全てのものを含む。車外通信接続機器520は、例えば、歩行者、自転車、自動二輪車、他車両(先行車等)、路面、区画線、路側物、又は/及び地物(建物など)の位置を取得し、プロセッサ34に送信してもよい。また、車外通信接続機器520は、上述の自車位置検出部505と同様の機能を有し、車両1の位置情報を取得し、プロセッサ34に送信してもよく、さらに上述の道路情報データベース503の機能も有し、前記道路情報(実オブジェクト関連情報の一例)を取得し、プロセッサ34に送信してもよい。なお、車外通信接続機器520から取得される情報は、上述のものに限定されない。 The out-of-vehicle communication connection device 520 is a communication device that exchanges information with the vehicle 1. For example, another vehicle or pedestrian-to-vehicle communication (V2P: Vehicle To) connected to the vehicle 1 by vehicle-to-vehicle communication (V2V: Vehicle To Vehicle). It is a network communication device connected by a pedestrian (a mobile information terminal carried by a pedestrian) and a vehicle-to-vehicle communication (V2I) connected by a Pedestrian), and in a broad sense, it is a communication device with a vehicle 1 (V2I). V2X: Includes everything connected by Vehicle To Everything). The out-of-vehicle communication connection device 520 acquires, for example, the positions of pedestrians, bicycles, motorcycles, other vehicles (preceding vehicles, etc.), road surfaces, lane markings, roadside objects, and / and features (buildings, etc.), and the processor 34. May be sent to. Further, the vehicle external communication connection device 520 has the same function as the own vehicle position detection unit 505 described above, and may acquire the position information of the vehicle 1 and transmit it to the processor 34, and further, the road information database 503 described above. The road information (an example of information related to a real object) may be acquired and transmitted to the processor 34. The information acquired from the external communication connection device 520 is not limited to the above.

メモリ36に記憶されたソフトウェア構成要素は、実オブジェクト関連情報検出モジュール602、実オブジェクト位置設定モジュール604、目位置検出モジュール606、報知必要度判定モジュール608、画像位置決定モジュール610、画像サイズ決定モジュール612、グラフィックモジュール614、視差画像生成モジュール616、表示制御モジュール618、及び光源制御モジュール620を含む。 The software components stored in the memory 36 are the real object-related information detection module 602, the real object position setting module 604, the eye position detection module 606, the notification necessity determination module 608, the image position determination module 610, and the image size determination module 612. , Graphic module 614, parallax image generation module 616, display control module 618, and light source control module 620.

実オブジェクト関連情報検出モジュール602は、車両1の前方に存在する実オブジェクトの少なくとも位置を含む情報(実オブジェクト関連情報とも呼ぶ)を取得する。実オブジェクト関連情報検出モジュール602は、例えば、車外センサ507から、車両1の前景300に存在する実オブジェクトの位置(車両1の運転席にいる視認者4から車両1の進行方向(前方)を視認した際の高さ方向(上下方向)、横方向(左右方向)の位置であり、これらに、奥行き方向(前方向)の位置が追加されてもよい)、及び実オブジェクトのサイズ(高さ方向、横方向のサイズ)、車両1に対する相対速度(相対的な移動方向も含む)、を含む情報(実オブジェクト関連情報の一例)を取得してもよい。また、実オブジェクト関連情報検出モジュール602は、車外通信接続機器520を介して実オブジェクト(他車両)の位置、相対速度、種類、実オブジェクト(他車両)の方向指示器の点灯状態、舵角操作の状態、又は/及び運転支援システムによる進行予定経路、進行スケジュール、を示す情報(実オブエクと関連情報の一例)を取得してもよい。 The real object-related information detection module 602 acquires information including at least the position of the real object existing in front of the vehicle 1 (also referred to as real object-related information). The real object-related information detection module 602, for example, visually recognizes the position of the real object existing in the foreground 300 of the vehicle 1 (the viewing direction (forward) of the vehicle 1 from the viewer 4 in the driver's seat of the vehicle 1) from the vehicle exterior sensor 507. It is the position in the height direction (vertical direction), the horizontal direction (horizontal direction), and the position in the depth direction (front direction) may be added to these positions), and the size of the actual object (height direction). , Lateral size), relative speed to vehicle 1 (including relative moving direction), and information (an example of real object-related information) may be acquired. Further, the real object-related information detection module 602 uses the external communication connection device 520 to control the position, relative speed, type of the real object (other vehicle), the lighting state of the direction indicator of the real object (other vehicle), and the steering angle operation. Information (an example of the actual object and related information) indicating the state of, and / and the planned progress route and progress schedule by the driving support system may be acquired.

また、実オブジェクト関連情報検出モジュール602は、車外センサ507から、車両1の走行レーン310(図2、図3参照)の左側の区画線311(図2、図3参照)の位置と、右側の区画線312(図3、図3参照)の位置とを取得し、それら左右の区画線311,312の間の領域(走行レーン310)を認識してもよい。 Further, the real object-related information detection module 602 is located at the position of the lane marking 311 (see FIGS. 2 and 3) on the left side of the traveling lane 310 (see FIGS. 2 and 3) of the vehicle 1 and the position on the right side of the vehicle outside sensor 507. The position of the lane marking 312 (see FIGS. 3 and 3) may be acquired, and the region (traveling lane 310) between the left and right lane markings 311, 312 may be recognized.

実オブジェクト位置設定モジュール604は、I/Oインタフェース32を介して道路情報データベース503、車外センサ507、携帯情報端末513、若しくは車外通信接続機器520から実オブジェクトの現在の位置を示す観測位置を取得し、又はこれら2以上の観測位置をフュージョンした実オブジェクトの観測位置を取得し、取得した観測位置に基づいて実オブジェクトの位置(特定位置とも呼ぶ)を設定する。後述する画像位置決定モジュール610は、この実オブジェクト位置設定モジュール604が設定した実オブジェクトの特定位置を基準に立体画像200の位置を決定する。 The real object position setting module 604 acquires an observation position indicating the current position of the real object from the road information database 503, the vehicle exterior sensor 507, the mobile information terminal 513, or the vehicle exterior communication connection device 520 via the I / O interface 32. Or, the observation position of the real object obtained by fusing these two or more observation positions is acquired, and the position of the real object (also referred to as a specific position) is set based on the acquired observation position. The image position determination module 610, which will be described later, determines the position of the stereoscopic image 200 based on the specific position of the real object set by the real object position setting module 604.

実オブジェクト位置設定モジュール604は、直前に取得した実オブジェクトの観測位置に基づいて実オブジェクトの特定位置を設定と、少なくとも直前に取得した実オブジェクトの観測位置を含む過去に取得した1つ又はそれ以上の実オブジェクトの観測位置を元に予測される所定の時刻における実オブジェクトの予測位置に基づいて実オブジェクトの特定位置を設定と、を実行可能である。すなわち、実オブジェクト位置設定モジュール604と後述する画像位置決定モジュール610とを実行することで、プロセッサ34は、直前に取得した実オブジェクトの観測位置に基づいて立体画像(AR画像)200の特定位置を設定する第1位置設定処理と、少なくとも直前に取得した実オブジェクトの観測位置を含む過去に取得した1つ又はそれ以上の実オブジェクトの観測位置を元に予測される立体画像(AR画像)200の表示更新周期における実オブジェクトの予測位置に基づいて立体画像(AR画像)200の位置を設定する第2位置設定処理と、を実行可能である。 The real object position setting module 604 sets a specific position of the real object based on the observed position of the real object acquired immediately before, and at least one or more acquired in the past including the observed position of the real object acquired immediately before. It is possible to set a specific position of the real object based on the predicted position of the real object at a predetermined time predicted based on the observed position of the real object of. That is, by executing the real object position setting module 604 and the image position determination module 610 described later, the processor 34 determines the specific position of the stereoscopic image (AR image) 200 based on the observation position of the real object acquired immediately before. A stereoscopic image (AR image) 200 predicted based on the first position setting process to be set and the observation position of one or more real objects acquired in the past including the observation position of the real object acquired at least immediately before. It is possible to execute the second position setting process for setting the position of the stereoscopic image (AR image) 200 based on the predicted position of the real object in the display update cycle.

実オブジェクト位置設定モジュール604は、例えば、第1の立体画像(AR画像)200においては、表示する位置の基準となる実オブジェクトの特定位置を、前記第1位置設定処理と前記第2位置設定処理とを時系列的に使い分けることにより算出し、第2の立体画像(AR画像)200においては、表示する位置の基準となる実オブジェクトの特定位置を、前記第2位置設定処理により算出してもよい。実オブジェクト位置設定モジュール604は、例えば、最小二乗法や、カルマンフィルタ、α−βフィルタ、又はパーティクルフィルタなどの予測アルゴリズムを用いて、過去の1つ又はそれ以上の観測位置を用いて、次回の値を予測するようにしてもよい。 In the first stereoscopic image (AR image) 200, for example, the real object position setting module 604 sets the specific position of the real object, which is the reference of the display position, in the first position setting process and the second position setting process. And are calculated by using them properly in chronological order, and in the second stereoscopic image (AR image) 200, even if the specific position of the real object that is the reference of the display position is calculated by the second position setting process. Good. The real object positioning module 604 uses a prediction algorithm such as the least squares method, a Kalman filter, an α-β filter, or a particle filter, and uses one or more observation positions in the past to obtain the next value. May be predicted.

目位置検出モジュール606は、車両1の視認者4の左右の目の位置を検出する。目位置検出モジュール606は、複数の視域Eのどこに視認者4の目の位置があるかの判定、視認者4の目の左右方向(X軸方向)の位置、又は/及び奥行き方向(Z軸方向)の位置の検出、視認者4の目の位置(X,Y,Z軸方向の位置)の検出、に関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。目位置検出モジュール606は、例えば、目位置検出部411から視認者4の目の位置を取得する、又は、目位置検出部411から視認者4の目の位置を推定可能な情報を受信し、視認者4の左右の目の位置を推定する。左右の目の位置を推定可能な情報は、例えば、左右いずれか一方の目の位置、車両1の運転席の位置、視認者4の顔の位置、座高の高さ、視認者4による図示しない操作部での入力値などであってもよい。 The eye position detection module 606 detects the positions of the left and right eyes of the viewer 4 of the vehicle 1. The eye position detection module 606 determines where in the plurality of viewing areas E the eyes of the viewer 4 are located, the positions of the eyes of the viewer 4 in the left-right direction (X-axis direction), and / and the depth direction (Z). Includes various software components for performing various actions related to (axial) position detection, visual 4 eye position (X, Y, Z axis position) detection. The eye position detection module 606 obtains, for example, the eye position of the viewer 4 from the eye position detection unit 411, or receives information from the eye position detection unit 411 that can estimate the eye position of the viewer 4. The positions of the left and right eyes of the viewer 4 are estimated. Information that can estimate the positions of the left and right eyes is, for example, the position of either the left or right eye, the position of the driver's seat of the vehicle 1, the position of the face of the viewer 4, the height of the sitting height, and the information not shown by the viewer 4. It may be an input value in the operation unit.

報知必要度判定モジュール608は、車両用表示システム10が表示する各立体画像200が視認者4に報知するべき内容であるかを判定する。報知必要度判定モジュール608は、I/Oインタフェース32に接続される種々の他の電子機器から情報を取得し、報知必要度を算出してもよい。また、図8でI/Oインタフェース32に接続された電子機器が車両ECU501に情報を送信し、受信した情報に基づき車両ECU501が決定した報知必要度を、報知必要度判定モジュール608が検出(取得)してもよい。『報知必要度』は、例えば、起こり得る自体の重大さの程度から導き出される危険度、反応行動を起こすまでに要求される反応時間の長短から導き出される緊急度、車両1や視認者4(又は車両1の他の乗員)の状況から導き出される有効度、又はこれらの組み合わせなどで決定され得る(報知必要度の指標はこれらに限定されない)。すなわち、報知必要度判定モジュール608は、視認者4に報知すべきかを判定し、一部、又は全部の立体画像200を表示しないことも選択し得る。なお、車両用表示システム10は、報知必要度を推定する(算出する)機能を有していなくてもよく、報知必要度を推定する機能の一部又は全部は、車両用表示システム10の表示制御装置30とは別に設けられてもよい。 The notification necessity determination module 608 determines whether each stereoscopic image 200 displayed by the vehicle display system 10 is the content to be notified to the viewer 4. The notification necessity determination module 608 may acquire information from various other electronic devices connected to the I / O interface 32 and calculate the notification necessity. Further, the electronic device connected to the I / O interface 32 in FIG. 8 transmits information to the vehicle ECU 501, and the notification necessity determination module 608 detects (acquires) the notification necessity determined by the vehicle ECU 501 based on the received information. ) May. The "notification necessity" is, for example, the degree of danger derived from the degree of seriousness that can occur, the degree of urgency derived from the length of the reaction time required to take a reaction action, the vehicle 1 or the viewer 4 (or the viewer 4). It can be determined by the effectiveness derived from the situation of the other occupants of the vehicle 1), or a combination thereof (the index of the necessity of notification is not limited to these). That is, the notification necessity determination module 608 may determine whether to notify the viewer 4 and may select not to display a part or all of the stereoscopic image 200. The vehicle display system 10 does not have to have a function of estimating (calculating) the necessity of notification, and a part or all of the function of estimating the necessity of notification is a display of the vehicle display system 10. It may be provided separately from the control device 30.

画像位置決定モジュール610は、立体画像200が、実オブジェクトと特定の位置関係になって視認されるように、実オブジェクト位置設定モジュール604が設定した実オブジェクトの決定位置(観測位置又は予測位置)に基づき、立体画像200の座標(視認者4が車両1の運転席から前方を見た際の左右方向(X軸方向)、及び上下方向(Y軸方向)を少なくとも含む)を決定する。これに加え、画像位置決定モジュール610は、実オブジェクト位置設定モジュール604が設定した実オブジェクトの決定位置に基づき、視認者4が車両1の運転席から虚像表示領域100の方向を見た際の前後方向(Z軸方向)を決定してもよい。なお、画像位置決定モジュール610は、目位置検出部511が検出した視認者4の眼の位置に基づいて、立体画像200の位置を調整する。例えば、画像位置決定モジュール610は、立体画像200の中心が実オブジェクトの中心と重なって視認されるように、立体画像200の左右方向、及び上下方向の位置を決定する。なお、『特定の位置関係』は、実オブジェクト又は車両1の状況、実オブジェクトの種類、表示される画像の種類などにより調整され得る。 The image position determination module 610 sets the stereoscopic image 200 at the determination position (observation position or predicted position) of the real object set by the real object position setting module 604 so that the stereoscopic image 200 is visually recognized in a specific positional relationship with the real object. Based on this, the coordinates of the stereoscopic image 200 (including at least the left-right direction (X-axis direction) and the up-down direction (Y-axis direction) when the viewer 4 looks forward from the driver's seat of the vehicle 1) are determined. In addition to this, the image position determination module 610 is based on the determination position of the real object set by the real object position setting module 604, before and after the viewer 4 sees the direction of the virtual image display area 100 from the driver's seat of the vehicle 1. The direction (Z-axis direction) may be determined. The image position determination module 610 adjusts the position of the stereoscopic image 200 based on the eye position of the viewer 4 detected by the eye position detection unit 511. For example, the image position determination module 610 determines the positions of the stereoscopic image 200 in the horizontal direction and the vertical direction so that the center of the stereoscopic image 200 is visually recognized so as to overlap the center of the real object. The "specific positional relationship" can be adjusted depending on the situation of the real object or the vehicle 1, the type of the real object, the type of the displayed image, and the like.

画像サイズ決定モジュール612は、対応付ける実オブジェクトの位置、又は/及びサイズに合わせて、立体画像(AR画像)200のサイズを変更してもよい。例えば、画像サイズ決定モジュール612は、対応付ける実オブジェクトの位置が遠方であれば、立体画像(AR画像)200のサイズを小さくし得る。また、画像サイズ決定モジュール612は、対応付ける実オブジェクトのサイズが大きければ、立体画像(AR画像)200のサイズを大きくし得る。 The image sizing module 612 may change the size of the stereoscopic image (AR image) 200 according to the position and / and size of the corresponding real object. For example, the image size determination module 612 can reduce the size of the stereoscopic image (AR image) 200 if the position of the corresponding real object is far away. Further, the image size determination module 612 can increase the size of the stereoscopic image (AR image) 200 if the size of the associated real object is large.

また、画像サイズ決定モジュール612は、実オブジェクト関連情報検出モジュール602により検出された立体画像200を対応付けて表示する実オブジェクトの種類、数、又は/及び、報知必要度判定モジュール608で検出された(推定された)報知必要度の大きさに基づいて、立体画像200のサイズを決定し得る。 Further, the image size determination module 612 was detected by the type, number, or / and notification necessity determination module 608 of the real object that displays the stereoscopic image 200 detected by the real object-related information detection module 602 in association with each other. The size of the stereoscopic image 200 can be determined based on the magnitude of the (estimated) notification need.

画像サイズ決定モジュール612は、過去の所定の回数の実オブジェクトのサイズに基づいて、今回の表示更新周期で表示する立体画像(AR画像)200を表示するサイズを予測算出する機能を有してもよい。第1の手法として、画像サイズ決定モジュール612は、カメラ(車外センサ507の一例)による過去の2つの撮像画像間で、例えば、Lucas−Kanade法を使用して、実オブジェクトの画素を追跡することで、今回の表示更新周期における実オブジェクトのサイズを予測し、予測した実オブジェクトのサイズに合わせてAR画像のサイズを決定してもよい。第2手法として、過去の2つの撮像画像間での実オブジェクトのサイズの変化に基づき、実オブジェクトのサイズの変化率を求めて、実オブジェクトのサイズの変化率に応じてAR画像のサイズを決定してもよい。なお、時系列で変化する視点からの実オブジェクトのサイズ変化を推定する方法は、上記に限られず、例えば、Horn−Schunck法、Buxton−Buxton、Black−Jepson法などのオプティカルフロー推定アルゴリズムを含む公知の手法を用いてもよい。 Even if the image size determination module 612 has a function of predicting and calculating the size of the stereoscopic image (AR image) 200 to be displayed in the current display update cycle based on the size of the actual object a predetermined number of times in the past. Good. As a first method, the image sizing module 612 tracks the pixels of a real object between two past images captured by a camera (an example of an external sensor 507), for example using the Lucas-Kanade method. Then, the size of the real object in the current display update cycle may be predicted, and the size of the AR image may be determined according to the predicted size of the real object. As a second method, the rate of change in the size of the real object is obtained based on the change in the size of the real object between the two captured images in the past, and the size of the AR image is determined according to the rate of change in the size of the real object. You may. The method of estimating the size change of the real object from the viewpoint that changes in time series is not limited to the above, and is known to include, for example, an optical flow estimation algorithm such as the Horn-Schunkk method, the Boxon-Buxton, and the Black-Jepson method. You may use the method of.

グラフィックモジュール614は、表示される立体画像200の、視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)、サイズ、表示位置、距離(視認者4から立体画像200までの距離)を変更するための様々な既知のソフトウェア構成要素を含む。グラフィックモジュール614は、画像位置決定モジュール610が設定した座標(視認者4が車両1の運転席から虚像表示領域100の方向を見た際の左右方向(X軸方向)、及び上下方向(Y軸方向)を少なくとも含む)、画像サイズ決定モジュール612が設定した画像サイズで視認者4に視認されるように立体画像200の画像データを生成し、メモリ36に記憶する。なお、グラフィックモジュール614は、HUD装置20に、前景300に存在する実オブジェクトの位置に応じて表示位置を変化させるAR画像、及び/又は実オブジェクトの位置に応じて表示位置を変化させない非AR画像、を含む画像を表示させることができる。なお、グラフィックモジュール614の機能の一部又は全部は、車両用表示システム10の表示制御装置30とは別に設けられてもよい。 The graphic module 614 describes the visual effects (eg, brightness, transparency, saturation, contrast, or other visual characteristics), size, display position, and distance (viewer 4 to stereoscopic image 200) of the stereoscopic image 200 to be displayed. Includes various known software components for changing the distance). The graphic module 614 has coordinates set by the image position determination module 610 (horizontal direction (X-axis direction) and vertical direction (Y-axis) when the viewer 4 sees the direction of the virtual image display area 100 from the driver's seat of the vehicle 1. The image data of the stereoscopic image 200 is generated and stored in the memory 36 so that the viewer 4 can see the image size set by the image size determination module 612 (including at least the direction). The graphic module 614 has an AR image on the HUD device 20 that changes the display position according to the position of the real object existing in the foreground 300, and / or a non-AR image that does not change the display position according to the position of the real object. Images containing, can be displayed. A part or all of the functions of the graphic module 614 may be provided separately from the display control device 30 of the vehicle display system 10.

視差画像生成モジュール616は、メモリ36から、グラフィックモジュール614が生成した画像データと、目位置検出モジュール606が取得した視認者4の左目4Lの位置及び右目4Rの位置と、を読み出し、これらに基づいて、右目用画像データと、左目用画像データとを生成する。具体的には、視差画像生成モジュール616は、視認者4の目位置から見て、読み出した画像データに含まれる表示位置に立体画像200が視認されるように、右目と左目との視差を利用して、液晶パネル22を制御するための右目用画像データ及び左目用画像データを生成する。なお、視差画像生成モジュール616の機能の一部又は全部は、車両用表示システム10の表示制御装置30とは別に設けられてもよい。 The parallax image generation module 616 reads out the image data generated by the graphic module 614 and the positions of the left eye 4L and the right eye 4R of the viewer 4 acquired by the eye position detection module 606 from the memory 36, and is based on these. Then, the image data for the right eye and the image data for the left eye are generated. Specifically, the parallax image generation module 616 uses the parallax between the right eye and the left eye so that the stereoscopic image 200 is visually recognized at the display position included in the read image data when viewed from the eye position of the viewer 4. Then, the image data for the right eye and the image data for the left eye for controlling the liquid crystal panel 22 are generated. A part or all of the functions of the parallax image generation module 616 may be provided separately from the display control device 30 of the vehicle display system 10.

表示制御モジュール618は、視差画像生成モジュール616が生成した右目用画像データ及び左目用画像データに基づき、液晶パネル22に右目用画像と左目用画像とを順次切り替えて表示する。表示制御モジュール618は、例えば、120Hz以上の周波数で右目用画像と左目用画像とを切り替える。これにより、画像に対する違和感が低減する60Hz以上の周波数で右目用画像と左目用画像との双方が視認される。 The display control module 618 sequentially switches between the right eye image and the left eye image and displays them on the liquid crystal panel 22 based on the right eye image data and the left eye image data generated by the parallax image generation module 616. The display control module 618 switches between a right-eye image and a left-eye image at a frequency of, for example, 120 Hz or higher. As a result, both the right-eye image and the left-eye image are visually recognized at a frequency of 60 Hz or higher, which reduces discomfort with respect to the image.

光源制御モジュール620は、目位置検出モジュール606が取得した視認者4の左目4Lの位置及び右目4Rの位置に基づき、左目4Lの位置が存在する視域Eに向かう左目用光源と、右目4Rの位置が存在する視域Eに向かう右目用光源と、を光源群60の中から選択し、表示制御モジュール618が、液晶パネル22に左目用画像を表示するのに合わせて左目用光源を点灯させ、液晶パネル22に右目用画像を表示するのに合わせて右目用光源を点灯させる。これを図6Aで説明すると、光源制御モジュール620は、液晶パネル22に左目用画像を表示するのに合わせて、左目4Lが配置される視域E1に画像光50(照明光)を向ける第1光源61を発光させ、この第1光源61以外を消灯させ(対応する視域Eで画像が視認しづらい程度に輝度を低下させることも含む。)、次に、液晶パネル22に右目用画像を切り替えて表示するのに合わせて、右目4Rが配置される視域E3に画像光50(照明光)を向ける第3光源63を発光させるこの第3光源63以外を消灯させる(対応する視域Eで画像が視認しづらい程度に輝度を低下させることも含む。)。 The light source control module 620 is based on the position of the left eye 4L and the position of the right eye 4R of the viewer 4 acquired by the eye position detection module 606, and the light source for the left eye toward the viewing range E where the position of the left eye 4L exists, and the light source for the right eye 4R. A light source for the right eye toward the viewing area E where the position exists is selected from the light source group 60, and the display control module 618 turns on the light source for the left eye as the image for the left eye is displayed on the liquid crystal panel 22. , The right eye light source is turned on in accordance with displaying the right eye image on the liquid crystal panel 22. Explaining this with reference to FIG. 6A, the light source control module 620 directs the image light 50 (illumination light) to the visual range E1 in which the left eye 4L is arranged in accordance with displaying the image for the left eye on the liquid crystal panel 22. The light source 61 is made to emit light, all the lights other than the first light source 61 are turned off (including reducing the brightness to the extent that the image is difficult to see in the corresponding viewing area E), and then the image for the right eye is displayed on the liquid crystal panel 22. The third light source 63 that directs the image light 50 (illumination light) to the viewing area E3 where the right eye 4R is arranged is turned off in accordance with the switching and display, and the lights other than the third light source 63 are turned off (corresponding viewing area E). It also includes reducing the brightness to the extent that the image is difficult to see.)

光源制御モジュール620は、メモリ36に、視認者4の左右の目の位置(又は視認者4の左右の目が配置される視域E)と、視認者4の目の位置に画像光50(照明光)を向ける光源群60の各光源61〜64とを対応付けたテーブルデータを予め格納しておき、このテーブルデータを読み出すことで、視認者4の左右の目の位置(又は視認者4の左右の目が配置される視域E)に対応した光源61〜64を設定する。光源61〜64を設定するための視認者4の左右の目の位置は、左右方向(X軸方向)の座標を少なくとも含み、好ましくは、奥行方向(Z軸方向)の座標を含む(高さ方向(Y軸方向)の座標を含んでいてもよい。)。 The light source control module 620 has the image light 50 (or the position of the left and right eyes of the viewer 4 (or the viewing area E where the left and right eyes of the viewer 4 are arranged) and the image light 50 (or the position of the eyes of the viewer 4) in the memory 36. Table data associated with each of the light sources 61 to 64 of the light source group 60 to which the illumination light is directed is stored in advance, and by reading this table data, the positions of the left and right eyes of the viewer 4 (or the viewer 4). Light sources 61 to 64 corresponding to the visual range E) in which the left and right eyes of the above are arranged are set. The positions of the left and right eyes of the viewer 4 for setting the light sources 61 to 64 include at least the coordinates in the left-right direction (X-axis direction), and preferably include the coordinates in the depth direction (Z-axis direction) (height). It may include the coordinates of the direction (Y-axis direction).

図9Aは、図6Aに示す視認者の目の配置において、液晶パネル22が表示する画像と、各光源61〜64の駆動状態との関係を示すタイミングチャートである。図6Aに示す状態では、視認者4の左目4Lは、視域E1内であり、第1光源61が対応し(第1光源61が左目用光源。)、右目4Rは、視域E3内であり、第3光源63が対応する(第3光源63が右目用光源。)。時間t11から時間t12の間(時間t13から時間t14の間も同様。)、液晶パネル22は、左目用画像を表示し、光源群60のうち左目用光源である第1光源61のみ高輝度で発光させ、それ以外の光源62,63,64を低輝度に設定する(消灯も含む)。これにより、光源62,63,64に対応する視域E2,403,404では、液晶パネル22で表示される画像(左目用画像)が視認されにくくなる(視認されない)。したがって、視域E3に配置された視認者4の右目4Rには、左目用画像の画像光が入射されにくくなる(入射されない)ため、右目4Rに左目用画像の画像光が入射するクロストークを発生しにくくすることができる。次に、時間t12から時間t13の間(時間t14から時間t15の間も同様。)、液晶パネル22は、右目用画像を表示し、光源群60のうち右目用光源である第3光源63のみ高輝度で発光させ、それ以外の光源61,62,64を低輝度に設定する(消灯も含む)。これにより、光源61,62,64に対応する視域E1,402,404では、液晶パネル22で表示される画像(右目用画像)が視認されにくくなる(視認されない)。したがって、視域E1に配置された視認者4の左目4Lには、右目用画像の画像光が入射されにくくなる(入射されない)ため、左目4Lに右目用画像の画像光が入射するクロストークを発生しにくくすることができる。 FIG. 9A is a timing chart showing the relationship between the image displayed by the liquid crystal panel 22 and the driving state of each of the light sources 61 to 64 in the arrangement of the eyes of the viewer shown in FIG. 6A. In the state shown in FIG. 6A, the left eye 4L of the viewer 4 is in the viewing area E1, the first light source 61 corresponds (the first light source 61 is the light source for the left eye), and the right eye 4R is in the viewing area E3. Yes, the third light source 63 corresponds (the third light source 63 is the light source for the right eye). Between time t11 and time t12 (the same applies between time t13 and time t14), the liquid crystal panel 22 displays an image for the left eye, and only the first light source 61, which is the light source for the left eye, has high brightness in the light source group 60. Light is emitted, and the other light sources 62, 63, and 64 are set to low brightness (including turning off). As a result, in the viewing areas E2, 403, 404 corresponding to the light sources 62, 63, 64, the image (image for the left eye) displayed on the liquid crystal panel 22 becomes difficult to see (not visible). Therefore, since it is difficult (not incident) that the image light of the left eye image is incident on the right eye 4R of the viewer 4 arranged in the view area E3, crosstalk is caused in which the image light of the left eye image is incident on the right eye 4R. It can be made less likely to occur. Next, between the time t12 and the time t13 (the same applies between the time t14 and the time t15), the liquid crystal panel 22 displays the image for the right eye, and only the third light source 63, which is the light source for the right eye, is displayed in the light source group 60. Light is emitted with high brightness, and the other light sources 61, 62, 64 are set to low brightness (including turning off). As a result, in the viewing areas E1, 402, 404 corresponding to the light sources 61, 62, 64, the image (image for the right eye) displayed on the liquid crystal panel 22 becomes difficult to see (not visible). Therefore, the image light of the image for the right eye is less likely to be incident (not incident) on the left eye 4L of the viewer 4 arranged in the view area E1, so that crosstalk is caused in which the image light of the image for the right eye is incident on the left eye 4L. It can be made less likely to occur.

図9Bは、図6Aに示す視認者の目の配置において、液晶パネル22が表示する画像と、各光源61〜64の駆動状態との関係の変形例を示すタイミングチャートである。時間t21から時間t22の間の期間TDISP(時間t23から時間t24の間の期間TDISPも同様。)、液晶パネル22は、左目用画像を表示し、光源群60のうち左目用光源である第1光源61のみ左目用画像が表示される期間TDISPより短い期間TLITEの間だけ、高輝度で発光させ、それ以外の光源62,63,64を低輝度に設定する(消灯も含む)。続けて、時間t22から時間t23の間の期間TDISP(時間t14から時間t15の間の期間TDISPも同様。)、液晶パネル22は、右目用画像を表示し、光源群60のうち右目用光源である第3光源63を、期間TDISPより短い期間TLITEの間だけ、高輝度で発光させ、それ以外の光源61,62,64を低輝度に設定する(消灯も含む)。したがって、液晶パネル22が左目用画像と右目用画像とが切り替わる時間t22,t23,t24の前後で、全ての光源が消灯となる(すなわち、黒表示となる)。これにより、液晶パネル22の表示タイミングと各光源61,62,63,64の点灯タイミングにずれが生じた際に、意図しない画像の光が意図しない視域Eに向かうことを防止することができ、延いては、クロストークを発生しにくくすることができる。 FIG. 9B is a timing chart showing a modified example of the relationship between the image displayed by the liquid crystal panel 22 and the driving state of each of the light sources 61 to 64 in the arrangement of the eyes of the viewer shown in FIG. 6A. The period T DISP between the time t21 and the time t22 (the same applies to the period T DISP between the time t23 and the time t24), the liquid crystal panel 22 displays the image for the left eye, and is the light source for the left eye in the light source group 60. only during the period T DISP shorter periods of time T LITE the left-eye image only the first light source 61 is displayed, light is emitted at a high luminance, and sets the light source 62, 63, 64 otherwise a low luminance (including off) .. Subsequently, the period T DISP between the time t22 and the time t23 (the same applies to the period T DISP between the time t14 and the time t15), the liquid crystal panel 22 displays the image for the right eye, and the light source group 60 for the right eye. The third light source 63, which is a light source, is made to emit light with high brightness only during a period T LITE shorter than the period T DISP , and the other light sources 61, 62, 64 are set to low brightness (including turning off). Therefore, all the light sources are turned off (that is, black is displayed) before and after the time t22, t23, and t24 when the liquid crystal panel 22 switches between the left-eye image and the right-eye image. As a result, when the display timing of the liquid crystal panel 22 and the lighting timing of the light sources 61, 62, 63, 64 deviate from each other, it is possible to prevent the light of the unintended image from heading to the unintended view range E. In the end, crosstalk can be made less likely to occur.

図9Cは、図6Aに示す視認者の目の配置において、液晶パネル22が表示する画像と、各光源61〜64の駆動状態との関係の変形例を示すタイミングチャートである。図9Cの例では、液晶パネル22が左目用画像と右目用画像とを切り替える間(時間t31〜t32、時間t33〜t34、時間t35〜t36)に、左目用画像又は右目用画像を表示しない黒表示とし、この黒表示の間に、左目用光源と右目用光源との点消灯を切り替える(すなわち、黒表示となる)。これによっても、液晶パネル22の表示タイミングと各光源61,62,63,64の点灯タイミングにずれが生じた際に、意図しない画像の光が意図しない視域Eに向かうことを防止することができ、延いては、クロストークを発生しにくくすることができる。 FIG. 9C is a timing chart showing a modified example of the relationship between the image displayed by the liquid crystal panel 22 and the driving state of each of the light sources 61 to 64 in the arrangement of the eyes of the viewer shown in FIG. 6A. In the example of FIG. 9C, the left eye image or the right eye image is not displayed while the liquid crystal panel 22 switches between the left eye image and the right eye image (time t31 to t32, time t33 to t34, time t35 to t36). During this black display, the left-eye light source and the right-eye light source are switched on and off (that is, the display is black). This also prevents the light of the unintended image from heading to the unintended view range E when the display timing of the liquid crystal panel 22 and the lighting timing of the light sources 61, 62, 63, 64 deviate from each other. It can be done, and by extension, crosstalk can be made less likely to occur.

図9Dは、図6Aに示す視認者の目の配置において、液晶パネル22が表示する画像と、各光源61〜64の駆動状態との関係の変形例を示すタイミングチャートである。図9Dの例では、液晶パネル22が左目用画像と右目用画像とを切り替える間(時間t41〜t42、時間t43〜t44、時間t45〜t46)に、左目用画像又は右目用画像を表示しない黒表示とし、さらに、この黒表示の間に、全ての光源が消灯となる(すなわち、黒表示となる)。これによっても、液晶パネル22の表示タイミングと各光源61,62,63,64の点灯タイミングにずれが生じた際に、意図しない画像の光が意図しない視域Eに向かうことを防止することができ、延いては、クロストークを発生しにくくすることができる。 FIG. 9D is a timing chart showing a modified example of the relationship between the image displayed by the liquid crystal panel 22 and the driving state of each of the light sources 61 to 64 in the arrangement of the eyes of the viewer shown in FIG. 6A. In the example of FIG. 9D, the black image that does not display the left eye image or the right eye image while the liquid crystal panel 22 switches between the left eye image and the right eye image (time t41 to t42, time t43 to t44, time t45 to t46). The display is displayed, and during this black display, all the light sources are turned off (that is, the black display is displayed). This also prevents the light of the unintended image from heading to the unintended view range E when the display timing of the liquid crystal panel 22 and the lighting timing of the light sources 61, 62, 63, 64 deviate from each other. It can be done, and by extension, crosstalk can be made less likely to occur.

図10は、HUD装置20が立体画像を表示する際の処理を示すフローチャートである。プロセッサ34は、ステップS1において、目位置検出モジュール606を実行することで、視認者4の左目4Lの位置と、右目4Rの位置と、を検出し(又は推定し)する。 FIG. 10 is a flowchart showing a process when the HUD device 20 displays a stereoscopic image. In step S1, the processor 34 detects (or estimates) the position of the left eye 4L and the position of the right eye 4R of the viewer 4 by executing the eye position detection module 606.

ステップS2において、プロセッサ34は、視差画像生成モジュール616を実行することで、グラフィックモジュール614が生成した画像データと、ステップS1で取得した視認者4の左目4Lの位置及び右目4Rの位置とに基づき、左目用画像データと、右目用画像データと、を生成する。 In step S2, the processor 34 executes the parallax image generation module 616 based on the image data generated by the graphic module 614 and the positions of the left eye 4L and the right eye 4R of the viewer 4 acquired in step S1. , The image data for the left eye and the image data for the right eye are generated.

ステップS3において、プロセッサ34は、光源制御モジュール620を実行することで、ステップS1で取得した視認者4の左目4Lの位置及び右目4Rの位置に基づき、左目用光源と、右目用光源とを設定する(ステップS3)。なお、ステップS2、ステップS3の順番は逆であってもよく、同時に実行されてもよい。 In step S3, the processor 34 sets the light source for the left eye and the light source for the right eye based on the positions of the left eye 4L and the right eye 4R of the viewer 4 acquired in step S1 by executing the light source control module 620. (Step S3). The order of steps S2 and S3 may be reversed, or they may be executed at the same time.

ステップS4において、プロセッサ34及び画像処理回路38は、左目用画像及び右目用画像を液晶パネル22に交互表示しつつ、これと同期して、左目用光源、及び右目用光源を交互に点消灯する。 In step S4, the processor 34 and the image processing circuit 38 alternately display the left-eye image and the right-eye image on the liquid crystal panel 22, and in synchronization with the display, the left-eye light source and the right-eye light source are alternately turned on and off. ..

上述の処理プロセスの動作は、汎用プロセッサ又は特定用途向けチップなどの情報処理装置の1つ以上の機能モジュールを実行させることにより実施することができる。これらのモジュール、これらのモジュールの組み合わせ、又は/及びそれらの機能を代替えし得る公知のハードウェアとの組み合わせは全て、本発明の保護の範囲内に含まれる。 The operation of the processing process described above can be carried out by executing one or more functional modules of an information processing device such as a general-purpose processor or a chip for a specific purpose. All of these modules, combinations of these modules, and / and combinations with known hardware that can replace their functionality are within the scope of the protection of the present invention.

車両用表示システム10の機能ブロックは、任意選択的に、説明される様々な実施形態の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実行される。図8で説明する機能ブロックが、説明される実施形態の原理を実施するために、任意選択的に、組み合わされ、又は1つの機能ブロックを2以上のサブブロックに分離されてもいいことは、当業者に理解されるだろう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割を、任意選択的に支持する。 The functional blocks of the vehicle display system 10 are optionally performed by hardware, software, or a combination of hardware and software to implement the principles of the various embodiments described. The functional blocks described in FIG. 8 may be optionally combined or one functional block separated into two or more subblocks in order to implement the principles of the embodiments described. It will be understood by those skilled in the art. Accordingly, the description herein optionally supports any possible combination or division of functional blocks described herein.

なお、本実施形態の車両用表示システム10は、上記モジュール602〜620の一部又は全部の機能が、車両用表示システム10の表示制御装置30とは別(例えば、車両ECU501)に設けられてもよい。 In the vehicle display system 10 of the present embodiment, some or all the functions of the modules 602 to 620 are provided separately from the display control device 30 of the vehicle display system 10 (for example, the vehicle ECU 501). May be good.

なお、上記実施形態では、複数の視域Eのうち、左目用画像が表示される左目視域ELが1つであり、右目用画像が表示される右目視域ERが1つであったが、これに限定されるものではなく、左目用画像、及び/又は右目用画像が、複数の視域Eに表示されていてもよい。左目用画像、及び/又は右目用画像が、複数の視域Eに表示される場合、目が存在する左目視域EL(又はER)に隣り合った1つ又は複数の視域Eにも画像を表示しておくことが好ましい。このように、目が存在する左目視域EL(又はER)に隣り合った1つ又は複数の視域Eにも画像を表示しておくことで、視認者4の目の位置が移動し、視域Eを跨いだ場合であっても、既にその視域Eに所望の画像が表示されているため、遅延なく、視認者4に所望の画像を視認させることができるという利点がある。 In the above embodiment, of the plurality of viewing areas E, one is the left visual area EL on which the image for the left eye is displayed, and one is the right visual area ER on which the image for the right eye is displayed. , But not limited to this, the image for the left eye and / or the image for the right eye may be displayed in a plurality of view areas E. When the left eye image and / or the right eye image is displayed in a plurality of view areas E, the image is also displayed in one or more view areas E adjacent to the left view area EL (or ER) in which the eyes are present. Is preferably displayed. In this way, by displaying the image in one or a plurality of view areas E adjacent to the left view area EL (or ER) in which the eyes exist, the position of the eyes of the viewer 4 can be moved. Even when the view area E is straddled, since the desired image is already displayed in the view area E, there is an advantage that the viewer 4 can visually recognize the desired image without delay.

図11A乃至図11Dは、第1表示モードにおける、左目用画像、及び/又は右目用画像が、複数の視域Eに表示される態様を示す図である。これらの図において、符号ELは、左目4Lが位置する視域Eを示し、符号ERは、右目4Rが位置する視域Eを示す。なお、図11A乃至図11Dでは、左目用画像、及び右目用画像を同時に表示しているように示してあるが、図11A乃至図11Dに記載された左目用画像と、図11A乃至図11Dに記載された右目用画像とは、時分割に表示されるものであってもよい。すなわち、1フレームが、左目用画像を表示する1つ又は複数のフィールドと、右目用画像を表示する1つ又は複数のフィールドと、を含んでいてもよい。図11A乃至図11Dでは、符号ELI1、ERI1は、左目4Lと右目4Rとの間の、画像が表示されている視域を示し、符号ELO1、ELO2、ELO3、・・・(符号の数字は左目視域ELに近い方から昇順である。)、及び符号ERO1、ERO2、ERO3、・・・(符号の数字は右目視域ERに近い方から昇順である。)は、左目4Lと右目4Rとの間ではない、画像が表示されている視域を示す。 11A to 11D are diagrams showing a mode in which the left-eye image and / or the right-eye image in the first display mode are displayed in a plurality of viewing areas E. In these figures, the reference numeral EL indicates the viewing area E in which the left eye 4L is located, and the reference numeral ER indicates the viewing area E in which the right eye 4R is located. Although the left-eye image and the right-eye image are shown to be displayed at the same time in FIGS. 11A to 11D, the left-eye image shown in FIGS. 11A to 11D and the left-eye image and FIGS. 11A to 11D show. The described right-eye image may be displayed in a time-division manner. That is, one frame may include one or more fields for displaying the left eye image and one or more fields for displaying the right eye image. In FIGS. 11A to 11D, the reference numerals ELI1 and ERI1 indicate the view areas where the images are displayed between the left eye 4L and the right eye 4R, and the reference numerals ELO1, ELO2, ELO3, ... (The numbers in the code are in ascending order from the side closer to the right visual area ER), and the codes ERO1, ERO2, ERO3, ... (The numbers in the code are in ascending order from the side closer to the right visual area ER) are the left eye 4L and the right eye 4R. Indicates the viewshed in which the image is displayed, not between.

図11Aを参照する。いくつかの実施形態では、表示制御装置30は、目が存在する左目視域EL(ER)と、その両隣の左目視域ELI1、ELO1(ERI1、ERO1)と、左目用画像(右目用画像)を表示してもよい。すなわち、表示制御装置30は、左目4Lが存在する視域E5(EL)と、左目4Lが存在する視域E5(EL)より内側(右目4R側)の視域E6(ELI1)と、左目4Lが存在する視域E5(EL)より外側(右目4Rとは反対側)の視域E4(ELO1)と、に左目用画像を表示し、かつ右目4Rが存在する視域E8(ER)と、右目4Rが存在する視域E8(ER)より内側(左目4L側)の視域E7(ERI1)と、右目4Rが存在する視域E8(ER)より外側(左目4Lとは反対側)の視域E9(ERO1)と、に右目用画像を表示する。 See FIG. 11A. In some embodiments, the display control device 30 comprises a left-viewed area EL (ER) in which the eyes are present, left-viewed areas ELI1, ELO1 (ERI1, ERO1) adjacent to the left-viewed area EL (ER), and an image for the left eye (image for the right eye). May be displayed. That is, the display control device 30 has a viewing area E5 (EL) in which the left eye 4L exists, a viewing area E6 (ELI1) inside the viewing area E5 (EL) in which the left eye 4L exists (right eye 4R side), and a left eye 4L. The left eye image is displayed in the view area E4 (ELO1) outside the view area E5 (EL) where the right eye 4R exists (the side opposite to the right eye 4R), and the view area E8 (ER) in which the right eye 4R exists. The view E7 (ERI1) inside the view area E8 (ER) where the right eye 4R exists (on the left eye 4L side) and the view outside the view area E8 (ER) where the right eye 4R exists (opposite the left eye 4L side). The image for the right eye is displayed in the area E9 (ERO1).

次に、図11Bを参照する。いくつかの実施形態では、表示制御装置30は、全ての視域Eに、左目用画像又は右目用画像を表示するようにしてもよい。具体的には、左目4Lと右目4Rとの間を境界にして、左目4L側の視域E1〜E6に左目用画像を表示し、かつ右目4R側の視域E7〜E12に右目用画像を表示してもよい。 Next, refer to FIG. 11B. In some embodiments, the display control device 30 may display a left-eye image or a right-eye image in all view areas E. Specifically, the image for the left eye is displayed in the viewing areas E1 to E6 on the left eye 4L side, and the image for the right eye is displayed in the viewing areas E7 to E12 on the right eye 4R side with the boundary between the left eye 4L and the right eye 4R. It may be displayed.

また、図11Cに示すように、いくつかの実施形態では、表示制御装置30は、左目4Lが位置する左目視域EL(E5)を基準とする左目画像が表示される左目視域ELO1(E4),ELO2(E3)の配置と、右目4Rが位置する左目視域EL(E8)を基準とする右目画像が表示される左目視域ELI1(E7),ELO1(E9)の配置と、を異ならせてもよい。 Further, as shown in FIG. 11C, in some embodiments, the display control device 30 displays the left-viewed area ELO1 (E4) on which the left-eye area image based on the left-viewed area EL (E5) where the left-eye 4L is located is displayed. ), The arrangement of ELO2 (E3) and the arrangement of the left visual area ELI1 (E7) and ELO1 (E9) on which the right eye image based on the left visual area EL (E8) where the right eye 4R is located are different. You may let me.

また、図11Dに示すように、いくつかの実施形態では、表示制御装置30は、左目画像が表示される左目視域EL(E5)、ELO1(E4)の数(2つ)と、右目画像が表示される右目視域ER(E8)、ERI1(E7)、ERO1(E8)の数(3つ)と、を異ならせてもよい。 Further, as shown in FIG. 11D, in some embodiments, the display control device 30 determines the number (2) of the left visual area EL (E5) and ELO1 (E4) on which the left eye image is displayed, and the right eye image. The number (3) of the right visual area ER (E8), ERI1 (E7), and ERO1 (E8) in which is displayed may be different.

1…車両、2…フロントウインドシールド、4…視認者、4L…左目、4R…右目、5…ダッシュボード、10…車両用表示システム、20…HUD装置(ヘッドアップディスプレイ装置)、21…3D表示器、22…液晶パネル、24…バックライトモジュール、25…リレー光学系、26…第1ミラー、28…第2ミラー、30…表示制御装置、32…I/Oインタフェース、34…プロセッサ、36…メモリ、38…画像処理回路、40…視点検出カメラ、50…画像光、50p…光軸、51…第1画像光、52…第2画像光、53…第3画像光、60…光源群、70…照明光学系、71…第1レンズ、73…第2レンズ、75…拡散板、90…虚像光学系、95…集光光学系、100…虚像表示領域、200…立体画像、201…遠方立体画像、202…近傍立体画像、310…路面、411…目位置検出部、501…車両ECU、503…道路情報データベース、505…自車位置検出部、507…車外センサ、509…視線方向検出部、511…目位置検出部、513…携帯情報端末、520…車外通信接続機器、602…実オブジェクト関連情報検出モジュール、604…実オブジェクト位置設定モジュール、606…目位置検出モジュール、608…報知必要度判定モジュール、610…画像位置決定モジュール、612…画像サイズ決定モジュール、614…グラフィックモジュール、616…視差画像生成モジュール、618…表示制御モジュール、620…光源制御モジュール、E…視域。
1 ... Vehicle, 2 ... Front windshield, 4 ... Viewer, 4L ... Left eye, 4R ... Right eye, 5 ... Dashboard, 10 ... Vehicle display system, 20 ... HUD device (head-up display device), 21 ... 3D display Instrument, 22 ... LCD panel, 24 ... Backlight module, 25 ... Relay optical system, 26 ... First mirror, 28 ... Second mirror, 30 ... Display control device, 32 ... I / O interface, 34 ... Processor, 36 ... Memory, 38 ... image processing circuit, 40 ... viewpoint detection camera, 50 ... image light, 50p ... optical axis, 51 ... first image light, 52 ... second image light, 53 ... third image light, 60 ... light source group, 70 ... Illumination optical system, 71 ... 1st lens, 73 ... 2nd lens, 75 ... Diffusing plate, 90 ... Virtual image optical system, 95 ... Condensing optical system, 100 ... Virtual image display area, 200 ... Stereoscopic image, 201 ... Far Stereoscopic image, 202 ... Near stereoscopic image, 310 ... Road surface, 411 ... Eye position detection unit, 501 ... Vehicle ECU, 503 ... Road information database, 505 ... Own vehicle position detection unit, 507 ... External sensor, 509 ... Line-of-sight direction detection unit 511 ... Eye position detection unit, 513 ... Mobile information terminal, 520 ... External communication connection device, 602 ... Real object related information detection module, 604 ... Real object position setting module, 606 ... Eye position detection module, 608 ... Notification necessity Judgment module, 610 ... Image position determination module, 612 ... Image size determination module, 614 ... Graphic module, 616 ... Disparity image generation module, 618 ... Display control module, 620 ... Light source control module, E ... Visibility.

Claims (4)

複数の光源が配列された光源群(60)と、
前記光源群(60)からの照明光を空間光変調して、左目用画像、及び右目用画像の画像光を出射する液晶パネル(22)と、
前記液晶パネル(22)からの前記画像光を、前記光源群(60)の前記光源の位置に応じてシフトされた視域(E)にそれぞれ集光させる集光光学系(95)と、
前記視認者の左目の位置、及び右目の位置を取得、又は推定し、
前記左目が配置される左目視域(EL)に前記画像光が集光される左目用光源(60L)と、前記右目が配置される右目視域(ER)に前記画像光が集光される右目用光源(60R)と、を交互に発光強度を増加させ、
前記液晶パネル(22)が前記左目用画像を表示する際、前記左目用光源(60L)の発光強度を増加させ、
前記液晶パネル(22)が前記右目用画像を表示する際、前記右目用光源(60R)の発光強度を増加させる、表示制御部(30)と、から構成される、
ヘッドアップディスプレイ装置。
A group of light sources (60) in which a plurality of light sources are arranged, and
A liquid crystal panel (22) that spatially modulates the illumination light from the light source group (60) and emits the image light of the left eye image and the right eye image.
A condensing optical system (95) for condensing the image light from the liquid crystal panel (22) into a viewing area (E) shifted according to the position of the light source in the light source group (60).
Acquire or estimate the position of the left eye and the position of the right eye of the viewer,
The image light is focused on the left eye light source (60L) in which the image light is focused in the left visual region (EL) where the left eye is arranged, and in the right visual region (ER) where the right eye is arranged. The light source for the right eye (60R) and the light source for the right eye (60R) are alternately increased in emission intensity.
When the liquid crystal panel (22) displays the image for the left eye, the emission intensity of the light source for the left eye (60L) is increased.
When the liquid crystal panel (22) displays the image for the right eye, it is composed of a display control unit (30) that increases the emission intensity of the light source for the right eye (60R).
Head-up display device.
前記表示制御部(30)は、
前記視認者の左右の目がない前記視域(E)に前記画像光が集光される前記光源を消灯する、
請求項1に記載のヘッドアップディスプレイ装置。
The display control unit (30)
The light source at which the image light is focused in the viewing area (E) without the left and right eyes of the viewer is turned off.
The head-up display device according to claim 1.
前記集光光学系(95)は、
前記光源群(60)と前記液晶パネル(22)との間の前記照明光の光路上に配置された正の光学的パワーを有するレンズ(71)と、
前記液晶パネル(22)と前記視域(E)との間の前記画像光の光路上に配置された正の光学的パワーを有する凹面ミラー(26)と、を含む、
請求項1に記載のヘッドアップディスプレイ装置。
The condensing optical system (95)
A lens (71) having positive optical power arranged on the optical path of the illumination light between the light source group (60) and the liquid crystal panel (22).
Includes a concave mirror (26) having positive optical power arranged on the optical path of the image light between the liquid crystal panel (22) and the view area (E).
The head-up display device according to claim 1.
前記レンズ(71)は、レンチキュラレンズである、
請求項3に記載のヘッドアップディスプレイ装置。

The lens (71) is a lenticular lens.
The head-up display device according to claim 3.

JP2019178778A 2019-09-30 2019-09-30 Head-up display device Pending JP2021056358A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019178778A JP2021056358A (en) 2019-09-30 2019-09-30 Head-up display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019178778A JP2021056358A (en) 2019-09-30 2019-09-30 Head-up display device

Publications (1)

Publication Number Publication Date
JP2021056358A true JP2021056358A (en) 2021-04-08

Family

ID=75270621

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019178778A Pending JP2021056358A (en) 2019-09-30 2019-09-30 Head-up display device

Country Status (1)

Country Link
JP (1) JP2021056358A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022210717A1 (en) 2021-03-30 2022-10-06 三菱ケミカル株式会社 Pretreatment agent for inkjet textile printing and inkjet textile printing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022210717A1 (en) 2021-03-30 2022-10-06 三菱ケミカル株式会社 Pretreatment agent for inkjet textile printing and inkjet textile printing method

Similar Documents

Publication Publication Date Title
CN108473054B (en) Head-up display device
JP6485732B2 (en) Information providing apparatus, information providing method, and information providing control program
JP6699675B2 (en) Information provision device
JP7300112B2 (en) Control device, image display method and program
JP6504431B2 (en) IMAGE DISPLAY DEVICE, MOBILE OBJECT, IMAGE DISPLAY METHOD, AND PROGRAM
JP2016107947A (en) Information providing device, information providing method, and control program for providing information
JP7459883B2 (en) Display control device, head-up display device, and method
WO2021015171A1 (en) Head-up display
JP2021056358A (en) Head-up display device
WO2022230995A1 (en) Display control device, head-up display device, and display control method
WO2021200914A1 (en) Display control device, head-up display device, and method
WO2021065700A1 (en) Display control device, head-up display device, and method
JPWO2018030320A1 (en) Vehicle display device
JP6814416B2 (en) Information providing device, information providing method, and information providing control program
JP6726412B2 (en) Image display device, moving body, image display method and program
JP2020121607A (en) Display control device, method and computer program
JP7434894B2 (en) Vehicle display device
WO2023003045A1 (en) Display control device, head-up display device, and display control method
JP2023077857A (en) Head up display device
JP2022057049A (en) Display control device and head-up display device
JP2022085399A (en) Display controller, headup display device, and method for display control
JP2022129521A (en) Display controller, head-up display device, and display control method
JP2022113292A (en) Display control device, head-up display device, and display control method
JP2022171105A (en) Display control device, head-up display device, and display control method
JP2022077138A (en) Display controller, head-up display device, and display control method