JP2022190724A - Display control device, head-up display device and display control method - Google Patents

Display control device, head-up display device and display control method Download PDF

Info

Publication number
JP2022190724A
JP2022190724A JP2021099106A JP2021099106A JP2022190724A JP 2022190724 A JP2022190724 A JP 2022190724A JP 2021099106 A JP2021099106 A JP 2021099106A JP 2021099106 A JP2021099106 A JP 2021099106A JP 2022190724 A JP2022190724 A JP 2022190724A
Authority
JP
Japan
Prior art keywords
image
vehicle
display
eye
correction amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021099106A
Other languages
Japanese (ja)
Inventor
誠 秦
Makoto Hata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2021099106A priority Critical patent/JP2022190724A/en
Publication of JP2022190724A publication Critical patent/JP2022190724A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instrument Panels (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

To provide a display control device, a head-up display device and a display control method which give a motion parallax that does not give a sense of discomfort to an observer.SOLUTION: A display control device comprises: first image correction processing of acquiring the eye position and/or head position of a user in the vertical direction of the vehicle and the eye position and/or head position in the left-right direction of the vehicle, and correcting the position of an image to be displayed on a display unit with a first correction amount based on at least a change in the eye position or the head position in the vertical direction and in the eye position or the head position in the left-right direction; and second image correction processing of correcting the position of the image to be displayed on the display unit with a second correction amount obtained by multiplying the first correction amount by a first prescribed coefficient equal to or less than 1. The display control device executes the first image correction processing when the distance from the vehicle to a real object in the foreground is equal to or less than a first distance threshold, and executes the second image correction processing when the distance from the vehicle to the real object in the foreground is greater than the first distance threshold.SELECTED DRAWING: Figure 13

Description

本開示は、車両等の移動体で使用され、移動体の前景(車両の乗員から見た移動体の前進方向の実景)に画像を重畳して視認させる表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法等に関する。 The present disclosure relates to a display control device, a head-up display device, and a head-up display device that are used in a mobile object such as a vehicle and superimpose an image on the foreground of the mobile object (actual view in the forward direction of the mobile object seen from the vehicle occupant). It relates to a display control method and the like.

特許文献1には、車両のフロントウインドシールド等の被投影部に投射される表示光が、車両の内側にいる車両の乗員(観察者)に向けて反射されることで、観察者に、車両の前景と重なる虚像を視認させるヘッドアップディスプレイ装置(虚像表示装置の一例)が記載されている。特に、特許文献1に記載のヘッドアップディスプレイ装置は、前景の実空間内の奥行きや上下左右方向の所定の位置(ここでは、前記位置をターゲット位置ということにする。)に仮想的に表示オブジェクト(虚像)を知覚させ、車両の姿勢の変化があった場合や観察者の目位置の変化があった場合であっても、あたかも前景のターゲット位置に表示オブジェクトが存在するかのように、ヘッドアップディスプレイ装置の内部で表示する画像を制御する。すなわち、このようなヘッドアップディスプレイ装置は、現実の風景(前景)に仮想オブジェクトを付加して表示する拡張現実を形成し、車両の姿勢の変化(これも実景に対する観察者の目位置の変化につながる)や車両内で観察者の目位置の変化した際でも、カメラ等の目位置検出部で検出された観察者の目位置の変化に応じて、ヘッドアップディスプレイ装置の内部で表示する画像の位置等を補正することで、仮想オブジェクトに運動視差を与え、仮想オブジェクトが前景中(実景中)の前記ターゲット位置にあたかもあるかのように擬似的に観察者に知覚させることができる。 In Patent Document 1, display light projected onto a projection target portion such as a front windshield of a vehicle is reflected toward an occupant (observer) of the vehicle inside the vehicle, so that the observer can see the vehicle. describes a head-up display device (an example of a virtual image display device) that allows a user to visually recognize a virtual image that overlaps the foreground of the image. In particular, the head-up display device described in Patent Literature 1 virtually displays a display object at a predetermined position (here, the position is referred to as a target position) in the depth and vertical and horizontal directions in the real space of the foreground. (virtual image), and even if there is a change in the posture of the vehicle or the position of the observer's eyes, the display object will appear as if it were present at the target position in the foreground. Controls the image displayed inside the up display device. That is, such a head-up display device forms augmented reality in which virtual objects are added to the real scenery (foreground) and displayed, and changes in the attitude of the vehicle (this also changes the eye position of the observer with respect to the real scenery). connected) or when the position of the observer's eyes changes in the vehicle, the image displayed inside the head-up display device is changed according to the change in the observer's eye position detected by an eye position detection unit such as a camera. By correcting the position or the like, a motion parallax is given to the virtual object, and the observer can perceive the virtual object as if it were at the target position in the foreground (in the real scene).

特開2010-156608号公報JP 2010-156608 A

ところで、カメラなどの目位置検出部は、撮像した画像などを複雑なアルゴリズムにより、観察者の目位置(左右の目位置)を検出するが、例えば、観察者の目位置が左右方向に所定の移動量しか動いていない場合でも、検出環境によっては検出誤差や誤検出などにより、所定の移動量以上の移動量に動いていると検出(誤検出)される場合がある。そして、仮想オブジェクトへの運動視差画像は、誤検出された移動量に応じて補正され得る。これにより、左右方向の画像の位置補正は、観察者の目の位置の移動量以上となり、観察者の実感以上の移動量となり、観察者に違和感を与えることが想定され得る。 By the way, an eye position detector such as a camera detects the positions of the observer's eyes (right and left eye positions) by using a complex algorithm from captured images. Even if the object moves by only the amount of movement, it may be detected (erroneously detected) that the amount of movement exceeds a predetermined amount of movement due to detection errors or false detections depending on the detection environment. Then, the motion parallax image to the virtual object can be corrected according to the erroneously detected amount of movement. As a result, the position correction of the image in the left-right direction is greater than the amount of movement of the position of the observer's eyes, and the amount of movement is greater than the observer's real feeling, which may give the observer a sense of discomfort.

本明細書に開示される特定の実施形態の要約を以下に示す。これらの態様が、これらの特定の実施形態の概要を読者に提供するためだけに提示され、この開示の範囲を限定するものではないことを理解されたい。実際に、本開示は、以下に記載されない種々の態様を包含し得る。 A summary of certain embodiments disclosed herein follows. It should be understood that these aspects are presented only to provide the reader with an overview of these particular embodiments and are not intended to limit the scope of this disclosure. Indeed, the present disclosure may encompass various aspects not described below.

本開示の概要は、観察者に違和感のない運動視差を与える表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法等を提供することに関する。 An overview of the present disclosure relates to providing a display control device, a head-up display device, a display control method, and the like that provide a motion parallax that does not give an observer a sense of discomfort.

したがって、本明細書に記載される表示制御装置、ヘッドアップディスプレイ装置、及び表示制御方法等は、前記課題を解決するため、以下の手段を採用した。本実施形態は、画像を表示する表示器(40)、前記表示器(40)が表示する前記画像の光を被投影部材に投影するリレー光学系(80)から少なくとも構成され、車両のユーザーに前記画像の虚像を前景に重ねて視認させるヘッドアップディスプレイ装置(20)における表示制御を実行する表示制御装置(30)であって、1つ又は複数のプロセッサ(33)と、メモリ(37)と、前記メモリ(37)に格納され、前記1つ又は複数のプロセッサ(33)によって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、前記車両の周辺に存在する実オブジェクトを検出する車外センサ(411)と、を備え、前記プロセッサ(33)は、前記ユーザーの前記車両の上下方向の目位置及び/又は頭位置(Py)並びに前記車両の左右方向の目位置及び/又は頭位置(Px)を取得し、前記上下方向の目位置又は頭位置(Py)及び前記左右方向の目位置又は頭位置(Px)の変化(ΔPy)に少なくとも基づいた第1の補正量(Cx,Cy)で前記表示器(40)に表示する前記画像の位置を補正する第1の画像補正処理(S160)と、前記表示器(40)に表示する前記画像の位置を前記第1の補正量(Cx,Cy)に1以下となる第1の所定係数(Q1,R1)を掛けた第2の補正量(Cxq1,Cyr1)で補正する第2の画像補正処理(S170)と、を有し、前記車両から前記前景にある前記実オブジェクトまでの距離(D4)が、第1の距離閾値以下の場合に、前記第1の画像補正処理を実行し、前記車両から前記前景にある前記実オブジェクトまでの距離(D4)が、前記第1の距離閾値よりも大きい場合に、前記第2の画像補正処理(S170)を実行することを特徴とする。 Therefore, the display control device, the head-up display device, the display control method, and the like described in this specification employ the following means in order to solve the above problems. This embodiment comprises at least a display (40) for displaying an image, and a relay optical system (80) for projecting the light of the image displayed by the display (40) onto a projection target member. A display control device (30) for performing display control in a head-up display device (20) for visually superimposing a virtual image of the image on the foreground, comprising: one or more processors (33); a memory (37); , one or more computer programs stored in said memory (37) and configured to be executed by said one or more processors (33); and detecting real objects present in the vicinity of said vehicle. and a sensor (411) outside the vehicle, wherein the processor (33) detects the user's eye position and/or head position (Py) in the vertical direction of the vehicle and the eye position and/or head position (Py) in the horizontal direction of the vehicle. A position (Px) is obtained, and a first correction amount (Cx, Cy) a first image correction process (S160) for correcting the position of the image displayed on the display (40); a second image correction process (S170) for correcting with a second correction amount (Cxq1, Cyr1) obtained by multiplying (Cx, Cy) by a first predetermined coefficient (Q1, R1) that is 1 or less; , performing the first image correction process when a distance (D4) from the vehicle to the real object in the foreground is less than or equal to a first distance threshold; The second image correction process (S170) is performed when the distance (D4) to the image is larger than the first distance threshold.

図1は、車両用虚像表示システムの車両への適用例を示す図である。FIG. 1 is a diagram showing an application example of a vehicle virtual image display system to a vehicle. 図2は、ヘッドアップディスプレイ装置の構成を示す図である。FIG. 2 is a diagram showing the configuration of the head-up display device. 図3は、自車両の走行中において、観察者が視認する前景と、前景に重畳して表示される虚像の例を示す図である。FIG. 3 is a diagram showing an example of a foreground visually recognized by an observer and a virtual image superimposed on the foreground while the host vehicle is running. 図4は、HUD装置が3D-HUD装置である実施態様において、虚像結像面に表示される左視点虚像と右視点虚像と、これら左視点虚像と右視点虚像により観察者が知覚する知覚画像と、の位置関係を概念的に示した図である。FIG. 4 shows, in an embodiment in which the HUD device is a 3D-HUD device, a left-viewpoint virtual image and a right-viewpoint virtual image displayed on a virtual image plane, and a perceptual image perceived by an observer based on these left-viewpoint virtual images and right-viewpoint virtual images. , and is a diagram conceptually showing the positional relationship between . 図5は、実景のターゲット位置に配置される仮想オブジェクトと、仮想オブジェクトが実景のターゲット位置に視認されるように虚像表示領域に表示される画像と、を概念的に示した図である。FIG. 5 is a diagram conceptually showing a virtual object placed at a target position in the real scene and an image displayed in the virtual image display area such that the virtual object is visually recognized at the target position in the real scene. 図6は、本実施形態における運動視差付加処理の方法を説明するための図である。FIG. 6 is a diagram for explaining a method of motion parallax addition processing in this embodiment. 図7Aは、本実施形態の運動視差付加処理を行わなかった場合の、図6に示す位置Px12から視認する虚像を示す比較例である。FIG. 7A is a comparative example showing a virtual image visually recognized from the position Px12 shown in FIG. 6 when the motion parallax adding process of this embodiment is not performed. 図7Bは、本実施形態の運動視差付加処理を行った場合の、図6に示す位置Px12から視認する虚像を示す図である。FIG. 7B is a diagram showing a virtual image visually recognized from the position Px12 shown in FIG. 6 when the motion parallax adding process of this embodiment is performed. 図8は、本実施形態における上下方向の目位置(頭位置)の移動による運動視差付加処理の方法を説明するための図である。FIG. 8 is a diagram for explaining a method of motion parallax addition processing by moving the eye position (head position) in the vertical direction in this embodiment. 図9は、自車両の走行中において、観察者が視認する前景と、前景に重畳して表示される虚像の例を示す図である。FIG. 9 is a diagram showing an example of a foreground visually recognized by an observer and a virtual image displayed superimposed on the foreground while the own vehicle is running. 図10は、いくつかの実施形態の車両用虚像表示システムのブロック図である。FIG. 10 is a block diagram of a vehicle virtual image display system according to some embodiments. 図11Aは、観察者の目位置に基づき、画像補正する動作を実行する方法S100を示すフロー図である。FIG. 11A is a flow diagram illustrating a method S100 for performing image correction operations based on observer eye position. 図11Bは、図11Aに示すフロー図の一部を説明する図である。FIG. 11B is a diagram explaining part of the flow diagram shown in FIG. 11A. 図11Cは、図11Aに示すフロー図の一部を説明する図である。FIG. 11C is a diagram explaining part of the flow diagram shown in FIG. 11A. 図12は、所定の周期時間毎に検出される目位置、目位置の変化量、目位置の移動速度などを示すイメージ図である。FIG. 12 is an image diagram showing the eye position, the amount of change in the eye position, the movement speed of the eye position, etc. detected at each predetermined cycle time. 図13は、左右方向及び上下方向の目位置の変化量に対する補正量割合と物体距離との関係を説明する図である。FIG. 13 is a diagram for explaining the relationship between the ratio of the amount of correction to the amount of change in the eye position in the left-right direction and the up-down direction and the object distance.

以下、図1ないし図6、及び図7B乃至図13では、例示的な車両用表示システムの構成、及び動作の説明を提供する。なお、本発明は以下の実施形態(図面の内容も含む)によって限定されるものではない。下記の実施形態に変更(構成要素の削除も含む)を加えることができるのはもちろんである。また、以下の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略する。 1-6 and 7B-13, below, provide a description of the configuration and operation of an exemplary vehicular display system. In addition, the present invention is not limited by the following embodiments (including the contents of the drawings). Of course, modifications (including deletion of constituent elements) can be added to the following embodiments. In addition, in the following description, descriptions of known technical matters are omitted as appropriate in order to facilitate understanding of the present invention.

図1を参照する。図1は、視差式3D-HUD装置を含む車両用虚像表示システムの構成の一例を示す図である。なお、図1において、車両(移動体の一例。)1の左右方向(換言すると、自車両1の幅方向)をX軸(X軸の正方向は、自車両1の前方を向いた際の左方向。)とし、左右方向に直交すると共に、地面又は地面に相当する面(ここでは路面6)に直交する線分に沿う上下方向(換言すると、自車両1の高さ方向)をY軸(Y軸の正方向は、上方向。)とし、左右方向及び上下方向の各々に直交する線分に沿う前後方向をZ軸(Z軸の正方向は、自車両1の直進方向。)とする。この点は、他の図面においても同様である。 Please refer to FIG. FIG. 1 is a diagram showing an example of the configuration of a vehicle virtual image display system including a parallax 3D-HUD device. In FIG. 1, the left-right direction of a vehicle (an example of a moving body) 1 (in other words, the width direction of the vehicle 1) is the X axis (the positive direction of the X axis is the forward direction of the vehicle 1). leftward), and the vertical direction (in other words, the height direction of the vehicle 1) along a line segment that is orthogonal to the horizontal direction and orthogonal to the ground or a surface equivalent to the ground (here, the road surface 6) is the Y axis. (The positive direction of the Y-axis is the upward direction.), and the front-rear direction along a line segment perpendicular to each of the left-right direction and the vertical direction is the Z-axis (the positive direction of the Z-axis is the straight traveling direction of the vehicle 1.). do. This point also applies to other drawings.

図示するように、車両(自車両)1に備わる車両用表示システム10は、観察者(典型的には自車両1の運転席に着座する運転者)の左目700Lと右目700Rの位置や視線方向を検出する瞳(あるいは顔)検出用の目位置検出部409、自車両1の前方(広義には周囲)を撮像するカメラ(例えばステレオカメラ)などで構成される車外センサ411、ヘッドアップディスプレイ装置(以下では、HUD装置とも呼ぶ)20及び、HUD装置20を制御する表示制御装置30、などで構成される。 As illustrated, the vehicle display system 10 provided in the vehicle (self-vehicle) 1 displays the positions of the left eye 700L and the right eye 700R of an observer (typically, the driver sitting in the driver's seat of the self-vehicle 1) and the line-of-sight direction. An eye position detection unit 409 for detecting a pupil (or face) for detecting a vehicle exterior sensor 411 configured by a camera (for example, a stereo camera) for imaging the front (broadly speaking, the surroundings) of the own vehicle 1, a head-up display device (hereinafter also referred to as a HUD device) 20, a display control device 30 that controls the HUD device 20, and the like.

図2は、ヘッドアップディスプレイ装置の構成の一態様を示す図である。HUD装置20は、例えばダッシュボード(図1の符号5)内に配置される。このHUD装置20は、立体表示装置(表示器の一例。)40、リレー光学系80及び、これら立体表示装置40とリレー光学系80を収納し、立体表示装置40からの表示光Kを内部から外部に向けて出射可能な光出射窓21を有する筐体22、を有する。 FIG. 2 is a diagram showing one aspect of the configuration of the head-up display device. The HUD device 20 is arranged, for example, in a dashboard (reference numeral 5 in FIG. 1). The HUD device 20 accommodates a stereoscopic display device (an example of a display device) 40, a relay optical system 80, and the stereoscopic display device 40 and the relay optical system 80, and the display light K from the stereoscopic display device 40 is received from the inside. It has a housing 22 having a light exit window 21 capable of emitting light to the outside.

立体表示装置40は、ここでは視差式3D表示装置とする。この立体表示装置(視差式3D表示装置)40は、左視点画像と右視点画像とを視認させることで奥行き表現を制御可能な多視点画像表示方式を用いた裸眼立体表示装置である光変調素子50及び、バックライトとして機能する光源ユニット60、により構成される。 The stereoscopic display device 40 is assumed here to be a parallax 3D display device. This stereoscopic display device (parallax type 3D display device) 40 is an optical modulation element that is a naked-eye stereoscopic display device using a multi-viewpoint image display system capable of controlling depth expression by visually recognizing a left-viewpoint image and a right-viewpoint image. 50 and a light source unit 60 that functions as a backlight.

光変調素子50は、光源ユニット60からの照明光を光変調して画像を生成する光変調素子51及び、例えば、レンチキュラレンズやパララックスバリア(視差バリア)等を有し、光変調素子51から出射される光を、左目用の光線K11、K12及び、K13等の左目用表示光(図1の符号K10)と、右目用の光線K21、K22及び、K23等の右目用表示光(図1の符号K20)とに分離する光学レイヤ(光線分離部の一例。)52、を有する。光学レイヤ52は、レンチキュラレンズ、パララックスバリア、レンズアレイ及び、マイクロレンズアレイなどの光学フィルタを含む。但し、これは一例であり、限定されるものではない。光学レイヤ52の実施形態は、前述した光学フィルタに限定されることなく、光変調素子51から出射される光から左目用表示光(図1の符号K10)及び右目用表示光(図1の符号K20)を生成するものであれば、光変調素子51の前面又は後面に配置される全ての形態の光学レイヤを含む。光学レイヤ52のいくつかの実施形態は、電気的に制御されることで、光変調素子51から出射される光から左目用表示光(図1の符号K10)及び右目用表示光(図1の符号K20)を生成するものであってもよく、例えば、液晶レンズなどが挙げられる。すなわち、光学レイヤ52の実施形態は、電気的制御されるものと、電気的制御されないものと、を含み得る。 The light modulation element 50 has a light modulation element 51 that modulates the illumination light from the light source unit 60 to generate an image, and, for example, a lenticular lens or a parallax barrier (parallax barrier). The emitted light is divided into left-eye display light such as light rays K11, K12 and K13 (reference symbol K10 in FIG. 1) and right-eye display light such as light rays K21, K22 and K23 (FIG. 1). symbol K20) and an optical layer (an example of a light beam separating section) 52. The optical layer 52 includes optical filters such as lenticular lenses, parallax barriers, lens arrays, and microlens arrays. However, this is an example and is not limited. Embodiments of the optical layer 52 are not limited to the above-described optical filters, and may be the display light for the left eye (symbol K10 in FIG. 1) and the display light for the right eye (symbol K10 in FIG. 1) from the light emitted from the light modulation element 51. K20) includes all forms of optical layers placed in front or behind the light modulation element 51 . Some embodiments of the optical layer 52 are electrically controlled so that left-eye display light (K10 in FIG. 1) and right-eye display light (K10 in FIG. 1) are separated from light emitted from the light modulation element 51. symbol K20), such as a liquid crystal lens. That is, embodiments of optical layer 52 may include those that are electrically controlled and those that are not.

また、立体表示装置40は、光学レイヤ(光線分離部の一例。)52の代わりに又は、それに加えて、光源ユニット60を指向性バックライトユニット(光線分離部の一例。)で構成することで、左目用の光線K11、K12及び、K13等の左目用表示光(図1の符号K10)と、右目用の光線K21、K22及び、K23等の右目用表示光(図1の符号K20)と、を出射させてもよい。具体的に、例えば、後述する表示制御装置30は、指向性バックライトユニットが左目700Lに向かう照明光を照射した際に、光変調素子51に左視点画像を表示させることで、左目用の光線K11、K12及び、K13等の左目用表示光K10を、観察者の左目700Lに向け、指向性バックライトユニットが右目700Rに向かう照明光を照射した際に、光変調素子51に右視点画像を表示させることで、右目用の光線K21、K22及び、K23等の右目用表示光K20を、観察者の右目700Rに向ける。但し、これは一例であり、限定されるものではない。 Also, in the stereoscopic display device 40, the light source unit 60 is configured with a directional backlight unit (an example of the light beam separating unit) instead of or in addition to the optical layer (an example of the light beam separating unit) 52. , left-eye display light such as light rays K11, K12, and K13 (reference symbol K10 in FIG. 1), and right-eye display light such as light rays K21, K22, and K23, etc. (reference symbol K20 in FIG. 1). , may be emitted. Specifically, for example, the display control device 30, which will be described later, causes the light modulation element 51 to display a left-viewpoint image when the directional backlight unit emits illumination light directed toward the left eye 700L. When the left-eye display light K10 such as K11, K12, and K13 is directed toward the viewer's left eye 700L, and the directional backlight unit emits illumination light toward the right eye 700R, the right viewpoint image is displayed on the light modulation element 51. By displaying, right-eye display light K20 such as light rays K21, K22, and K23 for the right eye is directed to the right eye 700R of the observer. However, this is an example and is not limited.

後述する表示制御装置30は、例えば、画像レンダリング処理(グラフィック処理)、表示器駆動処理などを実行することで、観察者の左目700Lへ左視点画像V10の左目用表示光K10及び、右目700Rへ右視点画像V20の右目用表示光K20、を向け、左視点画像V10及び右視点画像V20を調整することで、HUD装置20が表示する(観察者が知覚する)知覚虚像FUの態様を制御することができる。なお、後述する表示制御装置30は、一定空間に存在する点などから様々な方向に出力される光線をそのまま(概ね)再現するライトフィールドを生成するように、ディスプレイ(光変調素子50)を制御してもよい。 The display control device 30, which will be described later, performs, for example, image rendering processing (graphic processing), display device driving processing, and the like, so that the display light K10 for the left eye of the left viewpoint image V10 and the display light K10 for the left eye and the display light K10 for the right eye 700R of the observer's left eye 700L are displayed. By directing the right-eye display light K20 of the right-viewpoint image V20 and adjusting the left-viewpoint image V10 and the right-viewpoint image V20, the aspect of the perceptual virtual image FU displayed by the HUD device 20 (perceived by the observer) is controlled. be able to. The display control device 30, which will be described later, controls the display (the light modulation element 50) so as to generate a light field that (approximately) reproduces the light beams output in various directions from a point in a certain space. You may

リレー光学系80は、立体表示装置40からの光を反射し、画像の表示光K10、K20を、ウインドシールド(被投影部材)2に投影する曲面ミラー(凹面鏡等)81、82を有する。但し、その他の光学部材(レンズなどの屈折光学部材、ホログラムなどの回折光学部材、反射光学部材又は、これらの組み合わせを含んでいてもよい。)を、さらに有してもよい。 The relay optical system 80 has curved mirrors (concave mirrors, etc.) 81 and 82 that reflect the light from the stereoscopic display device 40 and project the image display light K10 and K20 onto the windshield (projection target member) 2 . However, it may further include other optical members (refractive optical members such as lenses, diffractive optical members such as holograms, reflective optical members, or combinations thereof).

図1では、HUD装置20の立体表示装置40によって、左右の各目用の、視差をもつ画像(視差画像)が表示される。各視差画像は、図1に示されるように、虚像表示面(虚像結像面)VSに結像したV10、V20として表示される。観察者(人)の各目のピントは、虚像表示領域VSの位置に合うように調節される。なお、虚像表示領域VSの位置を、「調節位置(又は結像位置)」と称し、また、所定の基準位置(例えば、HUD装置20のアイボックス200の中心205、観察者の視点位置、観察者の頭位置、又は、自車両1の特定位置など)から虚像表示領域VSまでの距離(図4の符号D10を参照)を調節距離(結像距離)と称する。 In FIG. 1, the stereoscopic display device 40 of the HUD device 20 displays images with parallax (parallax images) for the left and right eyes. Each parallax image is displayed as V10 and V20 formed on a virtual image display surface (virtual image formation surface) VS, as shown in FIG. The focus of each eye of the observer (person) is adjusted so as to match the position of the virtual image display area VS. Note that the position of the virtual image display area VS is referred to as an "adjustment position (or imaging position)", and is also referred to as a predetermined reference position (for example, the center 205 of the eyebox 200 of the HUD device 20, the observer's viewpoint position, the observation position). The distance from the person's head position or a specific position of the own vehicle 1 to the virtual image display area VS (see symbol D10 in FIG. 4) is referred to as an adjustment distance (imaging distance).

但し、実際は、人の脳が、各画像(虚像)を融像するため、人は、調節位置よりもさらに奥側である位置(例えば、左視点画像V10と右視点画像V20との輻輳角によって定まる位置であり、輻輳角が小さくなるほど、観察者から離れた位置にあるように知覚される位置)に、知覚画像(ここでは、ナビゲーション用の矢先の図形)FUが表示されているように認識する。なお、知覚虚像FUは、「立体虚像」と称される場合があり、また、「画像」を広義に捉えて虚像も含まれるとする場合には、「立体画像」と称することもできる。また、「立体像」、「3D表示」等と称される場合がある。なお、HUD装置20は、調節位置よりも手前側である位置に、知覚虚像FUが視認されるように、左視点画像V10及び右視点画像V20を表示し得る。 However, in reality, since the human brain fuses each image (virtual image), the human is at a position farther back than the adjustment position (for example, due to the convergence angle between the left viewpoint image V10 and the right viewpoint image V20). It is a fixed position, and the position perceived as being farther away from the observer as the angle of convergence decreases) is recognized as a perceptual image (here, an arrowhead figure for navigation) FU is displayed. do. Note that the perceptual virtual image FU may be referred to as a "stereoscopic virtual image", and may also be referred to as a "stereoscopic image" when the "image" is taken in a broad sense to include virtual images. It may also be referred to as a "stereoscopic image", "3D display", or the like. The HUD device 20 can display the left-viewpoint image V10 and the right-viewpoint image V20 so that the perceptual virtual image FU can be visually recognized at a position on the front side of the adjustment position.

次に、図3及び、図4を参照する。図3は、自車両1の走行中において、観察者が視認する前景と、前記前景に重畳して表示される知覚画像の例を示す図である。図4は、虚像結像面に表示される左視点虚像と右視点虚像と、これら左視点虚像と右視点虚像により観察者が知覚する知覚画像と、の位置関係を概念的に示した図である。 Next, refer to FIGS. 3 and 4. FIG. FIG. 3 is a diagram showing an example of a foreground visually recognized by an observer and a perceptual image superimposed on the foreground and displayed while the own vehicle 1 is running. FIG. 4 is a diagram conceptually showing the positional relationship between the left-viewpoint virtual image and the right-viewpoint virtual image displayed on the virtual image plane, and the perceived image perceived by the observer from the left-viewpoint virtual image and the right-viewpoint virtual image. be.

図3において、自車両1は、直線状の道路(路面)6を走行している。HUD装置20は、ダッシュボード5内に配置されている。HUD装置20の光出射窓21から表示光K(K10,K20)を被投影部(自車両1のフロントウインドシールド)2に投影する。図3の例では、路面6に重畳し、自車両1の経路(ここでは直進を示す。)を指示する第1のコンテンツ画像FU1及び、同じく自車両1の経路(ここでは直進を示す。)を指示し、第1のコンテンツ画像FU1より遠方に知覚される第2のコンテンツ画像FU2、を表示する。 In FIG. 3 , the own vehicle 1 is traveling on a straight road (road surface) 6 . The HUD device 20 is arranged inside the dashboard 5 . Display light K (K10, K20) is projected from the light exit window 21 of the HUD device 20 onto the projected portion (front windshield of the own vehicle 1) 2. FIG. In the example of FIG. 3, a first content image FU1 that is superimposed on the road surface 6 and indicates the route of the own vehicle 1 (indicating straight ahead here), and similarly the route of the own vehicle 1 (indicating straight ahead here). to display a second content image FU2 perceived farther than the first content image FU1.

図4の左図に示すように、HUD装置20は、(1)目位置検出部409で検出された左目700Lへ被投影部2によって反射されるような位置及び、角度で、被投影部2に左目用表示光K10を出射し、左目700Lから見た虚像表示領域VSの所定の位置に、第1の左視点コンテンツ画像V11を結像し、(2)右目700Rへ被投影部2によって反射されるような位置及び、角度で、被投影部2に右目用表示光K20を出射し、右目700Rから見た虚像表示領域VSの所定の位置に、第1の右視点コンテンツ画像V21を結像する。視差を有する第1の左視点コンテンツ画像V11及び、第1の右視点コンテンツ画像V21により知覚される第1のコンテンツ画像FU1は、虚像表示領域VSよりも距離D21だけ奥側である位置(上記の基準位置から距離D31だけ離れた位置)において視認される。 As shown in the left diagram of FIG. 4, the HUD device 20 (1) detects the left eye 700L detected by the eye position detection unit 409, and at such a position and angle that the projection target 2 reflects the left eye 700L. to form a first left-viewpoint content image V11 at a predetermined position in the virtual image display area VS seen from the left eye 700L, and (2) reflected by the projection target unit 2 to the right eye 700R. Right-eye display light K20 is emitted to the projection target part 2 at a position and angle such that a first right-viewpoint content image V21 is formed at a predetermined position of the virtual image display area VS seen from the right eye 700R. do. The first content image FU1 perceived by the first left-viewpoint content image V11 and the first right-viewpoint content image V21 having parallax is positioned behind the virtual image display area VS by a distance D21 (the above position separated from the reference position by a distance D31).

同様に、図4の右図に示すように、HUD装置20は、(1)目位置検出部409で検出された左目700Lへ被投影部2によって反射されるような位置及び、角度で、被投影部2に左目用表示光K10を出射し、左目700Lから見た虚像表示領域VSの所定の位置に、第2の左視点コンテンツ画像V12を結像し、(2)右目700Rへ被投影部2によって反射されるような位置及び、角度で、被投影部2に右目用表示光K20を出射し、右目700Rから見た虚像表示領域VSの所定の位置に、第2の右視点コンテンツ画像V22を結像する。視差を有する第2の左視点コンテンツ画像V12及び、第2の右視点コンテンツ画像V22により知覚される第2のコンテンツ画像FU2は、虚像表示領域VSよりも距離D22だけ奥側である位置(上記の基準位置から距離D32だけ離れた位置)において視認される。 Similarly, as shown in the right diagram of FIG. 4 , the HUD device 20 (1) detects the left eye 700L detected by the eye position detection unit 409 at such a position and angle as to be reflected by the projection target unit 2 . Left-eye display light K10 is emitted to the projection unit 2 to form a second left-viewpoint content image V12 at a predetermined position in the virtual image display area VS seen from the left eye 700L, and (2) the projected unit to the right eye 700R. 2, the display light K20 for the right eye is emitted to the projection target 2 at a position and angle such that it is reflected by the second right-viewpoint content image V22 at a predetermined position of the virtual image display area VS seen from the right eye 700R. to form an image. The second content image FU2 perceived by the second left-viewpoint content image V12 and the second right-viewpoint content image V22 having parallax is positioned behind the virtual image display area VS by a distance D22 (the above position separated from the reference position by a distance D32).

具体的には、上記の基準位置から虚像表示領域VSまでの距離(結像距離(第1の距離閾値)D10)は、例えば「4m」の距離に設定され、上記の基準位置から図4の左図に示される第1のコンテンツ画像FU1及までの距離(第1の知覚距離D31)は、例えば「7m」の距離に設定され、上記の基準位置から図4の右図に示される第2のコンテンツ画像FU2までの距離(第2の知覚距離D32)は、例えば「10m」の距離に設定される。但し、これは一例であり、限定されるものではない。 Specifically, the distance (imaging distance (first distance threshold) D10) from the reference position to the virtual image display area VS is set to a distance of, for example, "4 m". The distance (first perceptual distance D31) to the first content image FU1 shown in the left diagram is set to a distance of, for example, "7 m". to the content image FU2 (second perceptual distance D32) is set to, for example, "10 m". However, this is an example and is not limited.

図5は、実景のターゲット位置に配置される仮想オブジェクトと、仮想オブジェクトが実景のターゲット位置に視認されるように虚像表示領域に表示される画像と、を概念的に示した図である。なお、図5に示すHUD装置20は、3D表示ではない2D表示をする例を示している。すなわち、図5に示すHUD装置20の表示器40は、立体表示装置ではない2D表示装置である(なお、立体表示装置でも2D表示は可能である。)。図5に表したように、観視者の目位置700から見て、奥行き方向をZ軸方向とし、左右方向(自車両1の幅方向)をX軸方向とし、上下方向(自車両1の上下方向)をY軸方向とする。なお、観視者から見て遠ざかる方向をZ軸の正の方向とし、観視者から見て左方向がX軸の正の方向とし、観視者から見て上方向をY軸の正の方向とする。 FIG. 5 is a diagram conceptually showing a virtual object placed at a target position in the real scene and an image displayed in the virtual image display area such that the virtual object is visually recognized at the target position in the real scene. Note that the HUD device 20 shown in FIG. 5 shows an example of performing 2D display instead of 3D display. That is, the display device 40 of the HUD device 20 shown in FIG. 5 is a 2D display device that is not a stereoscopic display device (even a stereoscopic display device can perform 2D display). As shown in FIG. 5, when viewed from the viewer's eye position 700, the depth direction is the Z-axis direction, the left-right direction (the width direction of the vehicle 1) is the X-axis direction, and the vertical direction (the vehicle 1's vertical direction) is the Y-axis direction. Note that the direction away from the viewer is the positive direction of the Z axis, the leftward direction is the positive direction of the X axis, and the upward direction is the positive direction of the Y axis. direction.

観視者の目位置700は、被投影部2を介して虚像表示領域VSに形成された(結像された)虚像Vを視認することで、実景の所定のターゲット位置PTに、仮想オブジェクトFUを知覚する。観視者は、被投影部2で反射した表示光Kの映像の虚像Vを視認する。この時、虚像Vが、例えば進路を示す矢印である場合、自車両1の前景の所定のターゲット位置PTに仮想オブジェクトFUが配置されて視認されるように、虚像Vの矢印は虚像表示領域VSに表示される。具体的には、HUD装置20(表示制御装置30)は、観察者の左目700Lと右目700Rとの中心を射影変換の原点として、ターゲット位置PTに配置した所定のサイズ・形状の仮想オブジェクトFUを虚像表示領域VSに射影変換した所定のサイズ・形状の虚像Vが表示されるように表示器40に表示する画像をレンダリングする。そして、HUD装置20(表示制御装置30)は、観察者が目位置を移動した場合でも、目位置が移動する前と同じターゲット位置PTに仮想オブジェクトFUが知覚されるように、虚像表示領域VSに表示される虚像Vの位置を変更することで、ターゲット位置PTとは離れた位置(虚像表示領域VS)に表示されているにもかかわらず、仮想オブジェクトFU(虚像V)がターゲット位置PTにあるかのように認識させることができる。すなわち、HUD装置20(表示制御装置30)は、自然な運動視差を、目位置の移動に基づいて表示器40上の画像(虚像表示領域VS内の虚像V)の位置の変更(これに、サイズの変更や形状の変更が加わっても良い。)により表現している(換言すると、HUD装置20は、目位置の移動に伴う画像補正で、虚像(画像)に運動視差を付加することで、奥行き知覚を感得しやすくしている)。 The viewer's eye position 700 is a virtual object FU at a predetermined target position PT in the real scene by visually recognizing the virtual image V formed (imaged) in the virtual image display area VS through the projection target unit 2. perceive. A viewer visually recognizes the virtual image V of the image of the display light K reflected by the projection target section 2 . At this time, if the virtual image V is, for example, an arrow indicating a course, the arrow of the virtual image V is positioned in the virtual image display area VS so that the virtual object FU is placed at a predetermined target position PT in the foreground of the host vehicle 1 and visually recognized. to be displayed. Specifically, the HUD device 20 (display control device 30) uses the center of the observer's left eye 700L and right eye 700R as the origin of the projective transformation, and the virtual object FU of a predetermined size and shape arranged at the target position PT. An image to be displayed on the display 40 is rendered such that the virtual image V of a predetermined size and shape that has undergone the projective transformation is displayed in the virtual image display area VS. Then, the HUD device 20 (display control device 30) sets the virtual image display area VS so that the virtual object FU is perceived at the same target position PT as before the eye position is moved even when the eye position of the observer is moved. By changing the position of the virtual image V displayed in the target position PT, the virtual object FU (virtual image V) is displayed at the target position PT even though it is displayed at a position (virtual image display area VS) away from the target position PT. It can be recognized as if In other words, the HUD device 20 (display control device 30) changes the position of the image (virtual image V in the virtual image display area VS) on the display 40 based on the movement of the eye position based on the natural motion parallax. (In other words, the HUD device 20 adds motion parallax to the virtual image (image) by image correction accompanying the movement of the eye position. , making it easier to perceive depth).

本実施形態の説明では、このような目位置の変化に応じて、運動視差を表現するような画像位置の補正を、運動視差付加処理(目追従性画像補正処理の一例。)と呼ぶ。前記運動視差付加処理は、自然な運動視差を完全に再現するような画像位置の補正だけに限定されるのではなく、自然な運動視差に近づけるような画像位置の補正も含んでいてもよい。なお、HUD装置20(表示制御装置30)は、目位置700の変化に応じて、運動視差付加処理(目追従性画像補正処理の一例。)だけではなく、目位置700の代わりに、観察者の頭位置710に基づいて、運動視差付加処理(目追従性画像補正処理の一例。)を実行してもよい。 In the description of the present embodiment, image position correction that expresses motion parallax in accordance with such a change in eye position is referred to as motion parallax addition processing (an example of eye-tracking image correction processing). The motion parallax adding process is not limited to image position correction that perfectly reproduces natural motion parallax, but may also include image position correction that approximates natural motion parallax. Note that the HUD device 20 (display control device 30) performs motion parallax addition processing (an example of eye-tracking image correction processing) in response to a change in the eye position 700. Based on the head position 710, motion parallax addition processing (an example of eye-tracking image correction processing) may be executed.

図6は、本実施形態における運動視差付加処理の方法を説明するための図である。本実施形態の表示制御装置30(プロセッサ33)は、HUD装置20を制御し、被投影部2を介して虚像表示領域VSに形成された(結像された)虚像V41、V42、及びV43を表示する。虚像V41は、知覚距離D33(虚像表示領域VSよりも距離D23だけ奥側である位置)であるターゲット位置PT11に設定され、虚像V42は、虚像V41の知覚距離D33より長い知覚距離D34(虚像表示領域VSよりも距離D24(>D23)だけ奥側である位置)であるターゲット位置PT12に設定され、そして、虚像V43は、虚像V42の知覚距離D34より長い知覚距離D35(虚像表示領域VSよりも距離D25(>D24)だけ奥側である位置)であるターゲット位置PT13に設定される。なお、表示器40での画像の補正量は、虚像表示領域VSでの虚像の補正量に対応するため、図6では、表示器40での画像の補正量C1、C2、及びC3に対応する虚像の補正量も同じ符号C1、C2、及びC3を用いている(図8の符号Cy11(Cy)、Cy21(Cy)も同様)。 FIG. 6 is a diagram for explaining a method of motion parallax addition processing in this embodiment. The display control device 30 (processor 33) of the present embodiment controls the HUD device 20 to display the virtual images V41, V42, and V43 formed (imaged) in the virtual image display area VS via the projection target section 2. indicate. The virtual image V41 is set at the target position PT11, which is the perceived distance D33 (the position behind the virtual image display area VS by the distance D23), and the virtual image V42 is set at the perceived distance D34 (virtual image display The virtual image V43 is set at the target position PT12, which is a position behind the area VS by a distance D24 (>D23)), and the virtual image V43 is positioned at a perceived distance D35 longer than the perceived distance D34 of the virtual image V42 (more than the virtual image display area VS). The target position PT13 is set at a position on the far side by a distance D25 (>D24). Note that the amount of correction of the image on the display 40 corresponds to the amount of correction of the virtual image in the virtual image display area VS, so in FIG. The same codes C1, C2, and C3 are also used for the virtual image correction amounts (the same applies to codes Cy11 (Cy) and Cy21 (Cy) in FIG. 8).

観察者の頭位置710(目位置700)が符号Px11の位置から右側(X軸負の方向)にΔPx10だけ移動した場合、表示制御装置30(プロセッサ33)は、運動視差付加処理を実行することで、虚像表示領域VSに表示される虚像V41,V42,V43が表示される位置を、観察者の頭位置710部(目位置700)が移動したのと同じ方向に、それぞれ補正量C1,C2(>C1),C3(>C2)だけ補正する。図7Aは、本実施形態の運動視差付加処理を行わなかった場合の、図6に示す位置Px12から視認する虚像V41,V42,V43を示す比較例であり、図7Bは、本実施形態の運動視差付加処理を行った場合の、図6に示す位置Px12から視認する虚像V44,V45,V46を示す図である。なお、図7Bでは、補正量の違いがわかりやすいように、虚像V44,V45,V46の位置の違いを誇張して描いてあることに留意されたい。すなわち、表示制御装置30(プロセッサ33)は、複数の虚像V41,V42,V43の知覚距離D33,D34,D35の違いにより、目位置の移動に伴う複数の虚像V41,V42,V43の位置の補正量を異ならせることで、複数の虚像V41(V44),V42(V45),V43(V46)の間だけでも運動視差を観察者に感得させることができる。より具体的には、表示制御装置30(プロセッサ33)は、設定される知覚距離D30が長いほど、前記運動視差付加処理における補正量を大きくすることで、複数の虚像V41(V44),V42(V45),V43(V46)に運動視差を付加している。 When the observer's head position 710 (eye position 700) moves rightward (in the negative direction of the X axis) by ΔPx10 from the position indicated by reference sign Px11, the display control device 30 (processor 33) executes motion parallax addition processing. , the display positions of the virtual images V41, V42, and V43 displayed in the virtual image display area VS are corrected by the correction amounts C1 and C2, respectively, in the same direction as the observer's head position 710 (eye position 700). (>C1) and C3 (>C2) are corrected. FIG. 7A is a comparative example showing virtual images V41, V42, and V43 viewed from position Px12 shown in FIG. 7 is a diagram showing virtual images V44, V45, and V46 viewed from a position Px12 shown in FIG. 6 when parallax addition processing is performed; FIG. Note that in FIG. 7B, the difference in the positions of the virtual images V44, V45, and V46 is exaggerated so that the difference in correction amount can be easily understood. That is, the display control device 30 (processor 33) corrects the positions of the plurality of virtual images V41, V42, V43 according to the movement of the eye position due to the difference in the perceived distances D33, D34, D35 of the plurality of virtual images V41, V42, V43. By varying the amounts, the observer can perceive the motion parallax only between the virtual images V41 (V44), V42 (V45), and V43 (V46). More specifically, the display control device 30 (processor 33) increases the amount of correction in the motion parallax adding process as the perceived distance D30 set is longer, so that the plurality of virtual images V41 (V44) and V42 ( V45) and V43 (V46) are added with motion parallax.

図8は、本実施形態における目位置(頭位置)が上下方向に移動した際の運動視差付加処理の方法を説明するための図である。観察者の頭位置710(目位置700)が符号Py12の位置から上側(Y軸正の方向)に移動した場合、表示制御装置30(プロセッサ33)は、運動視差付加処理を実行することで、虚像表示領域VSに表示される虚像Vが表示される位置を、図8(a)に示すように、観察者の頭位置710(目位置700)が移動したのと同じ方向(上側(Y軸正の方向))に、補正量Cy11だけ補正する(虚像Vの位置を符号V48の位置から符号V47に変更する)。また、観察者の頭位置710(目位置700)が符号Py12の位置から下側(Y軸負の方向)に移動した場合、表示制御装置30(プロセッサ33)は、運動視差付加処理を実行することで、虚像表示領域VSに表示される虚像Vが表示される位置を、図8(c)に示すように、観察者の頭位置710(目位置700)が移動したのと同じ方向(下側(Y軸負の方向))に、補正量Cy21だけ補正する(虚像Vの位置を符号V48の位置から符号V49に変更する)。これにより、ターゲット位置PTとは離れた位置(虚像表示領域VS)に表示されているにもかかわらず、仮想オブジェクトFU(虚像V)がターゲット位置PTにあるかのように認識させることができる(仮想オブジェクトFU(虚像V)がターゲット位置PTにあるかのような感覚を増強することができる)。 FIG. 8 is a diagram for explaining a method of motion parallax addition processing when the eye position (head position) moves in the vertical direction in this embodiment. When the observer's head position 710 (eye position 700) moves upward (in the positive Y-axis direction) from the position indicated by Py12, the display control device 30 (processor 33) executes motion parallax adding processing to As shown in FIG. 8A, the position where the virtual image V displayed in the virtual image display area VS is displayed is the same direction (upward (Y-axis In the positive direction)), the correction amount Cy11 is corrected (the position of the virtual image V is changed from the position of the reference V48 to the reference V47). Further, when the observer's head position 710 (eye position 700) moves downward (Y-axis negative direction) from the position indicated by Py12, the display control device 30 (processor 33) executes motion parallax addition processing. As a result, the virtual image V displayed in the virtual image display area VS is displayed in the same direction (downward) as the observer's head position 710 (eye position 700) is moved, as shown in FIG. side (Y-axis negative direction)) by the correction amount Cy21 (the position of the virtual image V is changed from the position of V48 to V49). As a result, although the virtual object FU (virtual image V) is displayed at a position (virtual image display area VS) distant from the target position PT, it can be recognized as if it were at the target position PT ( It is possible to enhance the feeling as if the virtual object FU (virtual image V) is at the target position PT).

図9は、自車両1の運転席から観察者が前方を向いた際に視認する、前景に存在する実オブジェクト300と、本実施形態のHUD装置20が表示する虚像Vと、を示す図である。図9に示す虚像Vは、実オブジェクト300の位置に応じて、表示される位置を変化させ得るAR虚像V60と、実オブジェクト300の位置によらず、表示される位置が設定される虚像を非AR虚像V70と、を含む。AR虚像V60は、実景に存在する実オブジェクト300の位置に対応する位置(ターゲット位置PT)に表示される。AR虚像V60は、例えば、実オブジェクト300に重畳する位置、又は実オブジェクト300の近傍に表示され、当該実オブジェクト300の存在を強調して報知する。つまり、「実オブジェクト300の位置に対応する位置(ターゲット位置PT)」とは、観察者から見て、実オブジェクト300に重畳して視認される位置に限られず、実オブジェクト300の近傍の位置であってもよい。なお、AR虚像V60は、実オブジェクト300の視認を妨げない態様であれば、任意である。 FIG. 9 is a diagram showing a real object 300 existing in the foreground and a virtual image V displayed by the HUD device 20 of the present embodiment, which is visually recognized when an observer faces forward from the driver's seat of the own vehicle 1. FIG. be. A virtual image V shown in FIG. and an AR virtual image V70. The AR virtual image V60 is displayed at a position (target position PT) corresponding to the position of the real object 300 present in the real scene. The AR virtual image V60 is displayed, for example, at a position superimposed on the real object 300 or in the vicinity of the real object 300, and notifies the existence of the real object 300 with emphasis. In other words, the “position corresponding to the position of the real object 300 (target position PT)” is not limited to the position superimposed on the real object 300 and viewed by the observer. There may be. Note that the AR virtual image V60 is arbitrary as long as it does not hinder the visual recognition of the real object 300 .

図9に示すAR虚像V60は、案内経路を示すナビ虚像V61、V62、注意対象を強調して報知する強調虚像V64、V65、及び目標物や所定の建物などを指示するPOI虚像V65などである。実オブジェクト300の位置に対応する位置(ターゲット位置PT)は、ナビ虚像V61、V62ではこれらが重畳される路面311(実オブジェクト300の一例。)の位置であり、強調虚像V63では人物313(実オブジェクト300の一例。)の周囲の位置であり、強調虚像V64では他車両314(実オブジェクト300の一例。)の近傍側の位置であり、そして、POI虚像V65では建物315(実オブジェクト300の一例。)の周囲の位置である。表示制御装置30(プロセッサ33)は、上記したように、虚像Vに設定される知覚距離D30が長いほど、前記運動視差付加処理における観察者の目位置の移動に伴う補正量Cを大きくする。すなわち、図9に示す虚像Vに設定される知覚距離D30が長い方からV65→V64→V63→V62→V61の順だとすると、表示制御装置30(プロセッサ33)は、観察者の目位置の移動に伴う補正量Cを、V65の補正量>V64の補正量>V63の補正量>V62の補正量>V61の補正量のように設定する。なお、虚像V62と虚像V61は、同種の虚像であり、近接して表示されているため、表示制御装置30(プロセッサ33)は、観察者の目位置の移動に伴うV62の補正量とV61の補正量を同じに設定してもよい。 The AR virtual images V60 shown in FIG. 9 include navigation virtual images V61 and V62 that indicate guidance routes, enhanced virtual images V64 and V65 that highlight and notify attention targets, and POI virtual images V65 that indicate targets, predetermined buildings, and the like. . The position (target position PT) corresponding to the position of the real object 300 is the position of the road surface 311 (an example of the real object 300) on which these are superimposed in the navigation virtual images V61 and V62. (an example of the real object 300), in the enhanced virtual image V64 the position near the other vehicle 314 (an example of the real object 300), and in the POI virtual image V65 a building 315 (an example of the real object 300). ). As described above, the display control device 30 (processor 33) increases the correction amount C associated with the movement of the observer's eye position in the motion parallax adding process as the perceived distance D30 set for the virtual image V increases. That is, assuming that the perceptual distance D30 set for the virtual image V shown in FIG. The associated correction amount C is set as follows: correction amount of V65>correction amount of V64>correction amount of V63>correction amount of V62>correction amount of V61. Note that the virtual image V62 and the virtual image V61 are of the same kind and are displayed close to each other. The same correction amount may be set.

また、いくつかの実施形態の表示制御装置30(プロセッサ33)は、非AR虚像V70において、観察者の目位置の移動に伴う補正量Cをゼロとしてもよい(観察者の目位置の移動に伴って補正しなくてもよい)。 Further, the display control device 30 (processor 33) of some embodiments may set the correction amount C associated with the movement of the observer's eye position to zero in the non-AR virtual image V70 ( need not be corrected accordingly).

また、いくつかの実施形態の表示制御装置30(プロセッサ33)は、非AR虚像V70において、観察者の目位置の移動に伴い補正してもよい。図9に示す例では、非AR虚像V70(V71、V72)は、虚像表示領域VSの下方に配置され、これらと重なる実オブジェクト300である路面311の領域は、図9のナビ虚像V61が重なる路面311の領域よりも自車両1に近い。すなわち、いくつかの実施形態の表示制御装置30(プロセッサ33)は、非AR虚像V70(V71、V72)の知覚距離D30を、AR虚像V60(狭義に言えば、AR虚像V60の中で最も下方に配置されるナビ虚像V61)の知覚距離D30よりも短く設定し、観察者の目位置の移動に伴う非AR虚像V70の補正量Cを、観察者の目位置の移動に伴うAR虚像V60(狭義に言えば、AR虚像V60の中で最も下方に配置されるナビ虚像V61)の補正量Cより小さく設定してもよい。 Further, the display control device 30 (processor 33) of some embodiments may correct the non-AR virtual image V70 according to the movement of the observer's eye position. In the example shown in FIG. 9, the non-AR virtual images V70 (V71, V72) are arranged below the virtual image display area VS, and the area of the road surface 311, which is the real object 300, overlaps with the navigation virtual image V61 of FIG. It is closer to the own vehicle 1 than the area of the road surface 311 . That is, the display control device 30 (processor 33) of some embodiments sets the perceived distance D30 of the non-AR virtual image V70 (V71, V72) to the AR virtual image V60 (strictly speaking, the lowest distance among the AR virtual images V60). ) is set shorter than the perception distance D30 of the navigation virtual image V61) arranged in ( In a narrow sense, it may be set to be smaller than the correction amount C of the navigation virtual image V61 positioned at the lowest position among the AR virtual images V60.

図10は、いくつかの実施形態に係る、車両用虚像表示システムのブロック図である。表示制御装置30は、1つ又は複数のI/Oインタフェース31、1つ又は複数のプロセッサ33、1つ又は複数の画像処理回路35、及び1つ又は複数のメモリ37を備える。図3に記載される様々な機能ブロックは、ハードウェア、ソフトウェア、又はこれら両方の組み合わせで構成されてもよい。図10は、1つの実施形態に過ぎず、図示された構成要素は、より数の少ない構成要素に組み合わされてもよく、又は追加の構成要素があってもよい。例えば、画像処理回路35(例えば、グラフィック処理ユニット)が、1つ又は複数のプロセッサ33に含まれてもよい。 FIG. 10 is a block diagram of a vehicular virtual image display system, according to some embodiments. The display controller 30 comprises one or more I/O interfaces 31 , one or more processors 33 , one or more image processing circuits 35 and one or more memories 37 . Various functional blocks depicted in FIG. 3 may be implemented in hardware, software, or a combination of both. FIG. 10 is only one embodiment and the illustrated components may be combined into fewer components or there may be additional components. For example, image processing circuitry 35 (eg, a graphics processing unit) may be included in one or more processors 33 .

図示するように、プロセッサ33及び画像処理回路35は、メモリ37と動作可能に連結される。より具体的には、プロセッサ33及び画像処理回路35は、メモリ37に記憶されているプログラムを実行することで、例えば画像データを生成、及び/又は送信するなど、車両用表示システム10(表示器40)の制御を行うことができる。プロセッサ33及び/又は画像処理回路35は、少なくとも1つの汎用マイクロプロセッサ(例えば、中央処理装置(CPU))、少なくとも1つの特定用途向け集積回路(ASIC)、少なくとも1つのフィールドプログラマブルゲートアレイ(FPGA)、又はそれらの任意の組み合わせを含むことができる。メモリ37は、ハードディスクのような任意のタイプの磁気媒体、CD及びDVDのような任意のタイプの光学媒体、揮発性メモリのような任意のタイプの半導体メモリ、及び不揮発性メモリを含む。揮発性メモリは、DRAM及びSRAMを含み、不揮発性メモリは、ROM及びNVRAMを含んでもよい。 As shown, processor 33 and image processing circuitry 35 are operatively coupled with memory 37 . More specifically, the processor 33 and the image processing circuit 35 execute a program stored in the memory 37 to generate and/or transmit image data, for example, the vehicle display system 10 (display device). 40) can be controlled. Processor 33 and/or image processing circuitry 35 may include at least one general purpose microprocessor (e.g., central processing unit (CPU)), at least one application specific integrated circuit (ASIC), at least one field programmable gate array (FPGA). , or any combination thereof. Memory 37 includes any type of magnetic media such as hard disks, any type of optical media such as CDs and DVDs, any type of semiconductor memory such as volatile memory, and non-volatile memory. Volatile memory may include DRAM and SRAM, and non-volatile memory may include ROM and NVRAM.

図示するように、プロセッサ33は、I/Oインタフェース31と動作可能に連結されている。I/Oインタフェース31は、例えば、車両に設けられた後述の車両ECU401及び/又は、他の電子機器(後述する符号403~419)と、CAN(Controller Area Network)の規格に応じて通信(CAN通信とも称する)を行う。なお、I/Oインタフェース31が採用する通信規格は、CANに限定されず、例えば、CANFD(CAN with Flexible Data Rate)、LIN(Local Interconnect Network)、Ethernet(登録商標)、MOST(Media Oriented Systems Transport:MOSTは登録商標)、UART、もしくはUSBなどの有線通信インタフェース、又は、例えば、Bluetooth(登録商標)ネットワークなどのパーソナルエリアネットワーク(PAN)、802.11x Wi-Fi(登録商標)ネットワークなどのローカルエリアネットワーク(LAN)等の数十メートル内の近距離無線通信インタフェースである車内通信(内部通信)インタフェースを含む。また、I/Oインタフェース31は、無線ワイドエリアネットワーク(WWAN0、IEEE802.16-2004(WiMAX:Worldwide Interoperability for Microwave Access))、IEEE802.16eベース(Mobile WiMAX)、4G、4G-LTE、LTE Advanced、5Gなどのセルラー通信規格により広域通信網(例えば、インターネット通信網)などの車外通信(外部通信)インタフェースを含んでいてもよい。 As shown, processor 33 is operatively coupled with I/O interface 31 . The I/O interface 31 communicates (CAN communication). The communication standard adopted by the I/O interface 31 is not limited to CAN. : MOST is a registered trademark), a wired communication interface such as UART or USB, or a personal area network (PAN) such as a Bluetooth network, a local network such as an 802.11x Wi-Fi network. It includes an in-vehicle communication (internal communication) interface, which is a short-range wireless communication interface within several tens of meters such as an area network (LAN). In addition, the I / O interface 31 is a wireless wide area network (WWAN0, IEEE802.16-2004 (WiMAX: Worldwide Interoperability for Microwave Access)), IEEE802.16e base (Mobile WiMAX), 4G, 4G-LTE, LTE Advanced, An external communication (external communication) interface such as a wide area communication network (for example, Internet communication network) may be included according to a cellular communication standard such as 5G.

図示するように、プロセッサ33は、I/Oインタフェース31と相互動作可能に連結されることで、車両用表示システム10(I/Oインタフェース31)に接続される種々の他の電子機器等と情報を授受可能となる。I/Oインタフェース31には、例えば、車両ECU401、道路情報データベース403、自車位置検出部405、操作検出部407、目位置検出部409、車外センサ411、明るさ検出部413、IMU415、携帯情報端末417、及び外部通信機器419などが動作可能に連結される。なお、I/Oインタフェース31は、車両用表示システム10に接続される他の電子機器等から受信する情報を加工(変換、演算、解析)する機能を含んでいてもよい。 As shown, the processor 33 is interoperably coupled with the I/O interface 31 to communicate with various other electronic devices and the like connected to the vehicle display system 10 (I/O interface 31). can be given and received. The I/O interface 31 includes, for example, a vehicle ECU 401, a road information database 403, a vehicle position detection unit 405, an operation detection unit 407, an eye position detection unit 409, an external sensor 411, a brightness detection unit 413, an IMU 415, portable information A terminal 417, an external communication device 419, etc. are operatively coupled. Note that the I/O interface 31 may include a function of processing (converting, calculating, and analyzing) information received from other electronic devices or the like connected to the vehicle display system 10 .

表示器40は、プロセッサ33及び画像処理回路35に動作可能に連結される。したがって、光変調素子51によって表示される画像は、プロセッサ33及び/又は画像処理回路35から受信された画像データに基づいてもよい。プロセッサ33及び画像処理回路35は、I/Oインタフェース31から取得される情報に基づき、光変調素子51が表示する画像を制御する。 Display 40 is operatively coupled to processor 33 and image processing circuitry 35 . Accordingly, the image displayed by light modulating element 51 may be based on image data received from processor 33 and/or image processing circuitry 35 . The processor 33 and image processing circuit 35 control the image displayed by the light modulation element 51 based on the information obtained from the I/O interface 31 .

車両ECU401は、自車両1に設けられたセンサやスイッチから、自車両1の状態(例えば、起動スイッチ(例えば、アクセサリスイッチ:ACCやイグニッションスイッチ:IGN)のON/OFF状態(起動情報の一例。)、走行距離、車速、アクセルペダル開度、ブレーキペダル開度、エンジンスロットル開度、インジェクター燃料噴射量、エンジン回転数、モータ回転数、ステアリング操舵角、シフトポジション、ドライブモード、各種警告状態、姿勢(ロール角、及び/又はピッチング角を含む)、車両の振動(振動の大きさ、頻度、及び/又は周波数を含む))などを取得し、自車両1の前記状態を収集、及び管理(制御も含んでもよい。)するものであり、機能の一部として、自車両1の前記状態の数値(例えば、自車両1の車速。)を示す信号を、表示制御装置30のプロセッサ33へ出力することができる。なお、車両ECU401は、単にセンサ等で検出した数値(例えば、ピッチング角が前傾方向に3[degree]。)をプロセッサ33へ送信することに加え、又はこれに代わり、センサで検出した数値を含む自車両1の1つ又は複数の状態に基づく判定結果(例えば、自車両1が予め定められた前傾状態の条件を満たしていること。)、若しくは/及び解析結果(例えば、ブレーキペダル開度の情報と組み合わせされて、ブレーキにより車両が前傾状態になったこと。)を、プロセッサ33へ送信してもよい。例えば、車両ECU401は、自車両1が車両ECU401のメモリ(不図示)に予め記憶された所定の条件を満たすような判定結果を示す信号を表示制御装置30へ出力してもよい。なお、I/Oインタフェース31は、車両ECU401を介さずに、自車両1に設けられた自車両1に設けられたセンサやスイッチから、上記したような情報を取得してもよい。 The vehicle ECU 401 detects the state of the vehicle 1 (for example, the ON/OFF state of the activation switch (eg, accessory switch: ACC or ignition switch: IGN) from sensors and switches provided in the vehicle 1 (an example of activation information. ), mileage, vehicle speed, accelerator pedal opening, brake pedal opening, engine throttle opening, injector fuel injection amount, engine speed, motor speed, steering angle, shift position, drive mode, various warning conditions, attitude (including roll angle and/or pitching angle), vehicle vibration (including magnitude, frequency, and/or frequency of vibration)), etc., collecting and managing (controlling) the state of the own vehicle 1 ), and as part of its function, it outputs a signal indicating the numerical value of the state of the vehicle 1 (for example, the vehicle speed of the vehicle 1) to the processor 33 of the display control device 30. be able to. The vehicle ECU 401 simply transmits a numerical value detected by a sensor or the like (for example, the pitching angle is 3 [degrees] in the forward tilting direction) to the processor 33, or alternatively, transmits the numerical value detected by the sensor. determination result based on one or more states of the own vehicle 1 including, for example, that the own vehicle 1 satisfies a predetermined forward lean condition, or/and an analysis result (for example, brake pedal open In combination with the degree information, the fact that the vehicle is leaning forward due to braking) may be transmitted to the processor 33 . For example, the vehicle ECU 401 may output to the display control device 30 a signal indicating a determination result that the host vehicle 1 satisfies a predetermined condition stored in advance in a memory (not shown) of the vehicle ECU 401 . Note that the I/O interface 31 may acquire the above-described information from sensors and switches provided in the own vehicle 1 without using the vehicle ECU 401 .

また、車両ECU401は、車両用表示システム10が表示する画像を指示する指示信号を表示制御装置30へ出力してもよく、この際、画像の座標、サイズ、種類、表示態様、画像の報知必要度、及び/又は報知必要度を判定する元となる必要度関連情報を、前記指示信号に付加して送信してもよい。 In addition, the vehicle ECU 401 may output to the display control device 30 an instruction signal that instructs an image to be displayed by the vehicle display system 10. At this time, the coordinates, size, type, display mode of the image, the need for notification of the image, and so on. Necessity-related information that serves as a basis for determining the degree and/or the necessity of notification may be added to the instruction signal and transmitted.

道路情報データベース403は、自車両1に設けられた図示しないナビゲーション装置、又は自車両1と車外通信インタフェース(I/Oインタフェース31)を介して接続される外部サーバー、に含まれ、後述する自車位置検出部405から取得される自車両1の位置に基づき、自車両1の周辺の情報(自車両1の周辺の実オブジェクト関連情報)である自車両1が走行する道路情報(車線,白線,停止線,横断歩道,道路の幅員,車線数,交差点,カーブ,分岐路,交通規制など)、地物情報(建物、橋、河川など)の、有無、位置(自車両1までの距離を含む)、方向、形状、種類、詳細情報などを読み出し、プロセッサ33に送信してもよい。また、道路情報データベース403は、出発地から目的地までの適切な経路(ナビゲーション情報)を算出し、当該ナビゲーション情報を示す信号、又は経路を示す画像データをプロセッサ33へ出力してもよい。 The road information database 403 is included in a navigation device (not shown) provided in the own vehicle 1 or an external server connected to the own vehicle 1 via an external communication interface (I/O interface 31). Based on the position of the vehicle 1 acquired from the position detection unit 405, road information (lanes, white lines, stop line, pedestrian crossing, road width, number of lanes, intersection, curve, branch road, traffic regulation, etc.), presence/absence of feature information (buildings, bridges, rivers, etc.), position (including distance to own vehicle 1) ), direction, shape, type, detailed information, etc. may be read and sent to the processor 33 . The road information database 403 may also calculate an appropriate route (navigation information) from the departure point to the destination and output to the processor 33 a signal indicating the navigation information or image data indicating the route.

自車位置検出部405は、自車両1に設けられたGNSS(全地球航法衛星システム)等であり、現在の自車両1の位置、方位を検出し、検出結果を示す信号を、プロセッサ33を介して、又は直接、道路情報データベース403、後述する携帯情報端末417、及び/もしくは外部通信機器419へ出力する。道路情報データベース403、後述する携帯情報端末417、及び/又は外部通信機器419は、自車位置検出部405から自車両1の位置情報を連続的、断続的、又は所定のイベント毎に取得することで、自車両1の周辺の情報を選択・生成して、プロセッサ33へ出力してもよい。 The vehicle position detection unit 405 is a GNSS (global navigation satellite system) or the like provided in the vehicle 1, detects the current position and direction of the vehicle 1, and sends a signal indicating the detection result to the processor 33. The information is output to the road information database 403 , a portable information terminal 417 and/or an external communication device 419 to be described later, via or directly. The road information database 403, a portable information terminal 417 (to be described later), and/or an external communication device 419 acquire position information of the vehicle 1 from the vehicle position detection unit 405 continuously, intermittently, or at each predetermined event. , information about the surroundings of the own vehicle 1 may be selected/generated and output to the processor 33 .

操作検出部407は、例えば、自車両1のCID(Center Information Display)、インストルメントパネルなどに設けられたハードウェアスイッチ、又は画像とタッチセンサなどとを兼ね合わされたソフトウェアスイッチなどであり、自車両1の乗員(運転席の着座するユーザー、及び/又は助手席に着座するユーザー)による操作に基づく操作情報を、プロセッサ33へ出力する。例えば、操作検出部407は、ユーザーの操作により、虚像表示領域100を移動させる操作に基づく表示領域設定情報、アイボックス200を移動させる操作に基づくアイボックス設定情報、観察者の目位置700を設定する操作に基づく情報などを、プロセッサ33へ出力する。 The operation detection unit 407 is, for example, a CID (Center Information Display) of the vehicle 1, a hardware switch provided on an instrument panel, or a software switch combining an image and a touch sensor. It outputs to the processor 33 the operation information based on the operation by one passenger (the user sitting in the driver's seat and/or the user sitting in the passenger's seat). For example, the operation detection unit 407 sets the display area setting information based on the operation of moving the virtual image display area 100, the eye box setting information based on the operation of moving the eye box 200, and the observer's eye position 700 by the user's operation. Information based on the operation to be performed is output to the processor 33 .

目位置検出部409は、自車両1の運転席に着座する観察者の目位置700(図1参照。)を検出する赤外線カメラなどのカメラを含み、撮像した画像を、プロセッサ33に出力してもよい。プロセッサ33は、目位置検出部409から撮像画像(目位置700を推定可能な情報の一例。)を取得し、この撮像画像を、パターンマッチングなどの手法で解析することで、観察者の目位置700の座標を検出し、検出した目位置700の座標を示す信号を、プロセッサ33へ出力してもよい。 The eye position detection unit 409 includes a camera such as an infrared camera that detects the eye position 700 (see FIG. 1) of the observer sitting in the driver's seat of the vehicle 1, and outputs the captured image to the processor 33. good too. The processor 33 acquires a captured image (an example of information that can estimate the eye position 700) from the eye position detection unit 409, and analyzes the captured image by a method such as pattern matching to determine the eye positions of the observer. The coordinates of 700 may be detected and a signal indicative of the detected coordinates of eye position 700 may be output to processor 33 .

また、目位置検出部409は、カメラの撮像画像を解析した解析結果(例えば、観察者の目位置700が、予め設定された複数の表示パラメータが対応する空間的な領域のどこに属しているかを示す信号。)を、プロセッサ33に出力してもよい。なお、自車両1の観察者の目位置700、又は観察者の目位置700を推定可能な情報を取得する方法は、これらに限定されるものではなく、既知の目位置検出(推定)技術を用いて取得されてもよい。 In addition, the eye position detection unit 409 obtains an analysis result obtained by analyzing the image captured by the camera (for example, where the observer's eye position 700 belongs in a spatial region corresponding to a plurality of preset display parameters). ) may be output to the processor 33 . Note that the method of acquiring the eye position 700 of the observer of the own vehicle 1 or the information that can estimate the eye position 700 of the observer is not limited to these, and a known eye position detection (estimation) technique can be used. may be obtained using

また、目位置検出部409は、観察者の目位置700の移動速度、及び/又は移動方向を検出し、観察者の目位置700の移動速度、及び/又は移動方向を示す信号を、プロセッサ33に出力してもよい。 Further, the eye position detection unit 409 detects the moving speed and/or moving direction of the observer's eye position 700, and outputs a signal indicating the moving speed and/or moving direction of the observer's eye position 700 to the processor 33. can be output to

また、目位置検出部409は、視線方向検出部409としての機能を有していても良い。視線方向検出部409は、自車両1の運転席に着座する観察者の顔を撮像する赤外線カメラ、又は可視光カメラを含み、撮像した画像を、プロセッサ33に出力してもよい。プロセッサ33は、視線方向検出部409から撮像画像(視線方向を推定可能な情報の一例。)を取得し、この撮像画像を解析することで観察者の視線方向(及び/又は前記注視位置)を特定することができる。なお、視線方向検出部409は、カメラからの撮像画像を解析し、解析結果である観察者の視線方向(及び/又は前記注視位置)を示す信号をプロセッサ33に出力してもよい。なお、自車両1の観察者の視線方向を推定可能な情報を取得する方法は、これらに限定されるものではなく、EOG(Electro-oculogram)法、角膜反射法、強膜反射法、プルキンエ像検出法、サーチコイル法、赤外線目底カメラ法などの他の既知の視線方向検出(推定)技術を用いて取得されてもよい。 Also, the eye position detection unit 409 may have a function as the line-of-sight direction detection unit 409 . The line-of-sight direction detection unit 409 may include an infrared camera or a visible light camera that captures the face of an observer sitting in the driver's seat of the vehicle 1 , and may output the captured image to the processor 33 . The processor 33 acquires a captured image (an example of information for estimating the line-of-sight direction) from the line-of-sight direction detection unit 409, and analyzes the captured image to determine the line-of-sight direction (and/or the gaze position) of the observer. can be specified. Note that the line-of-sight direction detection unit 409 may analyze the captured image from the camera and output to the processor 33 a signal indicating the line-of-sight direction (and/or the gaze position) of the observer, which is the analysis result. It should be noted that the method of acquiring information that can estimate the line-of-sight direction of the observer of the own vehicle 1 is not limited to these methods, and includes an EOG (Electro-oculogram) method, a corneal reflection method, a scleral reflection method, a Purkinje image It may also be obtained using other known gaze direction detection (estimation) techniques such as detection methods, search coil methods, infrared fundus camera methods, and the like.

車外センサ411は、自車両1の周辺(前方、側方、及び後方)に存在する実オブジェクトを検出する。車外センサ411が検知する実オブジェクトは、例えば、障害物(歩行者、自転車、自動二輪車、他車両など)、後述する走行レーンの路面、区画線、路側物、及び/又は地物(建物など)などを含んでいてもよい。車外センサとしては、例えば、ミリ波レーダ、超音波レーダ、レーザレーダ等のレーダセンサ、カメラ、又はこれらの組み合わせからなる検出ユニットと、当該1つ又は複数の検出ユニットからの検出データを処理する(データフュージョンする)処理装置と、から構成される。これらレーダセンサやカメラセンサによる物体検知については従来の周知の手法を適用する。これらのセンサによる物体検知によって、三次元空間内での実オブジェクトの有無、実オブジェクトが存在する場合には、その実オブジェクトの位置(自車両1からの相対的な距離、自車両1の進行方向を前後方向とした場合の左右方向の位置、上下方向の位置等)、大きさ(横方向(左右方向)、高さ方向(上下方向)等の大きさ)、移動方向(横方向(左右方向)、奥行き方向(前後方向))、移動速度(横方向(左右方向)、奥行き方向(前後方向))、及び/又は種類等を検出してもよい。 The vehicle exterior sensor 411 detects real objects existing around the vehicle 1 (front, side, and rear). Real objects detected by the sensor 411 outside the vehicle include, for example, obstacles (pedestrians, bicycles, motorcycles, other vehicles, etc.), road surfaces of driving lanes, lane markings, roadside objects, and/or features (buildings, etc.), which will be described later. and so on. Exterior sensors include, for example, radar sensors such as millimeter wave radar, ultrasonic radar, and laser radar, cameras, or a detection unit consisting of a combination thereof, and processing detection data from the one or more detection units ( data fusion) and a processing device. A conventional well-known method is applied to object detection by these radar sensors and camera sensors. By object detection by these sensors, the presence or absence of a real object in the three-dimensional space, and if the real object exists, the position of the real object (relative distance from the own vehicle 1, the traveling direction of the own vehicle 1) Horizontal position, vertical position, etc.), size (horizontal direction (horizontal direction), height direction (vertical direction), etc.), movement direction (horizontal direction (horizontal direction) , depth direction (front-rear direction)), movement speed (horizontal direction (left-right direction), depth direction (front-rear direction)), and/or type and the like may be detected.

1つ又は複数の車外センサ411は、各センサの検知周期毎に、自車両1の前方の実オブジェクトを検知して、実オブジェクト情報の一例である実オブジェクト情報(実オブジェクトの有無、実オブジェクトが存在する場合には実オブジェクト毎の位置、大きさ、及び/又は種類等の情報)をプロセッサ33に出力することができる。なお、これら実オブジェクト情報は、他の機器(例えば、車両ECU401)を経由してプロセッサ33に送信されてもよい。また、夜間等の周辺が暗いときでも実オブジェクトが検知できるように、センサとしてカメラを利用する場合には赤外線カメラや近赤外線カメラが望ましい。また、センサとしてカメラを利用する場合、視差で距離等も取得できるステレオカメラが望ましい。ここで、検出された実オブジェクト300の自車両1からの相対的な距離を物体距離(実オブジェクトまでの距離)D4とする。 One or a plurality of vehicle exterior sensors 411 detects a real object in front of the own vehicle 1 at each detection cycle of each sensor, and obtains real object information (presence or absence of a real object, whether or not a real object exists), which is an example of real object information. Information such as the position, size and/or type of each real object, if any, can be output to the processor 33 . Note that the real object information may be transmitted to the processor 33 via another device (for example, the vehicle ECU 401). Also, when using a camera as a sensor, an infrared camera or a near-infrared camera is desirable so that a real object can be detected even when the surroundings are dark, such as at night. Moreover, when using a camera as a sensor, a stereo camera that can acquire distance and the like by parallax is desirable. Here, the relative distance of the detected real object 300 from the own vehicle 1 is defined as an object distance (distance to the real object) D4.

明るさ検出部413は、自車両1の車室の前方に存在する前景の所定範囲の照度又は輝度を外界明るさ(明るさ情報の一例)、又は車室内の照度又は輝度を車内明るさ(明るさ情報の一例)として検知する。明るさ検出部413は、例えばフォトトランジスタ若しくはフォトダイオード等であり、図1に示す自車両1のインストルメントパネル、ルームミラー又はHUD装置20等に搭載される。 The brightness detection unit 413 converts the illuminance or luminance of a predetermined range of the foreground that exists in front of the passenger compartment of the vehicle 1 into the outside world brightness (an example of brightness information), or converts the illuminance or luminance in the passenger compartment into the vehicle interior brightness ( (an example of brightness information). The brightness detection unit 413 is, for example, a phototransistor or a photodiode, and is mounted on the instrument panel, the room mirror, the HUD device 20, or the like of the own vehicle 1 shown in FIG.

IMU415は、慣性加速に基づいて、自車両1の位置、向き、及びこれらの変化(変化速度、変化加速度)を検知するように構成された1つ又は複数のセンサ(例えば、加速度計及びジャイロスコープ)の組み合わせを含むことができる。IMU415は、検出した値(前記検出した値は、自車両1の位置、向き、及びこれらの変化(変化速度、変化加速度)を示す信号などを含む。)、検出した値を解析した結果を、プロセッサ33に出力してもよい。前記解析した結果は、前記検出した値が、所定の条件を満たしたか否かの判定結果を示す信号などであり、例えば、自車両1の位置又は向きの変化(変化速度、変化加速度)に関する値から、自車両1の挙動(振動)が少ないことを示す信号であってもよい。 The IMU 415 includes one or more sensors (e.g., accelerometers and gyroscopes) configured to detect the position, orientation, and changes thereof (velocity of change, acceleration of change) of the host vehicle 1 based on inertial acceleration. ). The IMU 415 analyzes the detected values (the detected values include signals indicating the position and orientation of the host vehicle 1 and their changes (change speed and change acceleration)), the results of analyzing the detected values, It may be output to processor 33 . The analysis result is a signal or the like indicating whether or not the detected value satisfies a predetermined condition. Therefore, the signal may be a signal indicating that the behavior (vibration) of the own vehicle 1 is small.

携帯情報端末417は、スマートフォン、ノートパソコン、スマートウォッチ、又は観察者(又は自車両1の他の乗員)が携帯可能なその他の情報機器である。I/Oインタフェース31は、携帯情報端末417とペアリングすることで、携帯情報端末417と通信を行うことが可能であり、携帯情報端末417(又は携帯情報端末を通じたサーバ)に記録されたデータを取得する。携帯情報端末417は、例えば、上記の道路情報データベース403及び自車位置検出部405と同様の機能を有し、前記道路情報(実オブジェクト関連情報の一例。)を取得し、プロセッサ33に送信してもよい。また、携帯情報端末417は、自車両1の近傍の商業施設に関連するコマーシャル情報(実オブジェクト関連情報の一例。)を取得し、プロセッサ33に送信してもよい。なお、携帯情報端末417は、携帯情報端末417の所持者(例えば、観察者)のスケジュール情報、携帯情報端末417での着信情報、メールの受信情報などをプロセッサ33に送信し、プロセッサ33及び画像処理回路35は、これらに関する画像データを生成及び/又は送信してもよい。 The mobile information terminal 417 is a smart phone, a notebook computer, a smart watch, or other information equipment that can be carried by the observer (or other occupant of the own vehicle 1). By pairing with the mobile information terminal 417, the I/O interface 31 can communicate with the mobile information terminal 417, and can read data recorded in the mobile information terminal 417 (or a server through the mobile information terminal). to get The portable information terminal 417 has, for example, the same functions as the road information database 403 and the vehicle position detection unit 405 described above, acquires the road information (an example of real object related information), and transmits it to the processor 33. may Also, the mobile information terminal 417 may acquire commercial information (an example of real object related information) related to commercial facilities near the own vehicle 1 and transmit it to the processor 33 . In addition, the mobile information terminal 417 transmits schedule information of the owner of the mobile information terminal 417 (for example, an observer), incoming call information at the mobile information terminal 417, mail reception information, etc. to the processor 33, and the processor 33 and the image Processing circuitry 35 may generate and/or transmit image data for these.

外部通信機器419は、自車両1と情報のやりとりをする通信機器であり、例えば、自車両1と車車間通信(V2V:Vehicle To Vehicle)により接続される他車両、歩車間通信(V2P:Vehicle To Pedestrian)により接続される歩行者(歩行者が携帯する携帯情報端末)、路車間通信(V2I:Vehicle To roadside Infrastructure)により接続されるネットワーク通信機器であり、広義には、自車両1との通信(V2X:Vehicle To Everything)により接続される全てのものを含む。外部通信機器419は、例えば、歩行者、自転車、自動二輪車、他車両(先行車等)、路面、区画線、路側物、及び/又は地物(建物など)の位置を取得し、プロセッサ33へ出力してもよい。また、外部通信機器419は、上記の自車位置検出部405と同様の機能を有し、自車両1の位置情報を取得し、プロセッサ33に送信してもよく、さらに上記の道路情報データベース403の機能も有し、前記道路情報(実オブジェクト関連情報の一例。)を取得し、プロセッサ33に送信してもよい。なお、外部通信機器419から取得される情報は、上記のものに限定されない。 The external communication device 419 is a communication device that exchanges information with the own vehicle 1, for example, other vehicles connected to the own vehicle 1 by vehicle-to-vehicle communication (V2V: vehicle-to-vehicle), vehicle-to-pedestrian communication (V2P: vehicle To Pedestrian) connected by pedestrians (mobile information terminals carried by pedestrians), road-to-vehicle communication (V2I: Vehicle To roadside Infrastructure) is a network communication device connected by Includes everything connected by communication (V2X: Vehicle To Everything). The external communication device 419 acquires, for example, the positions of pedestrians, bicycles, motorcycles, other vehicles (preceding vehicles, etc.), road surfaces, lane markings, roadside objects, and/or features (buildings, etc.), and sends them to the processor 33. may be output. Further, the external communication device 419 has the same function as the vehicle position detection unit 405 described above, and may acquire the position information of the vehicle 1 and transmit it to the processor 33. Further, the road information database 403 and may acquire the road information (an example of real object related information) and transmit it to the processor 33 . Information acquired from the external communication device 419 is not limited to the above.

メモリ37に記憶されたソフトウェア構成要素は、目位置検出モジュール502、目位置推定モジュール504、目位置予測モジュール506、目位置状態判定モジュール508、車両状態判定モジュール510、目追従性画像処理モジュール512、グラフィックモジュール514、光源駆動モジュール516、及びアクチュエータ駆動モジュール518、などを含む。 The software components stored in the memory 37 include an eye position detection module 502, an eye position estimation module 504, an eye position prediction module 506, an eye position state determination module 508, a vehicle state determination module 510, an eye-following image processing module 512, It includes a graphics module 514, a light source drive module 516, an actuator drive module 518, and the like.

図11A、図11B、及び図11Cは、観察者の目位置に基づき、画像補正する動作を実行する方法S100を示すフロー図である。方法S100は、ディスプレイを含むHUD装置20と、このHUD装置20を制御する表示制御装置30と、において実行される。以下に示す方法S100のいくつかの動作は任意選択的に組み合わされ、いくつかの動作の手順は任意選択的に変更され、いくつかの動作は任意選択的に省略される。 11A, 11B, and 11C are flow diagrams illustrating a method S100 for performing image correction operations based on observer eye position. The method S100 is performed in a HUD device 20 that includes a display and a display controller 30 that controls the HUD device 20 . Some of the acts of method S100 described below are optionally combined, some of the steps of the acts are optionally varied, and some of the acts are optionally omitted.

まず、表示制御装置30(プロセッサ33)は、観察者の目位置700を検出する(ステップS110)。 First, the display control device 30 (processor 33) detects the eye position 700 of the observer (step S110).

(ステップS112)
いくつかの実施形態におけるステップS110において、表示制御装置30(プロセッサ33)は、図10の目位置検出モジュール502を実行することで、目位置検出部409を介して、観察者の目位置700を検出する(目位置700を示す情報を取得する)。目位置検出モジュール502は、観察者の目位置700を示す座標(X,Y軸方向の位置であり、目位置700を示す信号の一例である。)を検出すること、観察者の目の高さを示す座標(Y軸方向の位置であり、目位置700を示す信号の一例である。)を検出すること、観察者の目の高さ及び奥行方向の位置を示す座標(Y及びZ軸方向の位置であり、目位置700を示す信号の一例である。)を検出すること、及び/又は観察者の目位置700を示す座標(X,Y,Z軸方向の位置であり、目位置700を示す信号の一例である。)を検出すること、に関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。
(Step S112)
In step S110 in some embodiments, the display control device 30 (processor 33) executes the eye position detection module 502 of FIG. Detect (acquire information indicating the eye position 700). The eye position detection module 502 detects the coordinates indicating the observer's eye position 700 (positions in the X and Y axis directions and is an example of a signal indicating the eye position 700), and detects the height of the observer's eye. coordinates indicating the height (position in the Y-axis direction, which is an example of a signal indicating the eye position 700); and/or coordinates indicating the observer's eye position 700 (which are positions in the X, Y, and Z axis directions and are an example of a signal indicating the eye position 700). 700 includes various software components for performing various operations related to detecting.

なお、目位置検出モジュール502が検出する目位置700は、右目と左目のそれぞれの位置700R,700L、右目位置700R及び左目位置700Lのうち予め定められた一方の位置、右目位置700R及び左目位置700Lのうち検出可能な(検出しやすい)いずれか一方の位置、又は右目位置700Rと左目位置700Lとから算出される位置(例えば、右目位置と左目位置との中点)、などを含んでいてもよい。例えば、目位置検出モジュール502は、目位置700を、表示設定を更新するタイミングの直前に目位置検出部409から取得した観測位置に基づき決定する。 Note that the eye position 700 detected by the eye position detection module 502 includes positions 700R and 700L of the right and left eyes, one of the predetermined positions of the right eye position 700R and the left eye position 700L, the right eye position 700R and the left eye position 700L. Detectable (easily detectable) position, or a position calculated from the right eye position 700R and the left eye position 700L (for example, the middle point between the right eye position and the left eye position), etc. good. For example, the eye position detection module 502 determines the eye position 700 based on the observation position acquired from the eye position detection unit 409 immediately before the timing of updating the display settings.

また、目位置検出部409は、目位置検出部409から取得する観察者の目の検出タイミングの異なる複数の観測位置に基づき、観察者の目位置700の移動方向、及び/又は移動速度を検出し、観察者の目位置700の移動方向、及び/又は移動速度を示す信号を、プロセッサ33に出力してもよい。 Further, the eye position detection unit 409 detects the movement direction and/or the movement speed of the observer's eye position 700 based on a plurality of observation positions with different detection timings of the observer's eyes obtained from the eye position detection unit 409. A signal indicating the moving direction and/or moving speed of the observer's eye position 700 may be output to the processor 33 .

(ステップS114)
また、いくつかの実施形態におけるステップS110において、表示制御装置30(プロセッサ33)は、目位置推定モジュール504を実行することで、目位置を推定可能な情報を取得してもよい(ステップS114)。目位置を推定可能な情報は、例えば、目位置検出部409から取得した撮像画像、自車両1の運転席の位置、観察者の顔の位置、座高の高さ、又は複数の観察者の目の観測位置などである。目位置推定モジュール504は、目位置を推定可能な情報から、自車両1の観察者の目位置700を推定する。目位置推定モジュール504は、目位置検出部409から取得した撮像画像、自車両1の運転席の位置、観察者の顔の位置、座高の高さ、又は複数の観察者の目の観測位置などから、観察者の目位置700を推定すること、など観察者の目位置700を推定することに関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。すなわち、目位置推定モジュール504は、目の位置を推定可能な情報から観察者の目位置700を推定するためのテーブルデータ、演算式、などを含み得る。
(Step S114)
Further, in step S110 in some embodiments, the display control device 30 (processor 33) may acquire information that enables eye position estimation by executing the eye position estimation module 504 (step S114). . Information from which the eye positions can be estimated is, for example, the captured image acquired from the eye position detection unit 409, the position of the driver's seat of the own vehicle 1, the position of the observer's face, the height of the sitting height, or the eyes of a plurality of observers. such as the observation position of The eye position estimating module 504 estimates the eye position 700 of the observer of the own vehicle 1 from the information that can estimate the eye position. The eye position estimation module 504 uses the captured image acquired from the eye position detection unit 409, the position of the driver's seat of the own vehicle 1, the position of the face of the observer, the height of the sitting height, or the observation positions of the eyes of a plurality of observers. includes various software components for performing various operations related to estimating the observer's eye position 700, such as estimating the observer's eye position 700 from the. That is, the eye position estimation module 504 can include table data, arithmetic expressions, and the like for estimating the eye position 700 of the observer from information that can estimate the eye position.

(ステップS116)
また、いくつかの実施形態におけるステップS110において、表示制御装置30(プロセッサ33)は、目位置予測モジュール506を実行することで、観察者の目位置700を予測可能な情報を取得してもよい(ステップS116)。観察者の目位置700を予測可能な情報は、例えば、目位置検出部409から取得した最新の観測位置、又は1つ又はそれ以上の過去に取得した観測位置などである。目位置予測モジュール506は、観察者の目位置700を予測可能な情報に基づいて、目位置700を予測することに関係する様々な動作を実行するための様々なソフトウェア構成要素を含む。具体的に、例えば、目位置予測モジュール506は、新たな表示設定が適用された画像が観察者に視認されるタイミングの、観察者の目位置700を予測する。目位置予測モジュール506は、例えば、最小二乗法や、カルマンフィルタ、α-βフィルタ、又はパーティクルフィルタなどの予測アルゴリズムを用いて、過去の1つ又はそれ以上の観測位置を用いて、次回の値を予測するようにしてもよい。
(Step S116)
Further, in step S110 in some embodiments, the display control device 30 (processor 33) may acquire information that can predict the eye position 700 of the observer by executing the eye position prediction module 506. (Step S116). The information that can predict the eye position 700 of the observer is, for example, the latest observation position obtained from the eye position detection unit 409, one or more observation positions obtained in the past, or the like. Eye position prediction module 506 includes various software components for performing various operations related to predicting eye positions 700 based on information capable of predicting eye positions 700 of an observer. Specifically, for example, the eye position prediction module 506 predicts the eye position 700 of the observer at the timing when the observer visually recognizes the image to which the new display settings are applied. The eye position prediction module 506 uses one or more past observed positions, for example, using a least squares method, a prediction algorithm such as a Kalman filter, an α-β filter, or a particle filter to calculate the next value. You can make a prediction.

(ステップS120)
次に、表示制御装置30(プロセッサ33)は、所定の条件が充足するかを判定する(ステップS120)。
(Step S120)
Next, the display control device 30 (processor 33) determines whether a predetermined condition is satisfied (step S120).

図11Bは、ステップS130における目位置状態判定モジュール508の動作を説明する図である。 FIG. 11B is a diagram explaining the operation of the eye position state determination module 508 in step S130.

(ステップS130)
いくつかの実施形態におけるステップS120において、表示制御装置30(プロセッサ33)は、図10の目位置状態判定モジュール508を実行することで、ステップS110で取得した目位置を示す情報、目位置を推定可能な情報、又は目位置を予測可能な情報に基づき、目位置700(目位置700の移動)が所定の条件を充足するか判定する。
(Step S130)
In step S120 in some embodiments, the display control device 30 (processor 33) executes the eye position state determination module 508 of FIG. It is determined whether the eye position 700 (movement of the eye position 700) satisfies a predetermined condition based on possible information or information from which the eye position can be predicted.

図12は、所定の周期時間t(t1,t2,t3・・・t10)毎に検出される、(11)上下方向の目位置(又は頭位置でもよい。)Py(Y1,Y2,Y3・・・Y10)、(12)上下方向の目位置(又は頭位置でもよい。)の変化量ΔPy(Py1(=Y2-Y1),Py2(=Y3-Y2),Py3(=Y4-Y3),・・・Py9(=Y10-Y9))、(13)上下方向の目位置(又は頭位置でもよい。)の移動速度Vy(Vy1(=Py1/Δt),Vy2(=Py2/Δt),Vy3(=Py3/Δt),・・・Vy9(=Py9/Δt))、(21)上下方向の目位置(又は頭位置でもよい。)Px(X1,X2,X3・・・X10)、(22)上下方向の目位置(又は頭位置でもよい。)の変化量ΔPx(Px1(=X2-X1),Px2(=X3-X2),Px3(=X4-X3),・・・Px9(=X10-X9))、及び(23)上下方向の目位置(又は頭位置でもよい。)の移動速度Vx(Vx1(=Px1/Δt),Vx2(=Px2/Δt),Vx3(=Px3/Δt),・・・Vx9(=Px9/Δt))を示す表である。 FIG. 12 shows (11) vertical eye position (or head position) Py (Y1, Y2, Y3. ..Y10), (12) Amount of change ΔPy (Py1 (=Y2-Y1), Py2 (=Y3-Y2), Py3 (=Y4-Y3), in vertical eye position (or head position), . . . Py9 (=Y10−Y9)), (13) Moving speed Vy (Vy1 (=Py1/Δt), Vy2 (=Py2/Δt), Vy3 of eye position (or head position) in the vertical direction (=Py3/Δt), . ) Amount of change in eye position (or head position) in the vertical direction ΔPx (Px1 (=X2-X1), Px2 (=X3-X2), Px3 (=X4-X3), ... Px9 (=X10 -X9)), and (23) Movement speed Vx (Vx1 (=Px1/Δt), Vx2 (=Px2/Δt), Vx3 (=Px3/Δt) of eye position (or head position may be used) in the vertical direction , . . . Vx9 (=Px9/Δt)).

(ステップS131)
いくつかの実施形態におけるステップS130において、表示制御装置30(プロセッサ33)は、図10の目位置状態判定モジュール508を実行することで、左右方向の目位置が一方向に連続的に変化した場合、所定の条件を充足すると判定してもよい。目位置状態判定モジュール508は、例えば、図12に示す左右方向の目位置の変化量ΔPxが、Px3(右方向)→Px4(右方向)のように、一方向(ここでは、右方向。)に連続して変化したことが検出された場合、前記所定の条件が充足したと判定してもよい。
(Step S131)
In step S130 in some embodiments, the display control device 30 (processor 33) executes the eye position state determination module 508 of FIG. , it may be determined that a predetermined condition is satisfied. For example, the eye position state determination module 508 determines that the amount of change ΔPx in the eye position in the horizontal direction shown in FIG. , it may be determined that the predetermined condition is satisfied.

(ステップS132)
また、いくつかの実施形態におけるステップS130において、表示制御装置30(プロセッサ33)は、図10の目位置状態判定モジュール508を実行することで、上下方向の目位置が一方向に連続的に変化した場合、所定の条件を充足すると判定してもよい。目位置状態判定モジュール508は、例えば、図12に示す上下方向の目位置の変化量ΔPyが、Py3(下方向)→Py4(下方向)のように、一方向(ここでは、下方向。)に連続して変化したことが検出された場合、前記所定の条件が充足したと判定してもよい。
(Step S132)
Further, in step S130 in some embodiments, the display control device 30 (processor 33) executes the eye position state determination module 508 of FIG. If so, it may be determined that a predetermined condition is satisfied. For example, the eye position state determination module 508 determines that the eye position change amount ΔPy in the vertical direction shown in FIG. , it may be determined that the predetermined condition is satisfied.

(ステップS133)
また、いくつかの実施形態におけるステップS130において、表示制御装置30(プロセッサ33)は、図10の距離判定モジュール511を実行することで、例えば、物体距離D4と結像距離D10とを比較可能であり、物体距離D4が結像距離D10より大きい場合、所定の条件を充足すると判定してもよい。
(Step S133)
Further, in step S130 in some embodiments, the display control device 30 (processor 33) can execute the distance determination module 511 of FIG. 10 to compare, for example, the object distance D4 and the imaging distance D10. Yes, and if the object distance D4 is greater than the imaging distance D10, it may be determined that the predetermined condition is satisfied.

(ステップS134)
また、いくつかの実施形態におけるステップS130において、表示制御装置30(プロセッサ33)は、図10の距離判定モジュール511を実行することで、例えば、物体距離D4と予めメモリ37に記憶された所定の第2の距離閾値(例えば20m)とを比較可能であり、所定の条件を充足すると判定してもよい。ここで、第2の距離閾値は、結像距離D10の約5倍に設定されている。
(Step S134)
Further, in step S130 in some embodiments, the display control device 30 (processor 33) executes the distance determination module 511 of FIG. A second distance threshold (for example, 20 m) can be compared, and it may be determined that a predetermined condition is satisfied. Here, the second distance threshold is set to approximately five times the imaging distance D10.

図11Cは、ステップS140における車両状態判定モジュール510の動作を説明する図である。 FIG. 11C is a diagram illustrating the operation of vehicle state determination module 510 in step S140.

(ステップS140)
いくつかの実施形態におけるステップS120において、表示制御装置30(プロセッサ33)は、図10の車両状態判定モジュール510を実行することで、車両の状態が所定の条件を充足するか判定してもよい。
(Step S140)
In step S120 in some embodiments, the display control device 30 (processor 33) may determine whether the vehicle state satisfies a predetermined condition by executing the vehicle state determination module 510 of FIG. .

(ステップS141)
いくつかの実施形態におけるステップS140において、表示制御装置30(プロセッサ33)は、図10の車両状態判定モジュール510を実行することで、例えば、車両ECU401から取得する走行距離、車速、シフトポジションなどの情報、自車位置検出部405から取得する自車位置を示す情報、IMU415から取得する情報などに基づき、自車両1が走行しているか否かを推定し、自車両1が走行していると推定した場合、前記所定の条件を充足すると判定してもよい。
(Step S141)
In step S140 in some embodiments, the display control device 30 (processor 33) executes the vehicle state determination module 510 of FIG. information, information indicating the vehicle position obtained from the vehicle position detection unit 405, information obtained from the IMU 415, etc., it is estimated whether or not the vehicle 1 is running. When estimated, it may be determined that the predetermined condition is satisfied.

(ステップS150)
再び図11Aを参照する。ステップS120で前記所定の条件が充足するか判定された後、表示制御装置30(プロセッサ33)は、目追従性画像処理モジュール512を実行することで、観察者の目位置700(目位置700は、具体的には、図12の上下方向の目位置Py、左右方向の目位置Pxであり、前後方向の目位置が加わってもよい。)に基づき、表示器40に表示させる画像の位置補正をする(目追従性画像処理)。
(Step S150)
Refer again to FIG. 11A. After it is determined in step S120 whether the predetermined condition is satisfied, the display control device 30 (processor 33) executes the eye-following image processing module 512 to determine the observer's eye position 700 (the eye position 700 is Specifically, the eye position Py in the vertical direction and the eye position Px in the horizontal direction in FIG. (eye-tracking image processing).

図10の目追従性画像処理モジュール512は、ステップS120における判定結果に基づいて、第1の画像補正処理S160(ステップS160)と、第2の画像補正処理S170(ステップS170)と、第3の画像補正処理S180(ステップS180)と、の間で切り替える。 10 performs first image correction processing S160 (step S160), second image correction processing S170 (step S170), and third image correction processing S170 (step S170) based on the determination result in step S120. Switching between image correction processing S180 (step S180).

(第1の画像補正処理S160)
図10の目追従性画像処理モジュール512は、ステップS120で、前記所定の条件が充足していると判定(ステップS131)された場合、左右方向の目位置の変化量ΔPxに応じた第1の左右補正量(第1の補正量)Cxだけ虚像Vの左右方向の位置を補正する。第1の左右補正量Cx(後述する第2の左右補正量Cxq1、第3の左右補正量Cxq2も同様。)は、左右方向の目位置の変化量ΔPxが大きくなるに従い、徐々に大きくなるパラメータである。また、第1の左右補正量Cx(後述する第2の左右補正量Cxq1、第3の左右補正量Cxq2も同様。)は、虚像Vに設定される知覚距離D30が長くなるに従い、徐々に大きくなるパラメータである。第1の画像補正処理S160は、各左右方向の目位置Pxから見ても虚像Vが設定されたターゲット位置PTにあたかも固定されているような自然な運動視差を完全に再現するような画像の位置補正を含み、広義には、自然な運動視差に近づけるような画像位置の補正も含んでいてもよい。すなわち、第1の画像補正処理S160は、虚像Vに設定されたターゲット位置PTと観察者の目位置700とを結ぶ直線と、虚像表示領域VSと、の交点の位置に虚像Vの表示位置を合わせる(虚像Vの表示位置を近づける)。
(First image correction process S160)
When it is determined in step S120 that the predetermined condition is satisfied (step S131), the eye-following image processing module 512 of FIG. The horizontal position of the virtual image V is corrected by a horizontal correction amount (first correction amount) Cx. The first left/right correction amount Cx (the same applies to a second left/right correction amount Cxq1 and a third left/right correction amount Cxq2, which will be described later) is a parameter that gradually increases as the amount of change ΔPx in the eye position in the left/right direction increases. is. In addition, the first left/right correction amount Cx (the same applies to a second left/right correction amount Cxq1 and a third left/right correction amount Cxq2, which will be described later) gradually increases as the perceived distance D30 set to the virtual image V increases. is a parameter. The first image correction processing S160 is to create an image that perfectly reproduces natural motion parallax as if the virtual image V were fixed at the set target position PT even when viewed from each of the left and right eye positions Px. This includes position correction, and in a broader sense, it may also include correction of the image position so as to approximate natural motion parallax. That is, the first image correction processing S160 sets the display position of the virtual image V to the position of the intersection of the virtual image display area VS and the straight line connecting the target position PT set in the virtual image V and the observer's eye position 700. Align (bring the display position of the virtual image V closer).

(第1の画像補正処理S160)
図10の目追従性画像処理モジュール512は、ステップS120で、前記所定の条件が充足していると判定(ステップS132)された場合、上下方向の目位置の変化量ΔPyに応じた第1の上下補正量(第1の補正量)Cyだけ虚像Vの上下方向の位置を補正する。第1の上下補正量Cy(後述する第2の上下補正量Cyr1、第3の上下補正量Cyr2も同様。)は、上下方向の目位置の変化量ΔPyが大きくなるに従い、徐々に大きくなるパラメータである。また、第1の上下補正量Cy(後述する第2の上下補正量Cyr1、第3の上下補正量Cyr2も同様。)は、虚像Vに設定される知覚距離D30が長くなるに従い、徐々に大きくなるパラメータである。第1の画像補正処理S160は、各上下方向の目位置Pyから見ても虚像Vが設定されたターゲット位置PTにあたかも固定されているような自然な運動視差を完全に再現するような画像の位置補正を含み、広義には、自然な運動視差に近づけるような画像位置の補正も含んでいてもよい。すなわち、第1の画像補正処理S160は、虚像Vに設定されたターゲット位置PTと観察者の目位置700とを結ぶ直線と、虚像表示領域VSと、の交点の位置に虚像Vの表示位置を合わせる(虚像Vの表示位置を近づける)。
(First image correction process S160)
When it is determined in step S120 that the predetermined condition is satisfied (step S132), the eye-following image processing module 512 of FIG. The vertical position of the virtual image V is corrected by a vertical correction amount (first correction amount) Cy. The first vertical correction amount Cy (the same applies to a second vertical correction amount Cyr1 and a third vertical correction amount Cyr2, which will be described later) is a parameter that gradually increases as the eye position change amount ΔPy in the vertical direction increases. is. Also, the first vertical correction amount Cy (the same applies to a second vertical correction amount Cyr1 and a third vertical correction amount Cyr2, which will be described later) gradually increases as the perceived distance D30 set to the virtual image V increases. is a parameter. The first image correction processing S160 is to create an image that perfectly reproduces natural motion parallax as if the virtual image V were fixed at the set target position PT even when viewed from each eye position Py in the vertical direction. This includes position correction, and in a broader sense, it may also include correction of the image position so as to approximate natural motion parallax. That is, the first image correction processing S160 sets the display position of the virtual image V to the position of the intersection of the virtual image display area VS and the straight line connecting the target position PT set in the virtual image V and the observer's eye position 700. Align (bring the display position of the virtual image V closer).

(第2の画像補正処理S170)
図10の目追従性画像処理モジュール512は、ステップS120で、前記所定の条件が充足していると判定(ステップS133)された場合、左右方向の目位置の変化量ΔPxに応じた第2の左右補正量(第2の補正量)Cxq1だけ虚像Vの左右方向の位置を補正する。図13(a)に示すように、第2の左右補正量Cxq1は、第1の画像補正処理S160における左右方向の目位置の変化量ΔPxに対する第1の左右補正量Cxに1以下となる0.9の第1の左右係数(第1の所定係数)Q1を掛けた値である。具体的に例えば、左右方向の目位置の変化量ΔPxに対する第1の左右補正量Cxを100%とした場合、同じ上下方向の目位置の変化量ΔPxに対する第2の左右補正量Cxq1は90%である。なお、広義には、第2の左右補正量Cxq1は、第1の左右補正量Cxより小さくして第1の左右補正量Cxを抑制できればよいので、第1の左右補正量Cxに対して100%未満であればよいが、好ましくは、第1の左右補正量Cxに対して90%未満であることが好ましい。
(Second image correction processing S170)
When it is determined in step S120 that the predetermined condition is satisfied (step S133), the eye-following image processing module 512 of FIG. The horizontal position of the virtual image V is corrected by a horizontal correction amount (second correction amount) Cxq1. As shown in FIG. 13A, the second left/right correction amount Cxq1 is 0, which is 1 or less than the first left/right correction amount Cx with respect to the eye position change amount ΔPx in the left/right direction in the first image correction processing S160. It is a value obtained by multiplying 0.9 by a first left and right coefficient (first predetermined coefficient) Q1. Specifically, for example, if the first lateral correction amount Cx with respect to the eye position change amount ΔPx in the horizontal direction is 100%, the second lateral correction amount Cxq1 with respect to the eye position change amount ΔPx in the vertical direction is 90%. is. In a broad sense, the second left/right correction amount Cxq1 should be smaller than the first left/right correction amount Cx to suppress the first left/right correction amount Cx. %, but preferably less than 90% of the first lateral correction amount Cx.

(第2の画像補正処理S170)
図10の目追従性画像処理モジュール512は、ステップS120で、前記所定の条件が充足していると判定(ステップS133)された場合、上下方向の目位置の変化量ΔPyに応じた第2の上下補正量(第2の補正量)Cyr1だけ虚像Vの上下方向の位置を補正する。図13(b)に示すように、第2の上下補正量Cyr1は、第1の画像補正処理S160における上下方向の目位置の変化量ΔPyに対する第1の上下補正量Cyに1以下となる0.8の第1の上下係数(第1の所定係数)R1を掛けた値である。具体的に例えば、上下方向の目位置の変化量ΔPyに対する第1の上下補正量Cyを100%とした場合、同じ上下方向の目位置の変化量ΔPyに対する第2の上下補正量Cyr1は80%である。なお、広義には、第2の上下補正量Cyr1は、第1の上下補正量Cyより小さくして第1の左右補正量Cxを抑制できればよいので、第1の上下補正量Cyに対して100%未満であればよいが、好ましくは、第1の上下補正量Cyに対して80%未満であることが好ましい。
(Second image correction processing S170)
When it is determined in step S120 that the predetermined condition is satisfied (step S133), the eye-following image processing module 512 of FIG. The vertical position of the virtual image V is corrected by a vertical correction amount (second correction amount) Cyr1. As shown in FIG. 13B, the second vertical correction amount Cyr1 is 0, which is 1 or less than the first vertical correction amount Cy for the eye position change amount ΔPy in the vertical direction in the first image correction processing S160. .8 multiplied by a first upper and lower coefficient (first predetermined coefficient) R1. Specifically, for example, when the first vertical correction amount Cy for the eye position change amount ΔPy in the vertical direction is 100%, the second vertical correction amount Cyr1 for the same vertical eye position change amount ΔPy is 80%. is. In a broad sense, the second vertical correction amount Cyr1 should be smaller than the first vertical correction amount Cy to suppress the first horizontal correction amount Cx. %, but preferably less than 80% of the first vertical correction amount Cy.

(ステップS170の一例)
第1の左右係数Q1は、第1の上下係数R1よりも大きくなることが好ましい。
(Example of step S170)
The first left-right coefficient Q1 is preferably greater than the first up-down coefficient R1.

(ステップS170の一例)
いくつかの実施形態におけるステップS170において、表示制御装置30(プロセッサ33)は、図13(a)に示すように、第2の画像補正処理に移行してから、左右方向の目位置の変化量ΔPxに対する第2の左右補正量Cxq1は、左右方向の目位置の変化量ΔPxに対する第1の左右補正量Cxから遠ざかるに連れて、経時的に徐々に小さくしてもよい(Cxq11参照)。例えば、左右方向の目位置の変化量ΔPxに対する第1の左右補正量Cxを100%、第2の左右補正量Cxq1を90%であったとすると、表示制御装置30(プロセッサ33)は、第2の左右補正量Cxq1を、経時的に、100%→98%→96%・・・→92%のように徐々に第1の左右補正量Cxから遠ざかるに連れて減少させていってもよい。また、上下方向の目位置の変化量ΔPyに対する第2の上下補正量Cyr1も同様に、上下方向の目位置の変化量ΔPyに対する第1の上下補正量Cyから遠ざかるに連れて、経時的に徐々に小さくしてもよい。
(Example of step S170)
In step S170 in some embodiments, the display control device 30 (processor 33) shifts to the second image correction process, as shown in FIG. The second left/right correction amount Cxq1 for ΔPx may be gradually decreased over time as the distance from the first left/right correction amount Cx for the eye position change amount ΔPx in the left/right direction increases (see Cxq11). For example, assuming that the first lateral correction amount Cx and the second lateral correction amount Cxq1 with respect to the amount of change ΔPx in the eye position in the lateral direction are 100% and 90%, respectively, the display control device 30 (processor 33) The left/right correction amount Cxq1 may be gradually decreased from the first left/right correction amount Cx over time, such as 100%→98%→96% . . . →92%. Likewise, the second vertical correction amount Cyr1 for the eye position change amount ΔPy in the vertical direction gradually increases over time as it becomes more distant from the first vertical correction amount Cy for the eye position change amount ΔPy in the vertical direction. can be reduced to

この経時変化する補正量Cxq11は、物体距離が遠くなるに連れて経時的に徐々に小さくなり、反対に、物体距離が近くなるに連れて経時的に徐々に大きくなるが、その変化率は、物体距離が遠くなる場合と物体距離が近くなる場合で異なっていてもよい。 This time-varying correction amount Cxq11 gradually decreases over time as the object distance increases, and conversely increases over time as the object distance decreases. It may be different when the object distance becomes longer and when the object distance becomes closer.

(第3の画像補正処理S180)
図10の目追従性画像処理モジュール512は、ステップS120で、前記所定の条件が充足していると判定(ステップS134)された場合、左右方向の目位置の変化量ΔPxに応じた第3の左右補正量(第3の補正量)Cxq2だけ虚像Vの左右方向の位置を補正する。図13(a)に示すように、第3の左右補正量Cxq2は、第1の画像補正処理S160における左右方向の目位置の変化量ΔPxに対する第1の左右補正量Cxに第1の左右係数Q1よりも小さい0.5の第2の左右係数(第2の所定係数)Q2を掛けた値である。具体的に例えば、左右方向の目位置の変化量ΔPxに対する第1の左右補正量Cxを100%とした場合、同じ上下方向の目位置の変化量ΔPxに対する第3の左右補正量Cxq2は50%である。なお、広義には、第3の左右補正量Cxq2は、第1の左右補正量Cxより小さくして第1の左右補正量Cxを抑制できればよいので、第1の左右補正量Cxに対して100%未満であればよいが、好ましくは、第1の左右補正量Cxに対して50%未満であることが好ましい。
(Third image correction processing S180)
When it is determined in step S120 that the predetermined condition is satisfied (step S134), the eye-following image processing module 512 of FIG. The horizontal position of the virtual image V is corrected by a horizontal correction amount (third correction amount) Cxq2. As shown in FIG. 13A, the third left/right correction amount Cxq2 is the first left/right correction amount Cx with respect to the eye position change amount ΔPx in the left/right direction in the first image correction processing S160, and the first left/right coefficient It is a value multiplied by a second left and right coefficient (second predetermined coefficient) Q2 of 0.5 which is smaller than Q1. Specifically, for example, if the first lateral correction amount Cx for the eye position change amount ΔPx in the lateral direction is 100%, the third lateral correction amount Cxq2 for the same eye position change amount ΔPx in the vertical direction is 50%. is. In a broad sense, the third left/right correction amount Cxq2 should be smaller than the first left/right correction amount Cx to suppress the first left/right correction amount Cx. %, but preferably less than 50% of the first lateral correction amount Cx.

(第3の画像補正処理S180)
図10の目追従性画像処理モジュール512は、ステップS120で、前記所定の条件が充足していると判定(ステップS134)された場合、上下方向の目位置の変化量ΔPyに応じた第3の上下補正量(第3の補正量)Cyr2だけ虚像Vの上下方向の位置を補正する。図13(b)に示すように、第3の上下補正量Cyr2は、第1の画像補正処理S160における上下方向の目位置の変化量ΔPyに対する第1の上下補正量Cyに0.4の第1の上下係数R1よりも小さい第2の上下係数(第2の所定係数)R2を掛けた値である。具体的に例えば、上下方向の目位置の変化量ΔPyに対する第1の上下補正量Cyを100%とした場合、同じ上下方向の目位置の変化量ΔPyに対する第3の上下補正量Cyr2は40%である。なお、広義には、第3の上下補正量Cyr2は、第1の上下補正量Cyより小さくして第1の左右補正量Cxを抑制できればよいので、第1の上下補正量Cyに対して100%未満であればよいが、好ましくは、第1の上下補正量Cyに対して40%未満であることが好ましい。
(Third image correction processing S180)
When it is determined in step S120 that the predetermined condition is satisfied (step S134), the eye-following image processing module 512 of FIG. The vertical position of the virtual image V is corrected by a vertical correction amount (third correction amount) Cyr2. As shown in FIG. 13B, the third vertical correction amount Cyr2 is 0.4 times the first vertical correction amount Cy for the eye position change amount ΔPy in the vertical direction in the first image correction processing S160. It is a value obtained by multiplying 1 by a second upper/lower coefficient (second predetermined coefficient) R2 smaller than the upper/lower coefficient R1. Specifically, for example, when the first vertical correction amount Cy for the eye position change amount ΔPy in the vertical direction is 100%, the third vertical correction amount Cyr2 for the same eye position change amount ΔPy in the vertical direction is 40%. is. In a broad sense, the third vertical correction amount Cyr2 should be smaller than the first vertical correction amount Cy to suppress the first horizontal correction amount Cx. %, but preferably less than 40% of the first vertical correction amount Cy.

(ステップS180の一例)
いくつかの実施形態におけるステップS180において、表示制御装置30(プロセッサ33)は、図13(a)に示すように、第3の画像補正処理に移行してから、左右方向の目位置の変化量ΔPxに対する第3の左右補正量Cxq2が、左右方向の目位置の変化量ΔPxに対する第2の左右補正量Cxq1から遠ざかるように、経時的に徐々に小さくしてもよい(Cxq21参照)。例えば、左右方向の目位置の変化量ΔPxに対する第2の左右補正量Cxq1が90%、第3の左右補正量Cxq2が50%であったとすると、表示制御装置30(プロセッサ33)は、第3の左右補正量Cxq2を、経時的に、90%→80%→70%→・・・→50%のように徐々に第2の左右補正量Cxq1から遠ざかるように減少させていってもよい。また、上下方向の目位置の変化量ΔPyに対する第3の上下補正量Cyr2も同様に、上下方向の目位置の変化量ΔPyに対する第2の上下補正量Cyr1から遠ざかるように、経時的に徐々に小さくしてもよい。
(Example of step S180)
In step S180 in some embodiments, the display control device 30 (processor 33), as shown in FIG. The third left/right correction amount Cxq2 for ΔPx may gradually decrease over time so as to separate from the second left/right correction amount Cxq1 for the eye position change amount ΔPx in the left/right direction (see Cxq21). For example, assuming that the second lateral correction amount Cxq1 is 90% and the third lateral correction amount Cxq2 is 50% with respect to the eye position change amount ΔPx in the lateral direction, the display control device 30 (processor 33) The left/right correction amount Cxq2 may be gradually decreased over time from the second left/right correction amount Cxq1 in the manner of 90%→80%→70%→ . . . →50%. Likewise, the third vertical correction amount Cyr2 for the eye position change amount ΔPy in the vertical direction is also gradually separated from the second vertical correction amount Cyr1 for the eye position change amount ΔPy in the vertical direction. You can make it smaller.

この経時変化する補正量Cxq21は、物体距離が遠くなるに連れて経時的に徐々に小さくなり、反対に、物体距離が近くなるに連れて経時的に徐々に大きくなるが、その変化率は、物体距離が遠くなる場合と物体距離が近くなる場合で異なっていてもよい。 This time-varying correction amount Cxq21 gradually decreases over time as the object distance increases, and conversely increases over time as the object distance decreases. It may be different when the object distance becomes longer and when the object distance becomes closer.

(ステップS190)
いくつかの実施形態におけるステップS160において、表示制御装置30(プロセッサ33)は、所定の解除条件を充足したと判定した場合、第2の画像補正処理S170から第1の画像補正処理S160へ移行する。
(Step S190)
In step S160 in some embodiments, when the display control device 30 (processor 33) determines that the predetermined cancellation condition is satisfied, the process shifts from the second image correction processing S170 to the first image correction processing S160. .

前記所定の解除条件は、前記第2の画像補正処理S170に移行してから所定時間(例えば、20秒)が経過したことを含む。目追従性画像処理モジュール512は、前記第2の画像補正処理S170に移行してから計時を実行し、予めメモリ37に記憶された(又は操作検出部407で設定された)前記所定時間が経過した場合、前記解除条件を充足したと判定してもよい。 The predetermined cancellation condition includes that a predetermined period of time (for example, 20 seconds) has passed since the second image correction process S170 was started. The eye-tracking image processing module 512 executes timekeeping after shifting to the second image correction processing S170, and the predetermined time stored in advance in the memory 37 (or set by the operation detection unit 407) has elapsed. If so, it may be determined that the cancellation condition is satisfied.

(ステップS190)
いくつかの実施形態におけるステップS160において、表示制御装置30(プロセッサ33)は、所定の解除条件を充足したと判定した場合、第3の画像補正処理S180から第2の画像補正処理S170へ移行する。
(Step S190)
In step S160 in some embodiments, when the display control device 30 (processor 33) determines that the predetermined cancellation condition is satisfied, the process moves from the third image correction process S180 to the second image correction process S170. .

前記所定の解除条件は、第3の画像補正処理S180に移行してから所定時間(例えば、20秒)が経過したことを含む。目追従性画像処理モジュール512は、前記第3の画像補正処理S180に移行してから計時を実行し、予めメモリ37に記憶された(又は操作検出部407で設定された)前記所定時間が経過した場合、前記解除条件を充足したと判定してもよい。 The predetermined cancellation condition includes that a predetermined period of time (for example, 20 seconds) has passed since the third image correction process S180 was started. The eye-following image processing module 512 executes timekeeping after shifting to the third image correction processing S180, and the predetermined time stored in advance in the memory 37 (or set by the operation detection unit 407) has elapsed. If so, it may be determined that the cancellation condition is satisfied.

また、前記所定の解除条件は、ステップS120で前記所定の条件を充足しなくなったこと、を含んでいてもよい。すなわち、前記所定の解除条件は、ステップS131乃至S134、及びステップS141のうち少なくとも1つが前記所定の条件を充足した状態から前記所定の条件を充足しなくなった状態へ移行したことを検出すること、を含んでいてもよい。また、前記所定の解除条件は、ステップS120で前記所定の条件を充足しなくなってから所定時間(例えば、20秒)が経過したことを含んでいてもよい。 Further, the predetermined cancellation condition may include that the predetermined condition is no longer satisfied in step S120. That is, the predetermined cancellation condition is detecting that at least one of steps S131 to S134 and step S141 has changed from a state in which the predetermined condition is satisfied to a state in which the predetermined condition is no longer satisfied; may contain Further, the predetermined cancellation condition may include that a predetermined time (for example, 20 seconds) has passed after the predetermined condition is no longer satisfied in step S120.

再び、図10を参照する。図10のグラフィックモジュール514は、レンダリングなどの画像処理をして画像データを生成し、表示器40を駆動するための様々な既知のソフトウェア構成要素を含む。また、グラフィックモジュール514は、表示される画像の、種類(動画、静止画、形状)、配置(位置座標、角度)、サイズ、表示距離(3Dの場合。)、視覚的効果(例えば、輝度、透明度、彩度、コントラスト、又は他の視覚特性)、を変更するための様々な既知のソフトウェア構成要素を含んでいてもよい。グラフィックモジュール514は、画像の種類(表示パラメータの例の1つ。)、画像の位置座標(表示パラメータの例の1つ。)、画像の角度(X方向を軸としたピッチング角、Y方向を軸としたヨーレート角、Z方向を軸としたローリング角などであり、表示パラメータの例の1つ。)、画像のサイズ(表示パラメータの例の1つ。)、画像の色(色相、彩度、明度などで設定される表示パラメータの例の1つ。)、画像の遠近表現の強度(消失点の位置などで設定される表示パラメータの1つ。)で観察者に視認されるように画像データを生成し、光変調素子50を駆動し得る。 Again, refer to FIG. Graphics module 514 of FIG. 10 includes various known software components for performing image processing, such as rendering, to generate image data, and to drive display 40 . The graphic module 514 also controls the type (moving image, still image, shape), arrangement (positional coordinates, angle), size, display distance (in the case of 3D), visual effects (for example, brightness, (transparency, saturation, contrast, or other visual properties) may be included. The graphic module 514 stores the type of image (one example of display parameters), the position coordinates of the image (one example of display parameters), the angle of the image (pitch angle with the X direction as the axis, Y direction as the axis, yaw rate angle around the axis, rolling angle around the Z direction, etc., which are examples of display parameters), image size (one example of display parameters), image color (hue, saturation , one example of display parameters set by brightness, etc.), and the intensity of perspective expression of an image (one of display parameters set by the position of a vanishing point, etc.) to make an image visible to the observer. Data may be generated to drive the light modulating element 50 .

光源駆動モジュール516は、光源ユニット24を駆動することを実行するための様々な既知のソフトウェア構成要素を含む。光源駆動モジュール516は、設定された表示パラメータに基づき、光源ユニット24を駆動し得る。 Light source driving module 516 includes various known software components for performing driving of light source unit 24 . The light source driving module 516 may drive the light source units 24 based on the set display parameters.

アクチュエータ駆動モジュール518は、第1アクチュエータ28及び/又は第2アクチュエータ29を駆動することを実行するための様々な既知のソフトウェア構成要素を含むアクチュエータ駆動モジュール518は、設定された表示パラメータに基づき、第1アクチュエータ28及び第2アクチュエータ29を駆動し得る。 Actuator drive module 518 includes various known software components for performing driving first actuator 28 and/or second actuator 29. One actuator 28 and a second actuator 29 can be driven.

以上に説明したように、本実施形態の表示制御装置30は、画像を表示する表示器(40)、前記表示器(40)が表示する前記画像の光を被投影部材に投影するリレー光学系(80)から少なくとも構成され、車両のユーザーに前記画像の虚像を前景に重ねて視認させるヘッドアップディスプレイ装置(20)における表示制御を実行する表示制御装置(30)であって、1つ又は複数のプロセッサ(33)と、メモリ(37)と、前記メモリ(37)に格納され、前記1つ又は複数のプロセッサ(33)によって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、前記車両の周辺に存在する実オブジェクトを検出する車外センサ(411)と、を備え、前記プロセッサ(33)は、前記ユーザーの前記車両の上下方向の目位置及び/又は頭位置(Py)並びに前記車両の左右方向の目位置及び/又は頭位置(Px)を取得し、前記上下方向の目位置又は頭位置(Py)及び前記左右方向の目位置又は頭位置(Px)の変化(ΔPy)に少なくとも基づいた第1の補正量(Cx,Cy)で前記表示器(40)に表示する前記画像の位置を補正する第1の画像補正処理(S160)と、前記表示器(40)に表示する前記画像の位置を前記第1の補正量(Cx,Cy)に1以下となる第1の所定係数(Q1,R1)を掛けた第2の補正量(Cxq1,Cyr1)で補正する第2の画像補正処理(S170)と、を有し、前記車両から前記前景にある前記実オブジェクトまでの距離(D4)が、第1の距離閾値以下の場合に、前記第1の画像補正処理を実行し、前記車両から前記前景にある前記実オブジェクトまでの距離(D4)が、前記第1の距離閾値よりも大きい場合に、前記第2の画像補正処理(S170)を実行する。
これにより、観察者の目位置が所定の移動量以上の移動量に動いていると検出(誤検出)された場合であっても、画像の位置補正を抑制することにより、観察者に与える違和感を軽減することができる。
As described above, the display control device 30 of this embodiment includes a display (40) for displaying an image, and a relay optical system for projecting the light of the image displayed by the display (40) onto a projection target member. (80) for executing display control in a head-up display device (20) that allows a user of the vehicle to visually recognize a virtual image of the image superimposed on the foreground, comprising one or more a processor (33) of, a memory (37) and one or more computer programs stored in said memory (37) and configured to be executed by said one or more processors (33); , a vehicle exterior sensor (411) that detects a real object existing around the vehicle, and the processor (33) detects the user's eye position and/or head position (Py) in the vertical direction of the vehicle, and Acquire the eye position and/or head position (Px) in the horizontal direction of the vehicle, and change (ΔPy) in the eye position or head position (Py) in the vertical direction and the eye position or head position (Px) in the horizontal direction a first image correction process (S160) for correcting the position of the image displayed on the display (40) with a first correction amount (Cx, Cy) based at least on the display (40); A second correction amount (Cxq1, Cyr1) obtained by multiplying the first correction amount (Cx, Cy) by a first predetermined coefficient (Q1, R1) that is equal to or less than 1. and executing the first image correction process (S170) when the distance (D4) from the vehicle to the real object in the foreground is equal to or less than a first distance threshold. Then, when the distance (D4) from the vehicle to the real object in the foreground is greater than the first distance threshold, the second image correction process (S170) is executed.
As a result, even if it is detected (erroneous detection) that the eye position of the observer has moved by a movement amount greater than or equal to the predetermined movement amount, the correction of the position of the image is suppressed, thereby preventing the observer from feeling discomfort. can be reduced.

また、いくつかの実施形態において、前記第1の距離閾値は、前記車両から前記虚像の表示される領域までの距離(D10)であってもよい。 Further, in some embodiments, the first distance threshold may be a distance (D10) from the vehicle to the area where the virtual image is displayed.

また、いくつかの実施形態において、前記表示器(40)に表示する前記画像の位置を前記第1の補正量(Cx,Cy)に第2の所定係数(Q2,R2)を掛けた第3の補正量(Cxq2,Cyr2)で補正する第3の画像補正処理(S180)と、を有し、前記実オブジェクトまでの距離(D4)が、第2の距離閾値よりも大きい場合に、前記第3の画像補正処理(S180)を実行してもよい。 Further, in some embodiments, the position of the image displayed on the display (40) is the third correction amount obtained by multiplying the first correction amount (Cx, Cy) by a second predetermined coefficient (Q2, R2). and a third image correction process (S180) for correcting with the correction amount (Cxq2, Cyr2) of, and when the distance (D4) to the real object is larger than the second distance threshold, the 3 image correction processing (S180) may be executed.

また、いくつかの実施形態において、前記第2の距離閾値は、前記第1の距離閾値よりも大きいものであってもよい。 Also, in some embodiments, the second distance threshold may be greater than the first distance threshold.

また、いくつかの実施形態において、前記第2の所定係数(Q2,R2)は、前記第1の所定係数(Q1,R1)よりも小さいものであってもよい。 Also, in some embodiments, the second predetermined coefficient (Q2, R2) may be smaller than the first predetermined coefficient (Q1, R1).

また、いくつかの実施形態において、前記左右方向の目位置又は頭位置(Px)の変化(ΔPy)に基づいて前記表示器(40)に表示する前記画像の位置を補正する場合の前記第1の所定係数(Q1)は、前記上下方向の目位置又は頭位置(Py)の変化(ΔPy)に基づいて前記表示器(40)に表示する前記画像の位置を補正する場合の前記第1の所定係数(R1)よりも大きくなってもよい。 Further, in some embodiments, when the position of the image displayed on the display (40) is corrected based on the change (ΔPy) in the eye position or head position (Px) in the horizontal direction, the first The predetermined coefficient (Q1) of is the first coefficient (Q1) when correcting the position of the image displayed on the display (40) based on the change (ΔPy) in the eye position or head position (Py) in the vertical direction. It may be larger than the predetermined coefficient (R1).

また、いくつかの実施形態において、前記第1の所定係数(Q1)は、前記第2の画像補正処理において、前記第2の補正量(Cxq1、Cyr1)が、前記第1の画像補正処理のときの前記第1の補正量(Cx,Cy)から遠ざかるに連れて経時的に変化してもよい。 Further, in some embodiments, the first predetermined coefficient (Q1) in the second image correction process is the second correction amount (Cxq1, Cyr1) in the first image correction process. The first correction amount (Cx, Cy) may change over time as the distance from the first correction amount (Cx, Cy) increases.

また、いくつかの実施形態において、ヘッドアップディスプレイ装置20は、画像を表示する表示器(40)、前記表示器(40)が表示する前記画像の光を被投影部材に投影するリレー光学系(80)から少なくとも構成され、車両のユーザーに前記画像の虚像を前景に重ねて視認させるヘッドアップディスプレイ装置(20)における表示制御を実行する表示制御装置(30)であって、1つ又は複数のプロセッサ(33)と、メモリ(37)と、前記メモリ(37)に格納され、前記1つ又は複数のプロセッサ(33)によって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、前記車両の周辺に存在する実オブジェクトを検出する車外センサ(411)と、を備え、前記プロセッサ(33)は、前記ユーザーの前記車両の上下方向の目位置及び/又は頭位置(Py)並びに前記車両の左右方向の目位置及び/又は頭位置(Px)を取得し、前記上下方向の目位置又は頭位置(Py)及び前記左右方向の目位置又は頭位置(Px)の変化(ΔPy)に少なくとも基づいた第1の補正量(Cx,Cy)で前記表示器(40)に表示する前記画像の位置を補正する第1の画像補正処理(S160)と、前記表示器(40)に表示する前記画像の位置を前記第1の補正量(Cx,Cy)に1以下となる第1の所定係数(Q1,R1)を掛けた第2の補正量(Cxq1,Cyr1)で補正する第2の画像補正処理(S170)と、を有し、前記車両から前記前景にある前記実オブジェクトまでの距離(D4)が、第1の距離閾値以下の場合に、前記第1の画像補正処理を実行し、前記車両から前記前景にある前記実オブジェクトまでの距離(D4)が、前記第1の距離閾値よりも大きい場合に、前記第2の画像補正処理(S170)を実行する。 In some embodiments, the head-up display device 20 includes a display (40) that displays an image, and a relay optical system ( 80), and performs display control in a head-up display device (20) that allows a vehicle user to visually recognize a virtual image of the image superimposed on the foreground, wherein one or more a processor (33), a memory (37), one or more computer programs stored in said memory (37) and configured to be executed by said one or more processors (33); a vehicle exterior sensor (411) that detects a real object existing around the vehicle; The eye position and/or head position (Px) in the horizontal direction of the vehicle is obtained, and the eye position or head position (Py) in the vertical direction and the change (ΔPy) in the eye position or head position (Px) in the horizontal direction a first image correction process (S160) for correcting the position of the image displayed on the display (40) with a first correction amount (Cx, Cy) based on at least; a second correction amount (Cxq1, Cyr1) obtained by multiplying the first correction amount (Cx, Cy) by a first predetermined coefficient (Q1, R1) of 1 or less; and image correction processing (S170), wherein the first image correction processing is performed when a distance (D4) from the vehicle to the real object in the foreground is equal to or less than a first distance threshold. and executing the second image correction process (S170) when the distance (D4) from the vehicle to the real object in the foreground is greater than the first distance threshold.

上記の処理プロセスの動作は、汎用プロセッサ又は特定用途向けチップなどの情報処理装置の1つ以上の機能モジュールを実行させることにより実施することができる。これらのモジュール、これらのモジュールの組み合わせ、及び/又はそれらの機能を代替えし得る公知のハードウェアとの組み合わせは全て、本発明の保護の範囲内に含まれる。 The operations of the processing processes described above may be implemented by executing one or more functional modules of an information processing device such as a general purpose processor or an application specific chip. These modules, combinations of these modules, and/or combinations with known hardware that can replace their functions are all within the scope of protection of the present invention.

車両用表示システム10の機能ブロックは、任意選択的に、説明される様々な実施形態の原理を実行するために、ハードウェア、ソフトウェア、又はハードウェア及びソフトウェアの組み合わせによって実行される。図10で説明する機能ブロックが、説明される実施形態の原理を実施するために、任意選択的に、組み合わされ、又は1つの機能ブロックを2以上のサブブロックに分離されてもいいことは、当業者に理解されるだろう。したがって、本明細書における説明は、本明細書で説明されている機能ブロックのあらゆる可能な組み合わせ若しくは分割を、任意選択的に支持する。 The functional blocks of vehicle display system 10 are optionally implemented in hardware, software, or a combination of hardware and software to carry out the principles of the various described embodiments. It is noted that the functional blocks illustrated in FIG. 10 may optionally be combined or separated into two or more sub-blocks to implement the principles of the described embodiments. will be understood by those skilled in the art. Accordingly, the description herein optionally supports any possible combination or division of the functional blocks described herein.

1 :車両
2 :被投影部
5 :ダッシュボード
6 :路面
10 :車両用表示システム
20 :HUD装置
21 :光出射窓
22 :筐体
24 :光源ユニット
28 :第1アクチュエータ
29 :第2アクチュエータ
30 :表示制御装置
31 :I/Oインタフェース
33 :プロセッサ
35 :画像処理回路
37 :メモリ
40 :表示装置
205 :中心
300 :実オブジェクト
311 :路面
313 :人物
314 :他車両
315 :建物
401 :車両ECU
403 :道路情報データベース
405 :自車位置検出部
407 :操作検出部
409 :目位置検出部
411 :車外センサ
413 :明るさ検出部
417 :携帯情報端末
419 :外部通信機器
502 :目位置検出モジュール
504 :目位置推定モジュール
506 :目位置予測モジュール
508 :目位置状態判定モジュール
510 :車両状態判定モジュール
511 :距離判定モジュール
512 :目追従性画像処理モジュール
514 :グラフィックモジュール
516 :光源駆動モジュール
518 :アクチュエータ駆動モジュール
710 :頭位置
Cx :第1の左右補正量(第1の補正量)
Cxq1 :第2の左右補正量(第2の補正量)
Cxq2 :第3の左右補正量(第3の補正量)
Cy :第1の上下補正量(第1の補正量)
Cyr1 :第2の上下補正量(第2の補正量)
Cyr2 :第3の上下補正量(第3の補正量)
Q1 :第1の左右係数(第1の所定係数)
Q2 :第2の左右係数(第2の所定係数)
R1 :第1の上下係数(第1の所定係数)
R2 :第2の上下係数(第2の所定係数)
D10 :結像距離(第1の距離閾値)
D30 :知覚距離
D4 :物体距離(実オブジェクトまでの距離)
FU :仮想オブジェクト(知覚虚像)
K :表示光
PS :虚像表示領域
PT :ターゲット位置
Px :左右方向の目位置(頭位置)
Py :上下方向の目位置(頭位置)
V :虚像
V60 :AR虚像(上側虚像)
V61 :ナビ虚像
V62 :ナビ虚像
V63 :強調虚像
V64 :強調虚像
V65 :強調虚像
V65 :POI虚像
V70 :非AR虚像(下側虚像)
VS :虚像表示領域
Vx :移動速度
Vy :移動速度
t :周期時間
ΔPx :変化量
ΔPy :変化量

Reference Signs List 1: Vehicle 2: Projected portion 5: Dashboard 6: Road surface 10: Vehicle display system 20: HUD device 21: Light exit window 22: Housing 24: Light source unit 28: First actuator 29: Second actuator 30: Display control device 31 : I/O interface 33 : Processor 35 : Image processing circuit 37 : Memory 40 : Display device 205 : Center 300 : Real object 311 : Road surface 313 : Person 314 : Other vehicle 315 : Building 401 : Vehicle ECU
403 : road information database 405 : own vehicle position detection unit 407 : operation detection unit 409 : eye position detection unit 411 : outside sensor 413 : brightness detection unit 417 : portable information terminal 419 : external communication device 502 : eye position detection module 504 : Eye position estimation module 506 : Eye position prediction module 508 : Eye position state determination module 510 : Vehicle state determination module 511 : Distance determination module 512 : Eye-following image processing module 514 : Graphic module 516 : Light source drive module 518 : Actuator drive Module 710: Head position Cx: First lateral correction amount (first correction amount)
Cxq1: Second left/right correction amount (second correction amount)
Cxq2: Third right/left correction amount (third correction amount)
Cy: first vertical correction amount (first correction amount)
Cyr1: Second vertical correction amount (second correction amount)
Cyr2: third vertical correction amount (third correction amount)
Q1: first left-right coefficient (first predetermined coefficient)
Q2: second left-right coefficient (second predetermined coefficient)
R1: first upper and lower coefficient (first predetermined coefficient)
R2: second upper and lower coefficient (second predetermined coefficient)
D10: imaging distance (first distance threshold)
D30: Perceived distance D4: Object distance (distance to real object)
FU: virtual object (perceptual virtual image)
K: display light PS: virtual image display area PT: target position Px: eye position (head position) in the horizontal direction
Py: Vertical eye position (head position)
V: virtual image V60: AR virtual image (upper virtual image)
V61: navigation virtual image V62: navigation virtual image V63: enhanced virtual image V64: enhanced virtual image V65: enhanced virtual image V65: POI virtual image V70: non-AR virtual image (lower virtual image)
VS: virtual image display area Vx: moving speed Vy: moving speed t: cycle time ΔPx: amount of change ΔPy: amount of change

Claims (8)

画像を表示する表示器(40)、前記表示器(40)が表示する前記画像の光を被投影部材に投影するリレー光学系(80)から少なくとも構成され、車両のユーザーに前記画像の虚像を前景に重ねて視認させるヘッドアップディスプレイ装置(20)における表示制御を実行する表示制御装置(30)であって、
1つ又は複数のプロセッサ(33)と、
メモリ(37)と、
前記メモリ(37)に格納され、前記1つ又は複数のプロセッサ(33)によって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、
前記車両の周辺に存在する実オブジェクトを検出する車外センサ(411)と、を備え、
前記プロセッサ(33)は、前記ユーザーの前記車両の上下方向の目位置及び/又は頭位置(Py)並びに前記車両の左右方向の目位置及び/又は頭位置(Px)を取得し、前記上下方向の目位置又は頭位置(Py)及び前記左右方向の目位置又は頭位置(Px)の変化(ΔPy)に少なくとも基づいた第1の補正量(Cx,Cy)で前記表示器(40)に表示する前記画像の位置を補正する第1の画像補正処理(S160)と、
前記表示器(40)に表示する前記画像の位置を前記第1の補正量(Cx,Cy)に1以下となる第1の所定係数(Q1,R1)を掛けた第2の補正量(Cxq1,Cyr1)で補正する第2の画像補正処理(S170)と、を有し、
前記車両から前記前景にある前記実オブジェクトまでの距離(D4)が、第1の距離閾値以下の場合に、前記第1の画像補正処理を実行し、
前記車両から前記前景にある前記実オブジェクトまでの距離(D4)が、前記第1の距離閾値よりも大きい場合に、前記第2の画像補正処理(S170)を実行する、
表示制御装置(30)。
It comprises at least a display (40) for displaying an image, and a relay optical system (80) for projecting the light of the image displayed by the display (40) onto a projection target member, and presents a virtual image of the image to the user of the vehicle. A display control device (30) that executes display control in a head-up display device (20) that is superimposed on the foreground and visually recognized,
one or more processors (33);
a memory (37);
one or more computer programs stored in said memory (37) and configured to be executed by said one or more processors (33);
a vehicle exterior sensor (411) that detects a real object existing around the vehicle;
The processor (33) acquires the user's eye position and/or head position (Py) in the vertical direction of the vehicle and the eye position and/or head position (Px) in the horizontal direction of the vehicle. displayed on the display (40) with a first correction amount (Cx, Cy) based at least on the eye position or head position (Py) and the change (ΔPy) in the eye position or head position (Px) in the horizontal direction a first image correction process (S160) for correcting the position of the image to be
A second correction amount (Cxq1 , Cyr1) and a second image correction process (S170),
performing the first image correction process when a distance (D4) from the vehicle to the real object in the foreground is equal to or less than a first distance threshold;
executing the second image correction process (S170) when the distance (D4) from the vehicle to the real object in the foreground is greater than the first distance threshold;
A display controller (30).
前記第1の距離閾値は、前記車両から前記虚像の表示される領域までの距離(D10)である、
ことを特徴とする請求項1に記載の表示制御装置(30)。
The first distance threshold is the distance (D10) from the vehicle to the area where the virtual image is displayed,
A display control device (30) according to claim 1, characterized in that:
前記表示器(40)に表示する前記画像の位置を前記第1の補正量(Cx,Cy)に第2の所定係数(Q2,R2)を掛けた第3の補正量(Cxq2,Cyr2)で補正する第3の画像補正処理(S180)と、を有し、
前記実オブジェクトまでの距離(D4)が、第2の距離閾値よりも大きい場合に、前記第3の画像補正処理(S180)を実行する、
ことを特徴とする請求項1に記載の表示制御装置(30)。
The position of the image displayed on the display (40) is determined by a third correction amount (Cxq2, Cyr2) obtained by multiplying the first correction amount (Cx, Cy) by a second predetermined coefficient (Q2, R2). and a third image correction process (S180) to correct,
executing the third image correction process (S180) when the distance (D4) to the real object is greater than a second distance threshold;
A display control device (30) according to claim 1, characterized in that:
前記第2の距離閾値は、前記第1の距離閾値よりも大きい、
ことを特徴とする請求項3に記載の表示制御装置(30)。
the second distance threshold is greater than the first distance threshold;
A display control device (30) according to claim 3, characterized in that:
前記第2の所定係数(Q2,R2)は、前記第1の所定係数(Q1,R1)よりも小さい、
ことを特徴とする請求項3に記載の表示制御装置(30)。
the second predetermined coefficient (Q2, R2) is smaller than the first predetermined coefficient (Q1, R1);
A display control device (30) according to claim 3, characterized in that:
前記左右方向の目位置又は頭位置(Px)の変化(ΔPy)に基づいて前記表示器(40)に表示する前記画像の位置を補正する場合の前記第1の所定係数(Q1)は、前記上下方向の目位置又は頭位置(Py)の変化(ΔPy)に基づいて前記表示器(40)に表示する前記画像の位置を補正する場合の前記第1の所定係数(R1)よりも大きくなる、
ことを特徴とする請求項1に記載の表示制御装置(30)。
The first predetermined coefficient (Q1) when correcting the position of the image displayed on the display (40) based on the change (ΔPy) in the eye position or the head position (Px) in the horizontal direction is larger than the first predetermined coefficient (R1) when correcting the position of the image displayed on the display (40) based on a change (ΔPy) in eye position or head position (Py) in the vertical direction ,
A display control device (30) according to claim 1, characterized in that:
前記第1の所定係数(Q1)は、前記第2の画像補正処理において、
前記第2の補正量(Cxq1、Cyr1)が、前記第1の画像補正処理のときの前記第1の補正量(Cx,Cy)から遠ざかるに連れて経時的に変化する、
ことを特徴とする請求項1に記載の表示制御装置(30)。
In the second image correction process, the first predetermined coefficient (Q1) is
The second correction amount (Cxq1, Cyr1) changes over time as it moves away from the first correction amount (Cx, Cy) in the first image correction process.
A display control device (30) according to claim 1, characterized in that:
画像を表示する表示器(40)、前記表示器(40)が表示する前記画像の光を被投影部材に投影するリレー光学系(80)から少なくとも構成され、車両のユーザーに前記画像の虚像を前景に重ねて視認させるヘッドアップディスプレイ装置(20)における表示制御を実行する表示制御装置(30)であって、
1つ又は複数のプロセッサ(33)と、
メモリ(37)と、
前記メモリ(37)に格納され、前記1つ又は複数のプロセッサ(33)によって実行されるように構成される1つ又は複数のコンピュータ・プログラムと、
前記車両の周辺に存在する実オブジェクトを検出する車外センサ(411)と、を備え、
前記プロセッサ(33)は、前記ユーザーの前記車両の上下方向の目位置及び/又は頭位置(Py)並びに前記車両の左右方向の目位置及び/又は頭位置(Px)を取得し、前記上下方向の目位置又は頭位置(Py)及び前記左右方向の目位置又は頭位置(Px)の変化(ΔPy)に少なくとも基づいた第1の補正量(Cx,Cy)で前記表示器(40)に表示する前記画像の位置を補正する第1の画像補正処理(S160)と、
前記表示器(40)に表示する前記画像の位置を前記第1の補正量(Cx,Cy)に1以下となる第1の所定係数(Q1,R1)を掛けた第2の補正量(Cxq1,Cyr1)で補正する第2の画像補正処理(S170)と、を有し、
前記車両から前記前景にある前記実オブジェクトまでの距離(D4)が、第1の距離閾値以下の場合に、前記第1の画像補正処理を実行し、
前記車両から前記前景にある前記実オブジェクトまでの距離(D4)が、前記第1の距離閾値よりも大きい場合に、前記第2の画像補正処理(S170)を実行する、
ヘッドアップディスプレイ装置(20)。
It comprises at least a display (40) for displaying an image, and a relay optical system (80) for projecting the light of the image displayed by the display (40) onto a projection target member, and presents a virtual image of the image to the user of the vehicle. A display control device (30) that executes display control in a head-up display device (20) that is superimposed on the foreground and visually recognized,
one or more processors (33);
a memory (37);
one or more computer programs stored in said memory (37) and configured to be executed by said one or more processors (33);
a vehicle exterior sensor (411) that detects a real object existing around the vehicle;
The processor (33) acquires the user's eye position and/or head position (Py) in the vertical direction of the vehicle and the eye position and/or head position (Px) in the horizontal direction of the vehicle. displayed on the display (40) with a first correction amount (Cx, Cy) based at least on the eye position or head position (Py) and the change (ΔPy) in the eye position or head position (Px) in the horizontal direction a first image correction process (S160) for correcting the position of the image to be
A second correction amount (Cxq1 , Cyr1) and a second image correction process (S170),
performing the first image correction process when a distance (D4) from the vehicle to the real object in the foreground is equal to or less than a first distance threshold;
executing the second image correction process (S170) when the distance (D4) from the vehicle to the real object in the foreground is greater than the first distance threshold;
A head-up display device (20).
JP2021099106A 2021-06-15 2021-06-15 Display control device, head-up display device and display control method Pending JP2022190724A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021099106A JP2022190724A (en) 2021-06-15 2021-06-15 Display control device, head-up display device and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021099106A JP2022190724A (en) 2021-06-15 2021-06-15 Display control device, head-up display device and display control method

Publications (1)

Publication Number Publication Date
JP2022190724A true JP2022190724A (en) 2022-12-27

Family

ID=84613022

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021099106A Pending JP2022190724A (en) 2021-06-15 2021-06-15 Display control device, head-up display device and display control method

Country Status (1)

Country Link
JP (1) JP2022190724A (en)

Similar Documents

Publication Publication Date Title
WO2020110580A1 (en) Head-up display, vehicle display system, and vehicle display method
JP2015101311A (en) Vehicle information projection system
US11584298B2 (en) Vehicle display system and vehicle
JP2020032866A (en) Vehicular virtual reality providing device, method and computer program
JP7255608B2 (en) DISPLAY CONTROLLER, METHOD, AND COMPUTER PROGRAM
JP7459883B2 (en) Display control device, head-up display device, and method
WO2022230995A1 (en) Display control device, head-up display device, and display control method
JP2023077857A (en) Head up display device
WO2021015171A1 (en) Head-up display
WO2023048213A1 (en) Display control device, head-up display device, and display control method
WO2021200914A1 (en) Display control device, head-up display device, and method
WO2020158601A1 (en) Display control device, method, and computer program
WO2023003045A1 (en) Display control device, head-up display device, and display control method
JP2022190724A (en) Display control device, head-up display device and display control method
JP2022072954A (en) Display control device, head-up display device, and display control method
JP2020121607A (en) Display control device, method and computer program
JP2021056358A (en) Head-up display device
JP2022113292A (en) Display control device, head-up display device, and display control method
JP2020117105A (en) Display control device, method and computer program
JP2020121704A (en) Display control device, head-up display device, method and computer program
JP2022077138A (en) Display controller, head-up display device, and display control method
JP2022057051A (en) Display controller and virtual display device
WO2021200913A1 (en) Display control device, image display device, and method
JP7434894B2 (en) Vehicle display device
JP2023093913A (en) Display control device, head-up display device, and display control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240415